707
1 UNIVERSITE DE ROUEN Ecole doctorale « Homme – Sociétés – Risques - Territoire » Laboratoire CIVIIC (EA 2657) Thèse pour l’obtention du doctorat en sciences de l’éducation Sous la direction de Jean HOUSSAYE, professeur des universités Présentée et soutenue publiquement par Christian BELISSON 2012 UN REFERENTIEL, POUR QUOI FAIRE ? Etude sur les systèmes de référence implicites des milieux professionnels de l’animation

UN REFERENTIEL, POUR QUOI FAIRE

  • Upload
    others

  • View
    14

  • Download
    0

Embed Size (px)

Citation preview

Page 1: UN REFERENTIEL, POUR QUOI FAIRE

1

UNIVERSITE DE ROUEN Ecole doctorale « Homme – Sociétés – Risques - Territoire » Laboratoire CIVIIC (EA 2657)

Thèse pour l’obtention du doctorat en sciences de l’éducation Sous la direction de Jean HOUSSAYE, professeur des universités

Présentée et soutenue publiquement par

Christian BELISSON

2012

UN REFERENTIEL,

POUR QUOI FAIRE ? Etude sur les systèmes de référence implicites

des milieux professionnels de l’animation

Page 2: UN REFERENTIEL, POUR QUOI FAIRE

2

REMERCIEMENTS

Le plus enrichissant, lors de cette expérience de recherche, a été, pour moi, cette

conscience de faire partie d’un Tout, avec les personnes que je côtoie. Certes, j’ai pu me sentir

souvent (très) seul ; pourtant le produit final n’aurait jamais existé, sans l’aide que m’ont

apporté les uns et les autres et, surtout, sans les pistes qu’ils m’ont ouvertes.

Il y a bien entendu ma famille que je remercie pour sa patience, mes amis qui m’ont

encouragé, parfois avec beaucoup d’humour. Je remercie aussi les collègues du laboratoire

CIVIIC qui m’ont apporté leurs concours matériel et leur réconfort moral, à certains moments

où il y en avait bien besoin, ainsi que le CRDP de Grenoble pour sa disponibilité.

Je remercie mon employeur, Monsieur le Préfet du Val de Marne et Monsieur le

Directeur départemental de la cohésion sociale, pour leur contribution à l’édition de cette

thèse.

Je souhaite aussi remercier Mohamed ACHOUCHE et Michel JOLLAND, qui ont

balisé mes premières pistes de chercheur inexpérimenté, ainsi que Corinne CURIEN, du

ministère de la jeunesse et des sports, qui m’a offert mon premier terrain de recherche : cette

première expérience n’a pas été reprise dans la présentation de la thèse, mais elle a eu une

importance déterminante, en raison des hypothèses qu’elle a induites.

Je n’oublie pas les stagiaires animateurs et les professionnels qui ont accepté de se

prêter à la première expérience, ainsi que le réseau RENE et les animateurs de la FRAPNA,

qui m’ont accueilli lors de la deuxième expérience.

Mais je souhaite insister sur les remerciements à mon directeur de thèse : j’ai eu

maintes fois l’occasion d’expérimenter l’enrichissement apporté par la découverte d’une

pédagogie, en même temps que de la vivre, à condition bien entendu de l’accompagner d’un

travail de métacognition Cette fois-ci, la pédagogie s’intitulait triangle pédagogique et la

métacognition s’appelait recherche, et l’alchimie, judicieusement mise en œuvre par Jean

HOUSSAYE, a ainsi décanté le nœud le plus difficile de ma recherche : l’articulation entre

signification et référence, ou, en d’autres termes, la question du sens.

Je remercie enfin les membres du jury pour leur regard critique. Ce travail n’aurait

guère de sens sans la confrontation : certes, il y a le rapport référentiel avec l’expérience

quotidienne de l’activité professionnelle, mais la formation des conceptions ne se construit

que dans les échanges langagiers, fondés sur des compétences reconnues et partagées.

Page 3: UN REFERENTIEL, POUR QUOI FAIRE

3

SOMMAIRE INTRODUCTION : LA COMPLEXITE DE LA RECHERCHE page 5

1ère PARTIE : LES FONDEMENTS DE CETTE RECHERCHE page 12

� Chapitre 1 : Le parti pris de la recherche page 13

1 - L’observation des situations éducatives 2 - La prise en considération des préoccupations du milieu professionnel 3 - La modélisation des situations éducatives

� Chapitre 2 : Les concepts de la « systémique » page 21 1 - Les fondamentaux de la théorie systémique 2 - Les limites de la méthode analogique

� Chapitre 3 : Vers la définition des axes de recherche page 45

1 - La notion de paradigme 2 - Théorie du « système général » 3 - Les conceptions de l’objet et la méthode pour l’étudier

� Chapitre 4 : Les quatre axes de la recherche page 72

1 - Principes et méthodes 2 –Constructivisme et cognitivisme 3 - Chronologie des études

2ème PARTIE : REVUE DE LA LITERRATURE ET DEFINITION DES CONCEPTS page 106 � Chapitre 5 : Les problématiques autour de l’évaluation en sciences de l’éducation page 108

1 - Psychologie de l’évaluation : la docimologie et la notion d’ancrage 2 - La pédagogie par objectifs, les taxonomies et la notion de fonction 3 - L’analyse institutionnelle 4 - Les concepts de « projet » et de « curriculum » 5 - Les concepts de la didactique 6 – Sur la question du savoir et de l’institution 7 - Les recherches sur l’évaluation et l’émergence de la notion de Référentiel

� Chapitre 6 : Les objets de l’évaluation page 178

1 - Etudier les objets de l’évaluation 2 - Une approche des procès d’évaluation à partir des concepts sociologiques 3 - Savoir faire et question de la « compétence » 4 – Modélisation des référentiels implicites

� Ch. 7 : Définition du Référentiel, des critères et des indicateurs page 301 1 - Le Référentiel pour les milieux de l’éducation 2 - Le Référentiel pour les sciences politiques 3 - Référentiel politique et Référentiels outils 4 - Critère et indicateur 5 - Analyse des critères à travers les rapports de jurys 6 - Le critère comme objet de recherche

Page 4: UN REFERENTIEL, POUR QUOI FAIRE

4

3ème PARTIE : METHODOLOGIE - L’ANALYSE DES DISCOURS pa ge 350 � Chapitre 8 : Introduction à l’analyse des contenus et des discours page 353

1) L’analyse des contenus et la psychosociologie française 2) L’analyse des discours et la linguistique 3) Analyse de contenu et analyse des discours, première synthèse 4) sémiotique et grammaire, sur la question du sens

� Chapitre 9 : Les structures de signification et la référence page 408

1) Paradigmes psychologiques et données langagières 2) L’analyse des structures discursives 3) Les dimensions de la signification

� Chapitre 10 : Les unités du discours et l’analyse des critères page 466

1) L’articulation entre les plans du discours et les dimensions de la signification 2) Les structures propositionnelles et l’analyse des prédicats 3) L’utilisation des logiciels 4) L’analyse des Référentiels et observation des critères

4ème PARTIE : ETUDES EMPIRIQUES DES REFERENTIELS page 542 � Chapitre 11 : Présentation du milieu socioprofessionnel de l’animation page 543

1) L’articulation entre les apports des différentes disciplines 2) Le milieu professionnel de l’animation 3) Une approche systémique 4) L’éducation populaire entre pratiques et théories

� Chapitre 12 : expérience N°1 : L’évaluation des productions écrites de stagiaires par des professionnels page 581

1) Objectifs et hypothèses de l’expérience 2) Présentation de l’expérience 3) Conclusions sur l’analyse des critères et fonction formatrice de la recherche

� Chapitre 13 : expérience N° 2 : Les conceptions de l’évaluation dans un réseau d’animateurs professionnels page 611

1) Présentation de la recherche 2) Présentation de la méthode 3) Les traitements automatiques et leur interprétation 4) La modélisation du référentiel des animateurs du RENE 5) Synthèse des résultats

� Chapitre 14 : expérience N° 3 : Les conceptions du métier : analyse des Référentiels de compétences page 658

1) Dispositif de recherche et utilisation du logiciel 2) L’analyse syntaxique des propositions 3) L’analyse pragmatique de l’énonciation 4) Les compétences en jeu

Page 5: UN REFERENTIEL, POUR QUOI FAIRE

5

CONCLUSION page 673

1) Les Référentiels et la réduction des écarts de notation 2) La généralisation des Référentiels 3) L’institutionnalisation des référentiels au cours de l’histoire 4) Conceptions et représentations sociales 5) Vers une remis en question du mythe de la prescription

BIBLIOGRAPHIE page 687 TABLE DES MATIERES page 700

Page 6: UN REFERENTIEL, POUR QUOI FAIRE

6

INTRODUCTION

LA COMPLEXITE DE LA RECHERCHE

D’une approche inductive

à une démonstration déductive

Page 7: UN REFERENTIEL, POUR QUOI FAIRE

7

Un Référentiel1, pour quoi faire ? Une question a priori banale pour cet objet de recherche,

outil au service des pratiques d’évaluation et de formation. Une question pourtant qui n’est

pas exempte de sous-entendus dès le moment où elle est posée. Pourquoi, effectivement,

interroger nos pratiques si bien instituées, qui se sont immiscées dans notre quotidien au point

de transformer nos façons de faire et de penser ? Pour utiliser un outil, il semble indispensable

de bien le connaître, de savoir appréhender son fonctionnement, de percevoir son utilité en

rapport aux différentes situations, etc. Or le Référentiel est un objet complexe, difficile à

saisir tout autant que les concepts qui le définissent, le signifient : évaluation, compétences,

capacités, critères, indicateurs, etc. Les pratiques sociales ont cette faculté de s’instituer et de

se former / formaliser autour de tout un univers de concepts qui s’entretiennent les uns les

autres, de façon tautologique. Le Référentiel n’échappe pas à la norme : l’initiative de

quelques universitaires américains, soucieux de donner du sens à leurs évaluations ; une

pratique sociale qui s’est généralisée avec l’accession de plus en plus d’étudiants sur les bancs

des universités. Nous sommes dans les années cinquante, la production de nos sociétés

modernes a besoin d’une main d’œuvre de plus en plus qualifiée. A la même époque émerge

le concept de compétence dans son acception linguistique (N. Chomsky ; 1955) et cette

conception a envahi progressivement la sphère sociale pour devenir, à l’aube du XXIème

siècle, un(e) mode social(e), reconnu(e) / investi(e) par tous les membres de notre culture

occidentale moderne. Mais, au-delà de l’histoire, de ces conceptions qui deviennent des lieux

communs (des évidences sociétales), de ces transformations sociales qui ont changé notre

rapport au mode de production, bien des questions se posent dès qu’on cherche à approfondir

notre connaissance sur l’objet « Référentiel de compétences ». Comment est-il possible

d’appréhender un tel objet à travers nos schémas perceptifs habituels (au sens le plus large de

la perception qui intègre l’extéroceptivité, l’intéroceptivité et la proprioceptivité) ?

Certes ces concepts reflètent des pratiques individuelles et sociales, mais celles-ci sont très

éparses, éclatées dans diverses sphères socioculturelles, au point que les significations varient

parfois de façon conséquente : le « critère de réussite » du monde du sport a-t-il la même

signification que le « critère de validité » de l’univers scientifique ? On aurait pu alors se

contenter d’une démarche prescriptive, celle qui a dominé les sciences de l’éducation (du

moins en ce qui concerne cet objet de recherche) jusqu’à nos jours, et se borner à l’étude de

quelques objets décrétés dignes d’intérêt (le type de savoirs, de compétences, de capacités…).

1 On écrira toujours le Référentiel d’évaluation des sciences de l’éducation (objet de la thèse) avec une majuscule, afin de le différencier des autres référentiels auxquels il sera fait référence.

Page 8: UN REFERENTIEL, POUR QUOI FAIRE

8

Mais cette position ne ferait que repousser le problème sans le résoudre, et les choses se

complexifient dès qu’il s’agit de déterminer ces objets, les modalités empiriques pour les

observer, les modes opératoires auxquels ils font référence dans la pratique quotidienne des

acteurs. Par ailleurs est-ce aux hommes et femmes de science à prescrire la façon dont il

convient d’élaborer ces pratiques ? Même si l’on adopte ce point de vue, qui n’est pas celui de

cette thèse, comment construire les connaissances pour prescrire les bonnes méthodes ? On en

revient toujours au même point. Comment étudier le Référentiel ? Comment analyser le sens

de ces concepts ? Et, surtout, comment identifier les cadres de référence qui signifient ces

concepts, en rapport avec les pratiques professionnelles ? Le concept de « Référentiel » ne

saurait donc être étudié sans poser la question du sens. Le sens des actions ? Le sens des

concepts ? Le sens des formules employées dans les énoncés, les tableaux, etc. ? D’autant que

le Référentiel n’a de sens qu’en référence (comme référence) à une situation de

communication, écrite ou orale, nommée épreuve, exercice, examen, concours, etc. La

question du sens se glisse ainsi subrepticement, comme objet de médiation, dans les relations

qui se construisent entre un candidat et un (ou plusieurs) évaluateur(s), nommés examinateurs,

correcteurs, experts, etc. Mais est-il possible de traiter de la notion de sens sans celle de

signification : comment les évaluateurs apprécient-ils la signification de ce qui est dit / écrit

par les candidats ? Quelles sont les compétences dont ont besoin les candidats pour construire

cette signification : le signifié pertinent / le signifiant adéquat ? Ces processus, de l’ordre du

cognitif, mais aussi du social, nous conduisent alors vers une autre problématique, celle de la

référence. Comment se construisent les cadres de référence pour juger / apprécier / analyser

ces signes (graphiques ou phoniques) produits par les candidats ? Comment se structurent les

processus de référence pour rapporter ces signes à des conceptions, qui elles-mêmes n’ont de

sens qu’en référence à des situations sociales parfois complexes ? En bref, comment étudier le

référentiel réel, implicite, de l’acteur, ses processus cognitifs au moment de l’évaluation et les

relations de référence qu’il établit avec ses pratiques professionnelles ? On se retrouve alors

nez à nez face à une évidence : il semble bien difficile de progresser sur ce chemin sans le

recours à une « science du sens », d’étudier l’objet Référentiel sans approfondir ce domaine

d’étude nommé sémiologie. Mais l’évaluation et l’élaboration de Référentiels sont aussi des

pratiques sociales : est-il donc possible d’en avoir une vision précise sans s’intéresser à la

microsociologie (sociologie interactionniste, ethnométhodologie, ethnographie de la

communication, etc.) ? Le cadre de la recherche est ainsi borné par la nature même de l’objet :

un Référentiel est une pratique sociale, c’est aussi un objet de référence. Ces aspects seront

traités au cours de la partie sociologique (ch. 6) et méthodologique-sémiologique (ch. 8 à 10).

Page 9: UN REFERENTIEL, POUR QUOI FAIRE

9

Mais l’option de cette thèse reste, avant tout, pragmatique2. Elle est fondée sur des

préoccupations du milieu professionnel, ainsi que le postule le statut des sciences de

l’éducation, discipline en lien avec des pratiques. Elle est donc ancrée dans des

problématiques qui sont celles des sciences de l’éducation : la docimologie qui a soulevé le

problème des écarts de notation entre correcteurs ; les taxonomies, classifications d’objectifs

éducatifs, qui sont les précurseurs des Référentiels ; l’analyse institutionnelle qui a interrogé

l’école sur sa fonction sociale ; les études des curricula, qui ont mis en valeur certains aspects

« cachés » (non avoués) de l’éducation ; le projet qui conduit à différencier la pédagogie des

précurseurs, les objets créés par cette pédagogie et la réappropriation qu’en font les milieux

professionnels, souvent en les ajustant à leurs représentations et à leurs habitus ; enfin la

didactique, qui a ouvert la voie à l’étude des processus cognitifs et aux contrats implicites

entre élèves et enseignants (ch. 5) . Mais cette thèse ne pouvait approfondir la connaissance de

ces objets sans prendre en compte les débats qui se sont fédérés autour de ces concepts de

référentiels, de critères et d’indicateurs : en quoi les critères se différencient-ils des

indicateurs ? Comment les observer dans le discours des acteurs ? Qu’est ce qu’un référentiel

/ Référentiel ? Quelle est sa fonction sociale ? (ch.7).

Problématiques des milieux professionnels, formalisées par les sciences de l’éducation

(ch. 5), débats autour de notions qui ont du mal à se fixer en une unité conceptuelle

monosémique, fondement ontologique à toute discipline scientifique (ch. 7), positionnements

de ces pratiques dans les contextes sociaux qui leur donnent du sens, fondement de la notion

de référence (ch. 6) et décomposition méthodologique des processus et des systèmes qui

favorisent une observation systématique des discours et des pratiques, à tous les niveaux (ch.

8 à 10). Un cadre d’étude bien complexe, avec des imbrications entre tous ces niveaux et ces

approches aux paradigmes parfois antagoniques. Il est vite apparu difficile de débroussailler

tout cet imbrioglio sans une réflexion préalable épistémologique, au moins pour baliser la

progression par quelques repères : grands courants philosophiques qui ont ouvert la voie de la

méthode et de la connaissance scientifiques (cartésianisme, positivisme et, surtout,

phénoménologie) ; oppositions et complémentarités entre les modalités des différents

paradigmes - approches des phénomènes (analytique ou systémique), des traitements de

données (quantitative ou qualitative), modes empiriques et constructions conceptuelles

(protocoles, relations conceptuelles, croyances et prévisions) - ; débats qui ont mobilisé le

monde scientifique sur les questions gnoséologiques (constructivisme et cognitivisme).

2 Ce terme est utilisé ici dans son sens commun, mais on peut noter que son sens scientifique est aussi tout à fait adapté dans la mesure où la pragmatique étudie les relations entre le discours et la pratique.

Page 10: UN REFERENTIEL, POUR QUOI FAIRE

10

Toutes ces questions se bousculent à partir du moment où l’objet de recherche nous conduit à

conjuguer les observations de disciplines différentes pour le cerner, saisir les différentes

enjeux et l’architecture globale qui s’est ainsi instituée au fil des années : quels sont les

intérêts respectifs d’une démarche analytique et d’une démarche systématique ? Comment

s’imbriquent-elles ? Qu’est-ce qui a opposé le constructivisme et le cognitivisme ? Quels sont

les apports et les limites de l’un et de l’autre ? Comment est-il possible de construire une

connaissance scientifique sans ces quelques réflexions préalables ? C’est pour cette raison que

toute cette partie épistémologique a été proposée en début de thèse (ch. 1 à 4).

Mais il ne faut pas s’y tromper, la recherche s’est faite de façon beaucoup plus

chaotique que cette présentation ne le laisserait penser, pour une raison fort simple : un objet

aussi complexe, dont l’étude justifie de faire appel à de nombreux savoirs disciplinaires, ne

s’appréhende, dans un premier temps, que de façon globale (noématique, pour reprendre une

expression d’E. Husserl). Un problème rencontré pour expliquer l’enchaînement de certains

phénomènes renvoie souvent vers une autre discipline pour en discerner l’essence, la nature

ou les contraintes objectives. Par exemple, entre les phénomènes sémiologiques et leur

formation ontogénétique qui fait référence à des observations psychologiques, ou entre les

interactions sociales et les contraintes langagières. Et chacune de ces progressions soulève des

questions épistémologiques (type de protocole, phénomènes observés, construction de

l’objet). Ce décorticage progressif ne peut se faire que de façon inductive : dès qu’une étape

est dépassée, dès qu’une ensemble de phénomènes est compris et articulé, il implique tout un

regard nouveau sur l’ensemble du système, restructuration de la pensée que J. Piaget a défini

sous le terme de « vection ». La démarche déductive n’en est pas moins intéressante : elle

oblige à repenser la structure globale de l’ensemble, à prendre du temps pour redessiner, de

façon certes toujours schématique et provisoire, les différentes relations qui se construisent

entre les concepts. Et c’est souvent lors de ces phases de rédaction synthétique que les

rapports de sens se structurent et que de nouvelles problématiques surgissent (rédaction de

cette thèse par étapes, mais aussi publications et communications). La synthèse qui est ici

proposée n’est donc à considérer que dans cet état provisoire de formalisation. Elle est loin

d’être satisfaisante, même – et surtout – pour son auteur. Mais elle expose bien la question de

fond : la connaissance des Référentiels, outil au service de pratiques instituées, nous interroge

sur les conditions sociales de son existence, mais aussi sur les processus cognitifs qui sont

implicitement sollicités, processus de la signification et de la référence. Comprendre ces

constructions intellectuelles de façon simple, c’est paradoxalement en saisir les multiples

dimensions, puis analyser leur imbrication, ce qui, nous l’avons vu, n’est pas simple.

Page 11: UN REFERENTIEL, POUR QUOI FAIRE

11

Un dernier mot sur les expériences proposées en fin de thèse. La construction

progressive de l’objet de recherche et de la méthodologie a été accompagnée de plusieurs

travaux empiriques : soit dans le cadre de cette thèse, soit lors d’une recherche conduite en

collaboration avec le CNRS pour France Telecom R & D (P. Mallein ; 2003), soit lors de

diverses missions professionnelles (diagnostic territorial, suivi des formations BAFA) ou,

enfin, à titre personnel (préparation aux concours de la fonction publique, audits au sein

d’associations). Seules, bien entendu, ont été conservées celles qui se rapportent directement à

l’objet de recherche. Trois d’entre elles sont présentées en fin de thèse :

1° Une première expérience, inspirée du paradigme docimologique, qui a permis de

soulever certains paradoxes de celui-ci. Cette discipline, dont l’objet porte sur les écarts de

notation, a remis en cause certains préjugés idéalistes républicains et introduit une réflexion

fructueuse dans le domaine de l’évaluation, en particulier sur la notion de critère (G. Noizet et

J.P. Caverni ; 1983). Mais l’interprétation des résultats de ces travaux a aussi conduit à des

excès. Si le paradigme (hypothèses, protocoles) a mis en exergue les divergences de notation,

il l’a fait sans se soucier des phénomènes de congruence qui conduisent les membres d’une

profession (formateurs, enseignants) à adopter implicitement des modalités d’évaluation

communes3. Pour la docimologie, ces phénomènes ne représentaient que les préjugés

implicites qu’elle cherchait à remettre en question. Or, au fur et à mesure de la mise à jour de

certaines contraintes institutionnelles, communicationnelles, représentationnelles, cognitives,

langagières, on découvre l’existence de nombreuses congruences qui fédèrent implicitement

les milieux professionnels, et qui sont le fondement des référentiels réels. Cette première

expérience a donc constituée l’amorce de cette thèse (chapitre 12).

2° La seconde expérience a été conduite lors d’un travail avec un réseau professionnel

(commandité par un partenaire public, le conseil général). Le but : mettre à jour les modalités

d’évaluation des membres de ce réseau. L’occasion était propice pour approfondir la réflexion

sur les contraintes de communication et de fonctionnement qui conduisent les professionnels à

adopter des modes d’évaluation convergents (chapitre 13).

3° La troisième expérience en est au début de son parcours. Elle a fait l’objet d’une

communication au colloque de l’ADMEE 2011. Elle est fondée sur l’hypothèse de relations

entre les conceptions du métier que construisent les milieux professionnels (partie réalisée) et

les modes opératoires des épreuves d’évaluation (partie en cours). Une présentation succincte

en sera proposée ici (chapitre 14).

3 Cette contradiction est développée lors de la présentation de la recherche en partie IV.

Page 12: UN REFERENTIEL, POUR QUOI FAIRE

12

Mais il a semblé pertinent d’étayer l’argumentation théorique par des exemples

d’analyses pratiquées au fil des années. Celles-ci seront glissées au fur et à mesure de la

démonstration dans le but d’illustrer les concepts : par exemple, pour illustrer la notion de

« critère » (ch. 7, pages 335 à 342). Cette thèse ne présente donc pas la façon d’élaborer un

Référentiel. Ce parti pris a été exposé d’entrée (chapitres N° 1 et 2) : ce n’est pas le rôle social

du chercheur mais celui de pédagogues ou de médiateurs qui, à partir des connaissances

scientifiques contemporaines, formulent un ensemble de propositions en fonction de la

position qu’ils occupent dans la société. Certains écrits, que j’ai eu l’occasion de produire lors

de mes missions professionnelles, s’inscrivent dans cette perspective (par exemple, une

campagne à destination des organismes de formation du BAFA, brevet d’aptitude aux

fonctions d’animateur). Mais les écrits du chercheur n’ont pas la même vocation. Cette thèse

ne définira donc pas, non plus, la forme des Référentiels, ou plus précisément à partir de quel

format un énoncé peut-il être considéré comme un Référentiel : ce serait une façon détournée

de rétablir la position prescriptive. Elle ne sera donc que la présentation d’une série d’études

sur des phénomènes sociologiques, sémiologiques et psychologiques, qui concourent à la

formation et à l’institutionnalisation de ce qu’on appellera pour l’instant, faute de mieux, le

« référentiel réel ». Celui-ci se dévoilera au fil de cette thèse comme un ensemble de

phénomènes qui conduisent les acteurs d’un milieu professionnel à adopter des

représentations sociales normalisées, des modes opératoires d’évaluation similaires et des

façons de juger congruentes, qu’on appellera « critères implicites ». C’est un système de

référence, toujours en mouvement, dont la convergence est loin d’être parfaite, ainsi que l’ont

montré les travaux de la docimologie, mais dont l’existence peut être attestée par de multiples

observations : c’est du moins l’objectif de cette thèse de les mettre en exergue.

Page 13: UN REFERENTIEL, POUR QUOI FAIRE

13

1ère PARTIE

LES FONDEMENTS DE CETTE

RECHERCHE

De la réflexion épistémologique

aux axes de la recherche

Page 14: UN REFERENTIEL, POUR QUOI FAIRE

14

Chapitre 1 :

Le parti pris de la recherche

Avant d’aborder la rédaction de cette thèse, une question m’est apparue essentielle au

fur et à mesure de l’avancée des travaux, celle de l’approche spécifique des sciences de

l’éducation. Je n’ai pas la prétention de définir les contours de cette discipline (ou de ces

disciplines) ; le sujet est vaste et polémique. Mais est-il possible de faire l’impasse de cette

étape qui conduit à poser le cadre de la recherche de façon explicite : spécificité de la

problématique et des objets de recherche, particularités de la démarche et choix

méthodologiques, etc. ?

1) L’observation des situations éducatives :

Pour traiter d’un objet et approfondir nos connaissances sur celui ci, il est certes

indispensable de le cerner, de définir ses attributs observables, le contexte dans lequel on

l’aborde, la problématique qui nous a conduit à l’étudier ; mais toutes ces questions ne sont

pas suffisantes. Dans quelque discipline que ce soit, on ne peut plus ignorer que le regard que

nous portons sur l’objet n’est jamais neutre, et que nos observations sur celui ci sont induites

par les formes de leurs constructions. Et ces questions surgissent aussi bien au moment de

préciser la problématique que d’élaborer la méthodologie, c’est à dire les outils pour réaliser

les observations. Ainsi que le faisait remarquer S. K. Khun, le scientifique est contraint de

réduire son objet de recherche pour « comprendre le monde et éclairer toujours davantage la

précision et la portée de l’ordre qui y règne » (1962/1983 : 69)4. Du moins est il obligé de

fonder sa recherche sur des « paradigmes » existants :

« Considérant la fréquence avec laquelle ces obédiences instrumentales se révèlent cause d’erreurs, devons nous conclure que la science devrait abandonner les procédés standard et les instruments standard ? Il en résulterait une méthode de recherche inconcevable. Les procédés et les applications découlant du paradigme sont aussi nécessaires à la science que les lois et les théories du paradigme, et ils ont les mêmes effets. Ils restreignent inévitablement l’étendue des phénomènes accessibles à la recherche scientifique, à n’importe quel moment. » (1962 : 93)

4 Pour les dates des publications, on inscrira toujours la première date de publication (qui a un intérêt historique) suivie de la date de la traduction à laquelle on se réfère.

Page 15: UN REFERENTIEL, POUR QUOI FAIRE

15

Chaque discipline est ainsi conduite à poser le cadre de ce regard qui fait la particularité de

son approche, et chaque scientifique est invité à préciser les contours de celui ci, en rapport

aux phénomènes étudiés, travail autour duquel se structure l’analyse de la problématique. Les

regards du sociologue, du linguiste, du psychologue, etc. sont bien différents, même si les

phénomènes étudiés sont identiques, en l’occurrence des phénomènes d’éducation. Cette

généralité apparaît évidente, mais la question moins évidente qui nous intéresse ici est celle de

la spécificité des sciences de l’éducation.

A partir de quelques recherches en sciences de l’éducation, des éléments de réponses

apparaissent, suffisamment en tout cas pour définir le parti pris de cette étude5. Par exemple,

la recherche de J.J. Bonniol (1983) sur l’ « influence de l’explication des critères utilisés sur

le fonctionnement des mécanismes d’évaluation des productions scolaires ». Ce n’est pas

seulement les « mécanismes d’évaluation des productions scolaires » qu’étudie cet auteur, le

fonctionnement cognitif des évaluateurs ou la fonction sociale de ces mécanismes, mais l’

« influence de l’explication des critères » sur ces mécanismes. La problématique n’est plus

seulement d’étudier un système et son fonctionnement (psychologique, linguistique,

psychosociologique), mais d’analyser la pertinence d’une action de formation ou

d’évaluation.

« La recherche ici présentée avait pour objectif de tester une première hypothèse selon laquelle des évaluateurs, lorsqu’ils disposent de critères explicites, devraient évaluer autrement que lorsque les critères sont relativement ambigus. »

Les choix méthodologiques dérivent de ce parti pris :

« Il a donc paru opportun d’inciter les enseignants à définir opérationnellement les critères qu’il jugeait pertinent pour l’évaluation des différentes tâches, plutôt que de les définir nous mêmes arbitrairement ou d’accepter une définition conceptuelle très générale »

Dans la mesure où il ne s’agit pas tant d’étudier les mécanismes cognitifs des évaluateurs que

les conséquences de leurs actions, il s’agit d’analyser la situation d’observation dans laquelle

s’inscrivent ces actions, et non d’appliquer un cadre disciplinaire à l’étude d’un phénomène.

Le terrain d’observation est donc déterminé par isomorphisme avec les situations vécues par

les professionnels, du moins celles qui sont en relation avec la problématique. Les travaux

d’E. Bautier (1995) permettent de préciser ce parti pris et ses conséquences. L’ensemble de la

problématique de recherche, qui s’articule autour des pratiques langagières, pratiques

sociales, est approfondi à partir de questions du monde professionnel de l’éducation : « au

départ, la problématique de la différenciation scolaire » (1995a : 9).

Page 16: UN REFERENTIEL, POUR QUOI FAIRE

16

« Si les réalisations linguistiques sont une dimension pertinente dans l’étude de la différenciation, c’est en tant que mise en mots de ces fonctions et parce que la façon de dire fait partie du sens du dire… En effet, les réalisations langagières sont le produit de facteurs situationnels hic et nunc, du contexte passé et futur de celle ci et de ce qui se passe dans l’interaction elle-même » (1995a : 43)

Et ces choix influencent alors la méthodologie :

« Cette démarche, … en ce qu’elle permet de lier interprétation, usage du langage et contexte social, est bien à même d’aider à cerner les médiations par lesquelles le langage pourrait être au centre des processus de différenciation des apprentissages… Les tâches scolaires d’apprentissage dans leur réalisation linguistiques et langagières ne seront donc pas indépendantes des usages différenciés du langage, des pratiques langagières… Il s’agit ici de travailler ces liens dans des situations quotidiennes d’enseignement et de formation » (1995a : 105)

Ces travaux ne se définissent donc pas tant par leur objet d’étude, que par la façon de

l’étudier, pour répondre à des questions des professionnels de l’éducation. C’est cette

orientation qui est proposée pour cette recherche. Deux problématiques sont donc

conjointement traitées, celle des professionnels et celle du chercheur :

• Cette dernière n’est pas, ici, bien différente de celle des autres disciplines. Quel est l’objet

de recherche ? Quel est l’intérêt de l’étudier ? Quelles sont les contraintes disciplinaires de

cette étude ? Quelle méthodologie appliquer à l’observation de l’objet ? Quel terrain

d’étude prendre pour organiser ces observations ?… etc.

• Mais le fait d’orienter cette recherche pour répondre à des besoins des professionnels

introduit de nouvelles questions. Aux préoccupations de quels professionnels répond-on :

les institutionnels, les examinateurs, les formateurs, les professionnels de terrain, les

stagiaires (candidats des examens et futurs professionnels), etc. ? Quel est l’intérêt de la

recherche pour ces acteurs ? Quels sont les enjeux qui induisent ces questionnements ?

Ainsi, la situation d’observation n’est pas seulement définie par les contraintes de l’objet à

observer, elle l’est aussi par les enjeux du champ éducatif. La problématique n’est pas de

savoir comment on étudie un objet de la société, de la langue ou de la psyché, mais de savoir

comment ces objets permettront d’observer certaines situations éducatives6, et de répondre

aux préoccupations respectives des différents acteurs de l’éducation.

5 Dans la mesure où il s’agit ici de définir un parti pris, sans aucune prétention au regard des sciences de l’éducation dans leur ensemble, quelques exemples suffiront à étayer l’argumentaire.

Page 17: UN REFERENTIEL, POUR QUOI FAIRE

17

2) La prise en considération des préoccupations du milieu

professionnel :

L’analyse des problèmes que nous posent les milieux professionnels est essentielle

pour préciser nos problématiques de recherche et déterminer les phénomènes à observer et les

terrains. Cette réflexion n’évince pas pour autant l’étude des problématiques des autres

disciplines (linguistique, sociologie, psychologie, etc.), indispensable pour définir les

concepts qui permettront d’étudier ces phénomènes. Comment effectivement est-il possible

d’analyser des discours sans avoir aucune connaissance de la linguistique ? Comment étudier

des phénomènes de société sans s’être jamais intéressé à la sociologie ? Comment construire

des protocoles d’expérience sur des apprentissages sans aucune formation en psychologie ou

en psychosociologie ? etc. Le choix des concepts, en raison de leur adaptation aux questions

posées par les milieux professionnels, induit les orientations scientifiques du chercheur. Celui

ci a besoin d’approfondir sa connaissance de certains travaux déjà bien établis, dans sa

discipline ou dans d’autres disciplines, pour choisir les outils adaptés aux objets qu’il désire

observer. Les résultats ou réflexions de ces recherches constituent des acquis ou des

présupposés de l’expérience, à partir desquels il est possible de formuler des postulats pour

construire un raisonnement, élaborer une méthode d’observation ou justifier l’interprétation

des données ou des observations.

Pour résumer ce parti pris, je propose ci-dessous un tableau synthétique. La

signification de celui ci se précisera au fur et à mesure de l’exposé du contexte de cette

recherche et de la revue de la littérature.

6 Les situations éducatives sont caractérisées par leurs finalités et les pratiques / techniques mises en œuvre en fonction de celles ci. (cf. B. Charlot ; 1995 : 21). Eduquer, c’est mettre en œuvre des moyens pour atteindre les buts de l’éducation.

Page 18: UN REFERENTIEL, POUR QUOI FAIRE

18

Questionnements du chercheur Préoccupations du milieu professionnel

Contexte de la recherche : - Questions de recherche - Champs de recherche sollicités

Contextes professionnels : - Les différents acteurs, - leurs intérêts respectifs, - leurs relations, - les enjeux, etc.

Conceptualisation Opérationnalisation - Objets de la recherche - Définition des concepts - Théorisation

- Phénomènes observés - Terrains d’observation - Modélisation

- Ainsi, les postulats de cette recherche sont souvent empruntés à d’autres disciplines

(linguistique, sociologie, psychologie), qui ont approfondi l’étude de certains objets. Il en

est de même, de ce fait, des concepts qui précisent les attributs et la fonction de ces objets

dans les systèmes mis à l’étude. Ces concepts seront définis dans les parties II et III

- Les méthodes sont déduites de ces choix conceptuels : le traitement des données de

l’observation est déterminé par les attributs observés et leur fonction pour les objets. Ces

méthodes seront aussi précisées dans la partie III : « la méthodologie ».

- En revanche, les hypothèses sont induites par les préoccupations du milieu professionnel,

auxquelles les sciences de l’éducation cherchent à apporter des réponses. De ce fait, les

situations d’observation et les phénomènes étudiés sont bornés par ces problématiques,

mais aussi par les possibilités de la collecte des données, liées aux modes de

communication de ce milieu. Ainsi, dans l’expérience d’évaluation, par des professionnels

des « représentations du rôle de l’animateur » de jeunes stagiaires, les matériaux sont

collectés à travers des situations de pratique professionnelle (stage de formation).

Revue de la littérature Phase exploratoire

Méthodologie Traitement des données

Modalités de la collecte des données

Lieux et formes de l’observation

Postulats de la recherche Hypothèses opératoires

Page 19: UN REFERENTIEL, POUR QUOI FAIRE

19

Dans l’expérience au sein d’un réseau professionnel, le questionnaire d’enquête a été

élaboré par les professionnels eux-mêmes, qui cherchaient à répondre à une commande

institutionnelle : la forme du questionnaire, en rapport avec ce contexte, a pu être analysée

autant que le contenu des réponses.

- L’articulation entre la collecte des données et leur traitement est déterminée par les choix

conceptuels : quels sont les concepts dont nous avons besoin pour expliquer ce qui est

réellement en jeu à travers les situations observées ? La revue de la littérature est donc

conçue, dans ces travaux, comme une recherche des concepts pertinents et suffisamment

élaborés pour répondre aux préoccupations du milieu professionnel, dont la phase

exploratoire consiste à analyser la demande.

- Enfin, la problématique générale s’est précisée au fur et à mesure de l’analyse du contexte

professionnel de « l’animation » (ch. 11, pages 543 à 580) et de la revue de la littérature

sur l’évaluation (partie II). Mais cette problématique se croise aussi avec les

préoccupations des professionnels qui ont proposé certains terrains d’étude. Chaque

expérience a pour but de clarifier certains aspects de la problématique générale, mais elle

répond aussi à des problématiques spécifiques introduites par les professionnels du milieu

d’enquête.

Nous apercevons ici la difficulté de montrer la progression méthodologique de cette

recherche à travers le schéma canonique de l’exposé : les concepts (partie II) et les méthodes

(partie III) ont été élaborés au fur et à mesure de la mise en œuvre des expériences (partie IV).

Parallèlement, l’analyse des problématiques conceptuelles (partie II) et méthodologiques

(partie III) ont structuré l’hypothèse générale. Les hypothèses opératoires de chaque

expérience (partie IV) ont ainsi acquis plus de sens avec une hypothèse générale qui s’est

affinée au fur et à mesure de l’analyse du contexte et de la construction des concepts (partie

II). L’organisation canonique de l’exposé, agencée pour une meilleure compréhension de la

thèse, masque ainsi le caractère empirique de la démarche (recherche des concepts adaptés

aux situations), autant que son caractère dialectique (relations entre les problématiques

professionnelles et les conceptualisations théoriques).

Page 20: UN REFERENTIEL, POUR QUOI FAIRE

20

3) La modélisation des situations éducatives :

Nous avons vu que la problématique de recherche est induite par les préoccupations

des milieux professionnels, et que ce parti pris oriente la sélection des terrains d’observation :

si on cherche à étudier les modes de sélection et les enjeux sociaux qui les conditionnent, il

est logique de collecter les données dans les lieux où s’opèrent cette sélection (cf. expériences

N° 1 et 2). Mais, pour définir les objets - c’est à dire les phénomènes observés et les méthodes

d’investigation -, il serait bien dommage de se priver des travaux des autres disciplines qui ont

déjà étudié les phénomènes d’éducation concernés. Les données issues des expériences sont

ainsi enrichies, au moment de l’interprétation, par le corpus théorique du domaine qui a déjà

étudié ces phénomènes : par exemple, les « jeux de représentations sociale » et leur fonction

dans les modes de communication au sein d’un groupe social. Cette démarche apparaît plus

fructueuse que celle qui consisterait à se limiter aux concepts du milieu professionnel7. Ainsi,

certaines notions, telle celle de « savoir être » théorisée par les auteurs francophones, ont

répondu aux préoccupations des professionnels qui insistent aujourd’hui sur l’importance de

favoriser des comportements adaptés au fonctionnement de la vie en société, au delà des

compétences transversales qui sont traditionnellement celle de l’école : mathématiques,

logiques, expressions écrites et orales, etc. L’école et la formation préparent aussi à la vie

sociale : certains courants pédagogiques ont approfondi cette réflexion au sein du système

scolaire8. Mais de telles notions sont-elles adaptées pour aborder la problématique des modes

de sélection ? Ces « savoirs être », produits de « valeurs » ou de « finalités éducatives » du

milieu de l’éducation plus que de recherches empiriques, sont-ils suffisamment précis pour

expliquer ce qui se joue entre le professeur et l’élève, entre l’examinateur et le candidat ?

Pourquoi se priverait-on alors du résultat des recherches d’un E. Goffman, d’un S. Moscovici

- ou encore plus ancrées dans le domaine de l’éducation, d’un H.S. Becker ou d’un M. Young

- pour interpréter les modalités d’évaluation en jeu ?

On rejoint ici le point de vue de B. Charlot, qui considère « l’éducation » comme un

objet qui « remplit une fonction de passerelle permettant à chaque science de s’aventurer sur

le terrain d’autres sciences » :

7 Voir à ce sujet la notion de « rupture épistémologique avec le sens commun » proposée par P. Bourdieu, JC Chamboredon et JC Passeron (1968). 8 En particulier, la prise en compte des contraintes institutionnelles dans l’acte éducatif, a été théorisée la « pédagogie institutionnelle » et les recherches disciplinaires qui l’ont accompagnée : socioanalyse et sociologie institutionnelle.

Page 21: UN REFERENTIEL, POUR QUOI FAIRE

21

« Les sciences de l’éducation trouvent sur le marché de la recherche des objets « éducation » déjà construits par d’autres sciences, qui les intéressent mais ne leur semblent pas produire l’intelligibilité spécifique requise par la complexité du processus d’éducation… La production de savoirs rigoureux sur l’éducation est en quelque sorte encadrée par deux autres niveaux de l’activité humaine : celui des finalités et celui des pratiques et des techniques » (1995 : 27).

Mais cette orientation, qui consiste à étayer l’approche empirique des situations éducatives

avec les connaissances acquises par d’autres disciplines, fait émerger de nouveaux obstacles.

Pour définir les phénomènes pertinents, et par la même les disciplines et domaines de

recherche qui enrichiront nos interprétations, il convient d’avoir clarifié, avec les

professionnels, les problématiques et le système soumis à l’étude : il s’agit donc d’aborder la

situation globalement, afin de préciser les problèmes au fur et à mesure que les professionnels

nous les présentent. De ce fait, on est conduit à modéliser la situation observée, à partir des

objets potentiels qui sont à notre disposition (phénomènes observables), et des théories qui les

ont conceptualisés. Cette étape de schématisation peut s’avérer réductrice si le chercheur ne

prend pas garde à éviter la projection de ses propres schémas de pensée ou des interprétations

prématurées. Pour clarifier ces écueils, il a donc semblé souhaitable d’approfondir les notions

de « système » et de « modélisation », telles qu’elles sont conçues par les auteurs de

l’approche systémique. C’est l’objet du chapitre suivant.

Le parti pris de cette recherche pourrait se résumer par quelques grands principes :

1) L’observation et l’analyse des phénomènes d’éducation sont plus déterminées par les

situations éducatives que par les objets de recherche : la définition de ces derniers est

cependant indispensable pour observer systématiquement les situations éducatives et

interpréter les résultats.

2) Cette approche se différencie des sciences humaines centrées sur les objets de recherche

(linguistique, psychologie, sociologie, etc.) par une problématique centrée sur les

préoccupations des milieux professionnels de l’éducation : elle s’inspire cependant des

travaux de ces disciplines pour déterminer les objets d’étude pertinents et définir les

concepts opératoires, susceptibles d’expliquer les enjeux et les fonctionnements.

3) Les méthodes de traitement des données sont déduites des concepts privilégiés pour la

recherche. La modélisation des situations éducatives a pour but de définir les objets

d’étude pertinents et leur fonction explicative dans le système d’interactions soumis à

l’étude.

Page 22: UN REFERENTIEL, POUR QUOI FAIRE

22

Chapitre2

Les concepts de la « systémique »

L’exposé qui suit n’a pas pour but une présentation exhaustive de la théorie

« systémique ». Il s’agit plutôt de puiser dans cette approche quelques concepts

fondamentaux qui ont orienté la réflexion vers des pistes fructueuses. Les écrits fondateurs (L.

Von Bertalanffy, J. De Rosnay) apportent des outils et une conception globale : ils offrent des

repères pour aborder l’étude des situations éducatives. En positionnant les différents éléments

d’un système par rapport à leur ensemble structurel et à leur fonctionnalité, la vision globale

de la systémique facilite l’interprétation des données collectées. Les observations éparses

acquièrent de la signification. Il est ainsi possible de créer des rapports signifiants entre les

données collectées par diverses disciplines sur un même système.

Mais, sans recul critique, cette approche n’est pas exempte d’écueils. Une discussion

préalable sur les « limites de la méthode analogique » a pour objectif de les mettre en exergue,

afin d’éviter de s’y fourvoyer. On clarifie ainsi la recherche en s’interrogeant sur les différents

paradigmes des disciplines dont on s’inspire. Une réflexion propédeutique sur cette notion de

« paradigme », à partir des travaux de T.S. Kuhn et de J.L. Le Moigne, a permis de donner du

sens à certains concepts méthodologiques.

Page 23: UN REFERENTIEL, POUR QUOI FAIRE

23

1) Les fondamentaux de la théorie systémique :

1-1) La théorie générale des systèmes (Von Bertalanffy) :

La notion de « système » n’est pas récente : ce qui est original, en revanche, ce sont les

orientations de recherche qui sont proposées par L.V. Bertalanffy dans sa « théorie générale

des systèmes » (1968). Sous l’influence de certaines recherches en biologie, cette théorie

remet en question la conception mécaniste de la physique, inadaptée à l’étude du vivant, et

elle propose une conception « organique » : étudier l’organisme vivant comme un tout, et plus

particulièrement analyser les interactions entre les éléments. Ainsi, le « système » est défini

par L.V. Bertalanffy « comme un ensemble d’éléments en interaction entre eux et avec leur

environnement » (1968 : 88). De façon plus précise,

« par « interaction » nous entendons des éléments p liés par des relations R, en sorte que le comportement d’un élément p dans R diffère de son comportement dans une autre relation R’ » ( 1968 : 53).

Cela se traduit, au niveau méthodologique, par l’observation systématique des relations et des

fonctions (au sens des mathématiques) entre les diverses variables observées :

« La variation de n’importe quelle mesure Qi est une fonction de toutes les autres. Réciproquement, une variation de n’importe quelle Qi entraîne une variation de toutes les autres mesures et du système dans leur totalité » (1968 : 54).

Cet auteur propose donc d’étendre le champ de la recherche sur les isomorphismes qui

existent entre certains systèmes étudiés, dans des disciplines scientifiques différentes. Il

souhaite ainsi dégager certaines modélisations du fonctionnement des systèmes, voire en

expliquer les fondements logiques. Prenons l’exemple de deux de ces modèles, l’équifinalité,

mise en valeur par les recherches biologiques sur la croissance, et la rétroaction, développée

par la théorie de l’information :

« L’équifinalité (est la) tendance vers un état final caractéristique à partir de différents états initiaux et par diverses voies, fondée sur l’interaction dynamique dans un système ouvert qui atteint un état stable ; (...) La rétroaction (est le) maintien homéostatique d’un état caractéristique ou (la) recherche d’un but, fondés sur des chaînes causales circulaires et sur des mécanismes renvoyant l’information sur des écarts à partir de l’état à maintenir ou à partir du but à atteindre » (1968 : 44).

Les formules mathématiques de ces modèles sont étudiées à travers différentes expériences.

Page 24: UN REFERENTIEL, POUR QUOI FAIRE

24

Ces modèles sont ensuite intégrés pour analyser le fonctionnement global de l’organisme

vivant, par exemple, l’« individualisation progressive » en plusieurs étapes : « séparation

progressive en systèmes partiels subordonnés », « spécialisation progressive » de ces

systèmes (équifinalité, puis rétroaction pour maintenir l’état stable) et « centralisation

progressive » qui s’exprime par l’évolution de « certaines parties (qui) acquièrent un rôle

dominant » (1968 : 64 à 72). Ces processus de l’organisme vivant ne s’observent pas qu’au

niveau des phénomènes physiologiques, on les retrouve aussi au niveau de certains

phénomènes physiques, psychologiques ou sociaux. L’auteur revendique ainsi « une nouvelle

discipline intitulée théorie générale des systèmes » (1968 : 30).

1-2) La conception macroscopique (De Rosnay) :

L’ouvrage de J. De Rosnay sur le « macroscope » (1975) a eu le mérite de diffuser les

conceptions de la systémique auprès d’un large public. Par une modélisation assez simple, il

explique quelques concepts essentiels de cette théorie. D. Durand (1979/2002) nous en

propose un exposé synthétique :

« Sous son aspect structurel, un système comprend quatre composantes : - une frontière qui le sépare de son environnement et qui est plus ou moins perméable (...) - des éléments qui peuvent être identifiés, dénombrés et classés. (...) - un réseau de transport et de communication (...) - des réservoirs dans lesquels sont stockés des matières, de l’énergie, des produits, de

l’information, de l’argent. (...) Un système peut aussi être décrit sous son aspect fonctionnel. Il comporte alors : - des flux de nature très diverses : de matières, de produits, d’énergie, de monnaie,

d’informations... (...) - des centres de décision qui reçoivent les informations et les transforment en actions en,

agissant sur les différents flux ; (...) - des boucles de rétroaction qui ont pour objet d’informer les décideurs de ce qui se passe

en aval et donc de leur permettre de prendre leur décision en connaissance de cause - des délais qui permettent de procéder aux ajustements dans le temps (...) Pour compléter cette première description d’un système, il faut y ajouter les entrées et les sorties qui matérialisent les rapports de ce système avec son environnement » (1979/2002 : 12 et 13).

La modélisation systémique d’ensembles organisés et complexes, oriente l’observation du

chercheur sur certaines formes de leur structure et de leur fonctionnement. Elle favorise ainsi

la sélection des phénomènes à observer. Mais surtout, elle donne du sens à ces observations

dans la mesure où les objets étudiés sont mis en rapport avec les autres éléments du système,

et avec la fonction de celui ci dans son environnement.

Page 25: UN REFERENTIEL, POUR QUOI FAIRE

25

Par exemple, la situation d’évaluation n’a pas de signification en elle-même, elle en acquiert

dans la mesure où elle est partie intégrante d’un système plus global de sélection / orientation,

lui même en rapport avec les systèmes professionnels destinataires des candidats et les

systèmes de formation producteurs de savoirs. Bien entendu, à la périphérie de ces systèmes

se trouvent d’autres systèmes qui interagissent avec eux : par exemple, certains groupes

sociaux de pression ou certains systèmes de représentations sociales, etc. Sans cette

globalisation, les interprétations des données seront, certes fondées et valables, mais souvent

insuffisantes pour comprendre l’ensemble des enjeux qui se profilent derrière une situation.

La connaissance du contexte d’une action est essentielle, en tant que cadre de référence9, pour

interpréter les phénomènes qui s’y produisent. L’approche systémique formalise donc les

cadres contextuels auxquels nous faisons référence, plus ou moins consciemment, pour

interpréter les situations observées. Quelques travaux des sciences de l’éducation préciseront,

maintenant, l’intérêt de ces réflexions.

1-3) Les concepts de la systémique et l’étude des processus d’évaluation :

Les conceptions de la systémique ont largement influencées les chercheurs en sciences

de l’éducation ces dernières décennies. Cette influence est perceptible dans l’utilisation de

certains concepts (rétroaction, régulation, boucles systémiques), ainsi que certains schémas

de la cybernétique, pour déterminer la structure et la fonction de certains situations éducatives

(en particulier, les évaluations formatives) ; on retrouve aussi l’influence des conceptions de

L. Von Bertalanffy dans certaines modélisations mathématiques qui étudient des processus

complexes (A. Mingat, M. Duru Bellat, P. Bressoux). Là encore, on ne fera pas une étude

exhaustive de ces travaux, l’objectif est seulement d’illustrer le parti pris de la recherche :

quelques exemples suffiront pour montrer l’intérêt de cette approche, dans son aspect

globalisant de « cadre de référence », et dans son aspect fonctionnel / mathématiques.

a) La conception macroscopique :

L’ouvrage de J.J. Bonniol et M. Vial (1997) sur « les modèles de l’évaluation » met à

disposition une compilation de textes qui offrent un aperçu de l’essor de la systémique dans

les recherches en sciences de l’éducation.

9 Au sens où l’a défini E. Goffman (1981).

Page 26: UN REFERENTIEL, POUR QUOI FAIRE

26

Bien qu’on ne partage pas, avec ces auteurs, l’option qui consiste à utiliser des

concepts de la systémique pour aborder des théories qui n’y font pas référence (« la

docimologie comme modèle de l’évaluation », ou encore « l’évaluation dans le modèle de la

métrie »), ce recueil apparait intéressant, quand il nous oriente vers les travaux d’auteurs qui

les ont utilisés pour clarifier leur approche de l’évaluation (L. Allal, J. Cardinet, P. Perrenoud,

J.J. Bonniol, M. Vial, M. Genthon)10. J. Cardinet, dans une conférence11 qui synthétise

l’histoire des recherches et des « modèles de l’évaluation scolaire », présente l’intérêt de la

systémique :

« Un système est un ensemble d’éléments en interaction, coordonnés dans la poursuite d’un certain but. L’analyse systémique est une démarche d’analyse qui part du but à atteindre et qui en déduit les exigences relatives au fonctionnement de chaque élément, pour que soit assuré un résultat d’ensemble satisfaisant » (J. Cardinet – 1988 : 248).

A partir des isomorphismes avec le modèle de l’astronautique et du lancement d’une fusée, J.

Cardinet expose la fonction de l’évaluation en pédagogie :

« Dés son lancement, on prend des informations sur sa direction de déplacement pour la maintenir le plus possible sur sa trajectoire prévue. Après son lancement, on fait le point pour calculer les adaptations encore nécessaires, et on effectue une ou plusieurs boucles correctives. De la même façon, enseigner suppose le choix préalable de la didactique la plus favorable des élèves, dans le contexte prévu, puis la régulation de leur apprentissage au cours même de l’activité en classe, et enfin des prises d’informations sur les résultats acquis, qui peuvent susciter la reprise de certaines phases d’étude » (J. Cardinet -1988 : 248).

Cette façon d’aborder la question de l’évaluation a permis à L. Allal (1978), à partir des

théories de B.S. Bloom et M. Scriven (cf. pages 108 et 112), de préciser les caractéristiques

de l’évaluation formative « en tant que moyen de régulation à l’intérieur d’un système de

formation » :

« Les modalités d’évaluation adoptés par un système de formation ont toujours une fonction de régulation, c’est à dire qu’elles ont pour but d’assurer l’articulation entre les caractéristiques des personnes en formation, d’une part, et les caractéristiques du système de formation, d’autre part. (...) Une forme de régulation est d’assurer que les caractéristiques des élèves répondent aux exigences préétablies du système de formation. Dans ce cas, l’évaluation est un moyen de contrôle de la progression de l’élève aux point d’entrée, de passage et de sortie du système » (1978 : 154).

10 Certains textes de ces auteurs sont regroupés dans les paragraphes 2-3 et 2-4 de l’ouvrage de Bonniol et Vial : « la cybernétique en évaluation » et « les bouclages systémiques ». Mais là encore, faut il inclure dans ce courant de recherche sur les systèmes en évaluation des auteurs comme Ardoino et Berger, Hadji, Figari, etc. qui ont certes contribué à enrichir les débats sur l’évaluation à partir des problématiques nouvelles, mais ne l’ont pas fait - à l’instar de Allal, Cardinet et Perrenoud, - à partir d’une modélisation systémique des processus d’évaluation mis en œuvre par les enseignants et les institutions éducatives. 11 Conférence présentée à l’Institut Supérieur de Pédagogie de Bruxelles (15 mai 1986).

Page 27: UN REFERENTIEL, POUR QUOI FAIRE

27

L’auteur oppose ainsi les formes de régulation qui assurent

• que « les caractéristiques des élèves répondent aux exigences du système » : évaluation

« pronostique », « au début du cycle de formation », et évaluation « sommative », « à la

fin d’une période de formation ».

• que « les moyens de formation correspondent aux caractéristiques des élèves », « pendant

une session de formation » : l’évaluation « formative ».

Ces réflexions l’ont conduite aussi à différencier

• le mode de « régulation rétroactive », « évaluation ponctuelle », « sous forme de contrôle

écrit (test, exercice) passé par l’ensemble de la classe » pour « identifier les objectifs qui

sont atteints ou non » : « dans l’étape suivante, le maître organise (où l’élève doit prendre

en charge) des activités de remédiation définies en fonction du profil des résultats obtenu

pas l’élève »

• le mode de « régulation interactive », « évaluation continue » : « les procédures

d’évaluation formative sont intégrées aux activités d’enseignement et d’apprentissage. par

l’observation des élèves en cours d’apprentissage, on cherche à identifier les difficultés

dès qu’elles apparaissent, à diagnostiquer les facteurs qui sont à l’origine des difficultés

de chaque élève et à formuler, en conséquence, des adaptations individualisées des

activités pédagogiques. »

• le mode de « régulation proactive » qui tient compte de la réaction que l’enseignant peut

anticiper chez l’élève.

J. Cardinet préfère, quant à lui, parler

• de « boucles d’adaptation de premier ordre » pour qualifier « ces interventions et

réactions quasi-immédiates » afin de « maintenir la classe sur la tâche d’apprentissage en

cours, (...) informer, questionner, corriger, encourager, etc. » ;

• et de « boucle d’adaptation de deuxième ordre » pour qualifier « cette régulation à plus

long terme, portant sur les objectifs à viser à un moment donné et sur la façon de les

poursuivre » (1988 :152).

J.J. Bonniol aborde un autre problème en différenciant la régulation centré sur l’objet –

produit de celle plus axé sur les processus mis en œuvre par les élèves :

« Il est clair que c’est plus facile de rectifier une erreur – produit qui reste sur le papier ou sur une bande magnétique que l’erreur de raisonnement qui a eu lieu antérieurement, en amont, dans un processus plus ou moins complexe et terminé lorsque le résultat est posé » (1997 : 244).

Page 28: UN REFERENTIEL, POUR QUOI FAIRE

28

Il soulève, par la même, une difficulté supplémentaire pour l’enseignant :

« C’est difficile car la régulation externe des processus est inefficace : un enseignant ne peut pas effectuer directement la régulation proactive des processus de l’élève, ni la régulation interactive des processus dans le cours de l’action, même s’il peut directement agir dans ce processus en influant sur l’auto-régulation que l’élève doit effectuer et qui est alors le seul mode efficace de régulation » (1997 : 245).

Cette réflexion fait écho aux travaux de M. Genthon qui distingue les boucles de rétroaction

mises en œuvre par les enseignants et par les élèves, et étudie les différentes « fonctions de

l’auto-évaluation dans un dispositif d’apprentissage » : outil de formation, objectif

d’apprentissage et source d’informations pour l’enseignant :

« Il est important et nécessaire pour l’enseignant de disposer d’informations - retour sur les résultats qu’il obtient grâce au dispositif pédagogique qu’il a installé. L’auto-évaluation en tant que production peut alors être source d’informations. » (dans J.J. Bonniol et M. Vial, 1997 : 248).

Ces deux auteurs (J.J. Bonniol et M. Genthon) différencient, dans un article12,

- le « critère d’évaluation » qui « sert à évaluer : il consiste en une dimension abstraite,

nécessairement qualitative, que l’on va utiliser pour évaluer un objet » ;

- et le « critère de réalisation » qui « caractérise la phase de réalisation et pas seulement le

produit réalisé », « qui permet de faire et de faire mieux ». (idem : 256) : critère de qualité

d’un processus, progressivement intégré comme référence dans le fonctionnement cognitif

de l’élève, pour devenir un repère au cours d’apprentissage ultérieur.

« Qu’il s’agisse d’erreur ou de réussite, la régulation s’impose, pour que l’erreur puisse être corrigée par anticipation (Piaget, 1967) lors des occasions futures, pour que les réussites ultérieures se préparent, pour que les conditions de généralisation et de transfert se mettent en place (M. Genthon, 1983, 1987) » (J.J. Bonniol, dans J.J. Bonniol et M. Vial, 1997 : 233).

P. Perrenoud (1993) exploite ces recherches, en particulier celles de L. Allal, pour faire

émerger un paradoxe :

« Aucune pédagogie, aussi frontale et traditionnelle soit elle, n’est totalement indifférente aux questions, aux réponses, aux essais et aux erreurs des apprenants. Même lorsqu’un cours suit « à la lettre » une progression planifiée dans le détail, même lorsqu’une séance didactique se développe selon un scénario très précis, il y a place pour des ajustements, des remaniements en cours de route, en fonction d’évènements partiellement imprévisibles, notamment les attitudes et les conduites des élèves, qui manifestent leur intérêt, leur compréhension, mais aussi leurs résistances et leurs difficultés à suivre le rythme ou à assimiler le contenu. Il y a donc toujours un minimum de rétro-action affectant les interventions de l’enseignant (...) La conception de plus en plus explicite de l’évaluation formative comme intervention délibérée du maître induisant une régulation anticipée, interactive ou proactive d’un apprentissage en cours (Allal, 1988) a conduit à un paradoxe : le concept d’évaluation formative, aussitôt construit, tend à se fondre dans une approche plus globale des processus de régulation des apprentissages à l’œuvre dans un dispositif, une séquence ou une situation didactiques »

Page 29: UN REFERENTIEL, POUR QUOI FAIRE

29

Ce paradoxe met en valeur les limites de l’approche systémique :

« Parler de régulation à propos d’un processus d’apprentissage conserve donc un sens métaphorique, dans la mesure où il est difficile d’identifier à coup sûr les opérations et interactions favorables, de comprendre exactement pourquoi elles optimisent l’apprentissage ou encore de le piloter avec précision. Pourtant penser en terme de régulation du processus d’apprentissage est indispensable pour mettre l’évaluation formative à sa juste place, pour la situer dans un ensemble de régulations partiellement prévues ou du moins autorisées dans le dispositif didactique »

Ces limites sont aussi soulignées par J. Cardinet : il montre l’intérêt du modèle systémique qui

« permet de décrire, de relier et d’interpréter toutes les activités d’évaluation imaginables. En

les situant dans des boucles d’adaptation précises, il aide à en clarifier la fonction et suggère

ainsi les moyens de les améliorer. » (1988 : 251). Mais une systématisation de ce modèle

pourrait conduire à une mécanisation de l’acte pédagogique qui le viderait de certains

caractères essentiels, à savoir surtout qu’il s’agit de relations humaines :

« Une approche systémique, dans son désir de rationaliser l’apprentissage, conduit à définir des étapes successives dans l’acquisition de la maîtrise qui deviennent autant d’objectifs intermédiaires. L’approche plus interactionniste de la psychologie sociale de l’éducation amène à concevoir autrement la progression, par le biais d’approximation successives : il s’agit en effet, essentiellement d’établir une communication intersubjective entre maître et élève, qui soit suffisante pour que chacun comprenne la position intérieure de l’autre. Le premier doit, autant que possible, percevoir la représentation de l’élève pour la faire évoluer ; le second doit s’assimiler la représentation du maître pour satisfaire aux exigences du contrat didactique » (1988 : 257).

J. Cardinet envisage donc une nouvelle façon d’appréhender les recherches sur l’évaluation à

partir des concepts introduits par la psychologie sociale, en particulier celui de

« représentation sociale » :

« D’autres chercheurs comme Mugny et Doise (1983) ont montré qu’il fallait une certaine correspondance entre la structure logique du problème à résoudre et la structure sociale du groupe (...) Du point de vue théorique, ces expériences ont d’importantes implications. Elles montrent que l’apprentissage, dans le domaine cognitif du moins, peut être envisagé comme d’abord un processus de communication » (1988 : 252).

En s’appuyant sur les travaux de P. Perrenoud (1984) et de Y. Chevallard (1983,1985, 1986),

il redéfinit la notion d’ « objectif de maîtrise » et, de ce fait, les perspectives de recherche :

« En situation normale, l’objectif est éclaté et beaucoup de problèmes d’évaluation proviennent de ce que les maîtres, comme les élèves, en ont chacun une appréhension différente (...) Dans ces conditions, l’apprentissage scolaire est conditionné par la communication correcte aux élèves des attentes du maître, le contrat didactique ne pouvant être rempli tant que les représentations de la tâche à effectuer sont trop disparates de part et d’autres (...) La maîtrise ne peut recevoir qu’une définition opérationnelle, et sa signification doit se limiter à cette définition (...)

12 « L’évaluation et ses critères : les critères de réalisation » Repères N°79 (1989).

Page 30: UN REFERENTIEL, POUR QUOI FAIRE

30

Il ressort clairement des discussions précédentes que la maîtrise est atteinte par l’élève, quand il a intériorisé les normes de performance fixées par le maître et est devenu capable de s’y conformer. Qui en décide ? C’est naturellement le maître lui-même, comme convenu dans le contrat didactique initial. Comment le sait-il ? En examinant si l’élève produit des travaux qui satisfont les exigences qu’il avait énoncées précédemment. On voit qu’il s’agit d’une définition opérationnelle de la maîtrise. (...) Par définition, la maîtrise est donc l’aboutissement heureux du contrat didactique, atteint lorsque le maître a obtenu la conviction que son message a passé auprès de l’élève. » (1988 : 255 à 259).

On notera cependant que la critique de J. Cardinet à l’encontre de la systémique (« dans son

désir de rationaliser l’apprentissage ») s’adresse plutôt à la conception fonctionnaliste des

taxonomies (classification hiérarchisée des objectifs) qu’à la systémique elle même : cette

critique du « saucissonnage de la formation » en « objectifs intermédiaires » a été formulée

par d’autres auteurs (Hameline, J.M. De Ketele). On aura l’occasion d’analyser ce qui revient

à l’un et à l’autre en approfondissant la réflexion sur les limites de la systémique (pages 29 à

37), et lors de la présentation des recherches taxonomiques, dans la revue de la littérature.

Dans l’immédiat, on résumera l’intérêt de cette modalité de l’approche systémique : elle offre

un cadre d’interprétation

- en liant entre eux une multitude de phénomènes épars

- en leur donnant du sens par rapport à la fonction du système

- en dégageant des objets d’observation (en l’occurrence, les phénomènes de

communication maître - élèves et les représentations respectives des acteurs)

- en soulevant certains paradoxes qui permettent souvent un progrès décisif de la recherche.

b) Les modélisations fonctionnelles / mathématiques :

Plusieurs auteurs ont exploité les modélisations mathématiques, en particulier les

analyses multivariées ou les analyses factorielles, pour mettre en valeur certains phénomènes

au sein des systèmes d’évaluation.

A partir de données empiriques et d’une approche macrosociologique, M. Duru Bellat

(1988), par exemple, étudie les phénomènes de sélection qui s’opèrent implicitement au cours

de procédures d’orientation scolaire. Les données sur l’orientation des élèves, à l’issue de

certains paliers du curriculum scolaire (5ème/4ème, 3ème/2ème, Terminale/ Universités) sont

recoupées avec certaines informations sur les procédures (avis des conseils de classe, choix

des parents, etc.).

Page 31: UN REFERENTIEL, POUR QUOI FAIRE

31

L’analyse des résultats montre que, pour des notes comparables, la sélection est loin d’être

équitable, tant en matière de redoublement que de choix des filières. M. Duru Bellat ne se

cantonne pas à observer ces inégalités, ses modélisations révèlent l’impact des procédures, en

particulier lorsque les résultats de l’élève sont moyens. Les stratégies adoptées par les parents

et les élèves (repli, appel, redoublement, etc.), en fonction de leur milieu social, du sexe et du

retard au niveau de l’âge, expliquent en partie certaines inégalités qui apparaissent à l’issue

des orientations. Une auto-sélection s’opère, de façon anticipée, au détriment des classes

défavorisées et des filles. Mais M. Duru Bellat relativise aussi ces analyses, en prenant en

considération certains « facteurs écologiques » : elle compare les notes attribuées par les

professeurs à des tests standardisés et constate que les collèges implantés en milieu défavorisé

(ZEP, par exemple) ont tendance à noter moins sévèrement que les collèges élitistes, souvent

implantés dans les centres ville. Les collèges les plus sévères sont généralement les moins

sélectifs, et les moins sévères les plus sélectifs. Or les milieux sociaux favorisés sont plus

nombreux dans le premier type de collèges (sévères / moins sélectifs), les milieux défavorisés

dans le second (moins sévères / plus sélectifs), ce qui relativise le caractère inégalitaire de

l’orientation en fonction des notes. Ainsi, la modélisation des procédures, pour identifier les

différentes variables, et l’analyse statistique, pour identifier les corrélations entre celles ci,

conduit au fur et à mesure à construire un schéma de fonctionnement du système

d’« orientation scolaire » - et de ce fait, à analyser la fonction implicite de ses modalités

organiques dans la reproduction de la sélection13 des milieux sociaux, des sexes ou des élèves

en situation d’échec.

M. Altet, P. Bressoux, M. Bru et C. Leconte-Lambert (1999) ont aussi étudié diverses

variables des pratiques d’enseignement à l’école élémentaire : temps scolaires consacrés aux

diverses disciplines et temps informels, modalités de regroupement et de mobilité des élèves,

implication de ceux ci dans les tâches scolaires, interactions verbales et conditions de

l’énonciation des consignes. Ils en retiennent la grande diversité des pratiques, et les

variations considérables dans l’utilisation du temps et des modalités de travail en groupe. Ce

qui intéresse notre propos sur l’évaluation, c’est la mise en valeur, par l’analyse factorielle

(ACP), de l’effet démotivant des « incitations à dominante négative » (reproches, menaces,

moqueries...) sur l’implication des élèves ; il en est de même lorsque les consignes sont trop

complexes et allient dimensions affective et méthodologique.

13 Reproduction de la sélection qui a été mise en valeur par la sociologie de Bourdieu, Passeron et Chamboredon.

Page 32: UN REFERENTIEL, POUR QUOI FAIRE

32

Mais ces travaux montrent surtout la difficulté à modéliser les situations éducatives et les

pratiques pédagogiques, tant les variables sont nombreuses et leurs corrélations parfois

complexes à interpréter, ainsi que l’expliquent les auteurs :

« Les pratiques pédagogiques ne se laissent pas « résumer » par quelques variables déterminantes (...) les pratiques pédagogiques ne se structurent pas autour d’une seule variable (...) Ce qui ressort de l’ACP, c’est bien une difficulté à « nommer » les axes qui, d’une part, sont rarement unidimensionnel et, d’autre part, ont un pouvoir explicatif relativement faible. » (1999)

Sans la vision globale du système, les modélisations mathématiques rencontrent les mêmes

limites que l’approche analytique, c’est à dire une atomisation des résultats d’observation qui,

de ce fait, sont difficiles à interpréter14. Pour que la modélisation mathématique ait du sens, il

est indispensable que les outils statistiques révèlent une structure d’interdépendance entre les

phénomènes, et donnent du sens à ceux-ci, sens qu’ils n’auraient pas pris isolément. Les

concepts de la systémique constituent un cadre méthodologique à condition qu’ils expriment

une structure logique pour étudier les phénomènes observés : par exemple, l’équifinalité,

l’individualisation progressive, etc.

La correspondance entre une fonction mathématique (par exemple, la croissance d’un corps

professionnel) et des évènements (la création d’un diplôme, d’une grande école, d’une

convention collective, etc.) pourrait ainsi offrir des repères pour interpréter la logique de

développement traduite par cette « fonction ». Il est possible ensuite d’étudier plus

précisément chacun de ces événements pour en analyser leur fonction dans ce développement.

Ainsi, pour résumer l’approche fonctionnelle et mathématique des systèmes, elle offre des

outils

- pour comparer certains phénomènes macro-sociaux, et construire des modèles qui donnent

du sens aux résultats

- pour situer certains phénomènes récurrents comme composantes de ces systèmes

- pour formuler des hypothèses sur la raison de ces évènements récurrents, avant

d’approfondir l’analyse par des observations plus ciblées.

14 Ces aspects seront développés dans le paragraphe sur « les limites de la systémique ».

Page 33: UN REFERENTIEL, POUR QUOI FAIRE

33

1-4) L’approche systémique et sa place dans cette recherche :

L’approche systémique des phénomènes d’évaluation et, en particulier, de l’évaluation

formative, a orienté la recherche vers une étude des interactions qui sont à l’œuvre dans les

situations d’évaluation : les représentations sociales qui régissent les systèmes de référence

sollicités (J. Cardinet : 1988). C’est l’option qui a été suivie dans cette thèse. Sans une

approche globale des systèmes d’évaluation, l’observation des interactions sociales nous

conduirait vers la collecte d’informations éparses et difficiles à interpréter. Nos observations

n’ont de sens qu’à partir du moment où elles mettent en valeur certains modes de

communication institués par les groupes socioprofessionnels de notre société moderne, en

particulier ceux de l’éducation : instituteurs, professeurs, travailleurs sociaux, éducateurs,

animateurs. Les données statistiques et les fonctions mathématiques peuvent alors attirer notre

attention sur certains phénomènes récurrents et discerner ainsi certaines constantes de la

construction de ces « référentiels » implicites – ou encore certaines tendances structurelles

lors de leur formation. La modélisation mathématique devient alors un outil pour analyser leur

institutionnalisation progressive, au fil des années : elle apporte des informations sur leur

fonction, leur importance pour le fonctionnement du groupe social. Mais cette collecte de

données quantitatives est complexe : d’abord les données disponibles sont éparses (par

exemple, sur les effectifs socioprofessionnels) ; ensuite, ces données n’offrent pas

d’explication en elles-mêmes, mais en fonction de leur rapport avec des éléments du système.

Or ces derniers, pour l’objet de cette recherche (les référentiels implicites), sont souvent des

textes dont l’identification est complexe, en raison de la masse et de la densité des réseaux

d’échange. Les outils de l’approche systémique seront donc perçus comme des méthodes

globales pour orienter le travail de collecte et d’interprétation sur les éléments pertinents du

contexte professionnel. Les schémas de la systémique (équifinalité, individualisation

progressive et gestion des flux) serviront de repères pour structurer les observations et

interpréter les données. On pose ainsi un cadre pour favoriser l’analyse des évènements

historiques, à l’instar du modèle de l’Idéaltype de M. Weber. Les études qualitatives sur les

représentations sociales des acteurs, qui ont conduit à différents modes d’expérimentation au

cours de cette recherche, s’insèrent ainsi dans une construction plus vaste qui en précise le

sens. Reste à clarifier cette articulation, à la fois en situant les limites de la modélisation et en

précisant les paradigmes qui ont guidé la mise en œuvre des modèles expérimentaux.

Page 34: UN REFERENTIEL, POUR QUOI FAIRE

34

2) Les limites de la méthode analogique :

2-1) Principales critiques de la méthode analogique :

Les critiques qui ont été formulées à l’encontre de la théorie systémique sont reprises par L.V.

Bertalanffy :

« La présentation de la théorie des systèmes fut accueillie de façon incrédule comme étant invraisemblable ou présomptueuse. Pour les uns, c’était trivial ; nos isomorphismes n’étaient que des illustrations simples de l’axiome qui dit que les mathématiques peuvent être appliquées à toutes sortes de choses ; en conséquence, ça n’avait pas plus de poids que la « découverte » de ce que 2 + 2 = 4 marchait avec des pommes, des dollars, ou des galaxies. Pour les autres c’était faux et trompeur à cause d’analogies superficielles, telle que la fameuse « assimilation de la société à un organisme », qui masquent les différences véritables et conduisent ainsi à des conclusions fausses et moralement critiquables. Pour d’autres encore, il s’agissait d’une théorie philosophiquement et méthodologiquement mal fondée ; en effet, l’affirmation que les niveaux les plus élevées ne peuvent se réduire à des niveaux plus simples tendait à entraver la recherche analytique dont le succès était évident dans divers domaines » (1968 : 12,13).

Sur la première critique, les définitions du système proposées par l’auteur y répondent en

partie : il ne s’agit pas seulement d’appliquer un modèle mathématique (ou statistique) à des

données de l’expérience (démarche analytique « classique »), mais de rechercher des relations

entre les variables du système, en fonction de l’évolution d’autres variables, en particulier le

temps. Les modèles mathématiques sont alors utiles pour étudier ces relations, mais non

suffisants. Il n’y a « système » que si les relations entre variables expriment une structure et

une fonctionnalité :

« La description interne est essentiellement « structurelle », c’est à dire qu’elle essaye de décrire le comportement du système en terme de variables d’état et leur interdépendance. La description externe est « fonctionnelle », décrivant le comportement du système par des interactions avec l’environnement » (1968 : 91).

Ainsi l’objectif de la systémique est d’expliquer des phénomènes organiques et vivants. Les

exemples choisis au paragraphe précédent (en particulier l’étude de M. Altet, P. Bressoux et

C. Lecomte- Lambert) illustrent bien la différence entre une approche analytique, qui conduit

à une dispersion des données, et une modélisation systémique qui cherche à leur donner du

sens.

La troisième critique traduit aussi une incompréhension de la théorie des systèmes,

dans la mesure où ce sont les limites de la théorie analytique pour étudier les phénomènes

vivants qui ont induit une approche plus globale.

Page 35: UN REFERENTIEL, POUR QUOI FAIRE

35

« L’application de la procédure analytique dépend de deux conditions. La première, c’est que les interactions entre les « parties » soient inexistantes ou assez faibles pour être négligées dans certaines recherches. Sous cette condition seulement, les parties pourront être « isolées » véritablement, logiquement et mathématiquement, et ensuite « réunies ». La seconde, c’est que les relations qui décrivent le comportement des parties soient linéaires ; dans ce cas seulement, on aura la condition de sommativité (...) Le problème méthodologique de la théorie des systèmes est donc de s’occuper des problèmes de nature plus générale que les problèmes analytico-sommatifs de la science classique » (1968 :17,18).

Plus conséquente est la seconde critique : l’illusion trompeuse de certaines analogies. La

critique de l’analogie a été systématiquement conduite par un philosophe à qui on ne peut

reprocher un esprit étroit : G. Bachelard. Dans la Formation de l’esprit scientifique (1934), il

étudie les formes de pensée projetées sur les différentes réalités, en particulier la sublimation

de la sexualité15. Ne serait-il pas présomptueux de penser que ces écueils n’existent plus

aujourd’hui dans les sciences humaines et sociales où se multiplient les modèles, sans que les

auteurs nous en fournissent toujours les fondements formels ? Sur ce point, L.V. Bertalanffy

précise sa pensée en différenciant les « analogies » et les « homologies » :

« En premier lieu il y a les analogies, c’est-à-dire les similitudes superficielles de phénomènes qui ne correspondent ni par leurs causes, ni par les lois qui les gouvernent. Dans cette catégorie entrent les simulacra vitae, autrefois populaires ; par exemple la comparaison de la croissance d’un organisme à celle d’un cristal ou d’une cellule osmotique. Il existe des similitudes superficielles entre les deux aspects mais on peut affirmer sans risque d’erreur que la croissance d’une plante ou d’un animal ne suit pas le modèle de celle d’un cristal ou d’une structure osmotique et que les lois dont il s’agit diffèrent dans les deux cas (...) En second lieu il y a les homologies. Ce sont les cas où les facteurs qui agissent sont différents mais où les lois sont identiques sur le plan formel. Ces homologies ont en science une importance considérable comme modèles conceptuels. Elles s’appliquent fréquemment en physique (...) Les analogies n’ont aucune valeur scientifique. Les homologies au contraire fournissent des modèles précieux ; elles sont de ce fait très utilisées en physique. De même la théorie générale des systèmes pourra servir de dispositif régulateur séparant les analogies des homologies, les mises en parallèle de modèles dénuées de sens, de celles qui en ont un » (1968 : 82, 83).

Ainsi les analogies n’ont de sens que lorsqu’on arrive à identifier de façon rigoureuse les lois

formelles sur lesquelles elles sont fondées. L’explication scientifique consiste à formuler

« l’énoncé de lois et de conditions particulières valables pour un objet précis ou une classe

d’objets ». L’homologie repose alors sur des caractéristiques communes à certains objets

d’étude. Il est intéressant de constater que les modèles sociologiques auxquels fait référence

l’auteur concernent essentiellement la dynamique des populations ou la « lutte pour la

survie » (1968 : 108 et 109), c’est-à-dire des domaines où l’homologie peut être établie avec

la biologie, y compris lorsque ces dynamiques concernent des acquisitions matérielles utiles à

l’adaptation de l’homme à son environnement.

15 D’où son concept de « psychanalyse de la raison ».

Page 36: UN REFERENTIEL, POUR QUOI FAIRE

36

Mais, s’il est possible de formuler des hypothèses d’homologies entre certains

phénomènes d’adaptation sociologiques et biologiques, cela apparaît moins probant lorsqu’il

s’agit d’expliquer des phénomènes d’ordre symbolique (par exemple, la diffusion et

l’acquisition d’œuvres d’art, la formation et la diffusion des « représentations sociales », etc.).

Comment identifier alors si une analogie observée est une illusion de notre pensée

symbolique ou la conséquence de relations formelles à expliciter ? Dans des sciences telles la

physique, la chimie ou la biologie, qui sont déjà bien structurées, l’observation des fausses

analogies y semble bien plus aisée que dans des disciplines comme la psychologie ou la

sociologie, où le sujet observateur n’est pas extérieur à la situation observée. Doit-on, pour

autant, abandonner ces pistes de recherche ? Ce n’est pas certain, il convient seulement de

définir la véritable fonction de l’analogie et de la modélisation systémique au cours de la

recherche.

Il est un point sur lequel il semble possible de concilier le « philosophe de

l’épistémologie » et le « théoricien des systèmes » : pour tous les deux, les analogies résultent

de notre façon d’appréhender l’univers. G. Bachelard a mis en valeur l’influence de certains

phénomènes psychologiques dans la formation de préjugés « pré-scientifiques » : en

particulier,

- « l’extension abusive d’images familières », par exemple « l’éponge » ;

- la « cénesthésie », c’est à dire la projection de sensations internes sur des phénomènes

externes, par exemple la « digestion » ;

- « l’animisme (...) : ce sont les phénomènes biologiques qui servent d’explication pour les

phénomènes physiques », etc. (1934).

L. V. Bertalanffy, quant à lui, insiste sur la relativité des catégories de la perception (1968 :

227-252). Mais là où le premier prône une critique des analogies (psychanalyse de la raison),

le second propose une étude des lois formelles qui expliquent notre aperception de l’univers.

Chacun de ces deux auteurs a montré la pertinence de sa position au niveau de la recherche

scientifique et nous sommes contraints, dans ce cas de figure, d’apprécier leur

complémentarité... et les contradictions que font émerger la pertinence de leur approche

respectives.

Page 37: UN REFERENTIEL, POUR QUOI FAIRE

37

2-2) Les fondements ontologiques de la méthode analogique :

Le jeune humain découvre l’univers à partir d’un raisonnement « syncrétique » où

analogies et imaginaire font cause commune. Pour construire les structures logiques qui lui

permettront de rationaliser son aperception du monde, il transite par une étape « animiste »

(phase symbolique), puis par une découverte syncrétique et analogique de l’univers (phase

préopératoire et opératoire concrète) (J. Piaget ; 1945/1994 ; voir aussi R. Muchielli ; 1963).

La psychanalyse de la raison que préconise G. Bachelard est donc toujours d’actualité pour

former les jeunes esprits scientifiques, à partir du moment où se consolident les structures

formelles de l’intelligence. Les contraintes psychologiques de la transmission de notre

patrimoine culturel plaident en faveur de pratiques expérimentales et de recherches appliquées

dans l’enseignement scientifique16, mais aussi d’un accompagnement des jeunes chercheurs

dans leurs tâtonnements :

« toute doctrine de l’objectivité en vient toujours à soumettre la connaissance de l’objet au contrôle d’autrui. Mais d’habitude, on attend que la construction objective réalisée par un esprit solitaire soit achevée pour la juger dans son aspect final (...). Nous proposons au contraire un doute préalable qui touche à la fois les faits et leurs liaisons, l’expérience et la logique (...) La science moderne travaille sur des matériaux expérimentaux et avec des cadres logiques socialisés de longue date, par conséquent déjà contrôlés. » (G. Bachelard; 1934 : 241)

Si la position de G. Bachelard est toujours d’actualité, celle de L.V. Bertalanffy n’en est pas

moins renforcée, puisque les catégories intellectuelles qui fondent la pensée rationnelle ne

sont pas innées, mais acquises progressivement au cours de l’expérience sensori-motrice (J.

Piaget et B. Inhelder ; 1966/2008) et de l’apprentissage du langage (P. Oléron ; 1977/1995 :

47). Peut-être ne faut-il alors attendre des modèles analogiques que ce qu’ils sont en mesure

de fournir : une représentation synthétique d’une réalité complexe par une adaptation des

phénomènes observés à nos schémas de pensée. Cette proposition paraît certainement

tautologique, mais justement la tautologie a l’intérêt d’interroger le fondement logique du

problème. Les analogies existent parce qu’elles ont une fonction dans la construction de nos

raisonnements ; il est donc superflu de vouloir les nier ou les rejeter, car elles reviennent

alors, au moment des interprétations, par la petite porte, sans qu’on y prenne garde.

L’approche systémique a donc au moins cet intérêt de formaliser les analogies inconscientes

qui fondent nos interprétations, et qui sont profondément ancrées dans nos schémas de

raisonnement.

16 Elles sont introduites, de nos jours, dans les lycées à travers les TPE et autres modes d’expérimentation en groupe.

Page 38: UN REFERENTIEL, POUR QUOI FAIRE

38

Il semble donc important, maintenant, d’identifier les fonctions de la modélisation

pour exploiter la démarche sans sombrer dans des schématisations simplistes.

2-3) Les fonctions de la modélisation :

Suzanne Bachelard nous présente « quelques aspects historiques de la notion de

modèle », à partir de plusieurs exemples de recherches en physique et chimie et de citations

d’auteurs :

« Duhem mettait en cause « les analogies plus ou moins grossières » qui soutiennent les modèles mécaniques. Mais le physicien était bien obligé de prendre au sérieux l’analogie scientifique : « L’histoire de la Physique nous montre que la recherche des analogies entre deux catégories distinctes de phénomènes a peut-être été, de tous les procédés mis en œuvre pour construire des théories physiques, la méthode la plus sûre et la plus féconde ». (...) Dès le milieu du XIXème siècle, Lamé soulignait l’intérêt des « analogies » entre la théorie de l’attraction et la théorie de la chaleur : « Coïncidence remarquable qui rapproche les deux théories, à tel point qu’en résolvant analytiquement certaine question particulière, chez l’une, on a immédiatement la solution d’une question correspondante chez l’autre. » (...) « Maxwell, pour caractériser l’analogie physique entre deux théories, a employé le terme d’illustration : « l’une des deux sciences peut servir à illustrer l’autre (...) la justesse d’une illustration scientifique vient de ce que les deux systèmes d’idées qui sont comparées l’un avec l’autre sont réellement analogue par la forme – in form ; ou, en d’autres termes, vient de ce que les quantités physiques correspondantes appartiennent réellement à la même classe mathématique. Quand cette condition est remplie, l’illustration n’est pas simplement commode pour enseigner les sciences d’une manière agréable et facile, mais la reconnaissance de l’analogie formelle entre les deux systèmes d’idées conduit à une connaissance des deux, plus profonde que celle qui pourrait être obtenue quand on étudie chacun séparément » (...) Boltzmann n’a cessé de répéter que « nous ne pouvons éviter entièrement de mêler des représentations aux faits » et que c’est une illusion de penser pouvoir s’abstenir de toute hypothèse comme le proclamait Ostwald. Mais, d’autre part, tout en affirmant que s’il est indispensable pour approfondir notre connaissance de la nature, de développer les images mécaniques et de les rendre palpables, Botzmann se trouve justifié à ses propres yeux que par le progrès proprement théorique suscité par l’idée-image ».

Le modèle a ainsi une fonction d’« idéalisation » de la réalité, indispensable dans un premier

temps à la découverte de certaines régularités dans la complexité des phénomènes. L’analogie

est alors exploitée pour transposer un modèle d’interprétation entre deux phénomènes qui ont

la même régularité mathématique, et pour remonter ensuite à l’origine de ces

correspondances. Le modèle peut ainsi gommer certaines aspérités accidentelles, afin

d’observer une régularité dans de nouveaux phénomènes dont l’explication apparaît alors de

façon probante, quitte ensuite à revenir sur la cause de ces accidents.

Page 39: UN REFERENTIEL, POUR QUOI FAIRE

39

Cette conception convient aussi aux sociologues, qui apportent les mêmes arguments :

« Le sociologue doit multiplier les hypothèses d’analogies possibles jusqu’à construire la famille de cas qui rend raison du cas considéré. Et pour construire ces analogies elles mêmes, il peut légitimement s’aider de l’hypothèse d’analogies de structure entre les phénomènes sociaux et des phénomènes déjà mis en forme par d’autres sciences, à commencer par les plus proches, linguistique, ethnobiologie ou même biologie. « Il n’est jamais sans intérêt, observe Durkheim, de rechercher si une loi, établie pour un ordre de faits, ne se retrouve pas ailleurs, mutatis mutandis ; ce rapprochement peut même servir à la confirmer et à en faire mieux comprendre la portée. En somme l’analogie est une forme légitime de la comparaison et la comparaison est le seul moyen pratique dont nous disposions pour arriver à rendre les choses intelligibles ». Bref, la comparaison orientée par l’hypothèse d’analogies constitue non seulement l’instrument privilégié de la coupure avec les données pré-construites, qui prétendent avec insistance être donnée en elles mêmes, mais aussi le principe de la construction hypothétique de relations entre les relations » (P. Bourdieu., J. C. Chamboredon et J. C. Passeron ; 1968 : 74 et 75).

La modélisation par analogie a donc une fonction heuristique, à condition de ne pas s’arrêter à

des « ressemblances superficielles », mais d’utiliser le modèle pour s’interroger sur les

analogies de structure et formuler des hypothèses de recherche. Cette démarche conduit à

créer des structures-type, qui sont ensuite confrontées aux observations des phénomènes

qu’elles sont censés représenter. En sociologie, la notion d’Idéaltype de Weber concilie ainsi

l’approche dialectique de l’histoire et le regard critique des sciences sociales naissantes :

« On obtient un idéaltype en accentuant unilatéralement un ou plusieurs points de vue et en enchaînant une multitude de phénomènes, donnés isolément, diffus et discrets, que l’on retrouve tantôt en grand nombre, tantôt en petit nombre et par endroits pas du tout, qu’on ordonne selon les précédents points de vue choisis unilatéralement, pour former un tableau de pensée homogène. On ne trouvera nulle part empiriquement un pareil tableau dans sa pureté conceptuelle : il est une utopie. Le travail historique aura pour tâche de déterminer dans chaque cas particulier combien la réalité se rapproche ou s’écarte de ce tableau idéal (...) Le concept idéaltypique se propose de former le jugement d’imputation, il n’est pas lui même une hypothèse, mais il cherche à guider l’élaboration des hypothèses » (M. Weber ; Essais sur la théorie de la science ; extraits choisis par P. Bourdieu et ass. : 1968 : 250 et 251).

Cette conception de la modélisation analogique a aussi des défenseurs chez les psychologues :

« Un modèle analogique, tel que celui que nous venons de présenter est un guide pour la recherche. Il permet de faire la synthèse des interprétations que les données déjà recueillies ont suggérées et d’indiquer les points où faire des investigations ultérieures. Mais il serait vain de tenter de le perfectionner comme tel. Pour progresser, l’objectif doit être en réalité de dépasser le stade d’une représentation seulement analogique. Seule l’étude des processus impliqués par la tâche d’évaluation pourra permettre de franchir cette étape et de parvenir peut être à un modèle formel » (G. Noizet, J.P. Caverni – 1978 : 116).

Les analogies sont donc porteuses d’innovations, mais elles conduisent aussi à des écueils et

« les difficultés apparaissent lorsque le modèle initial est conservé au delà des premiers

développements qu’il a suggérés » (P. Oléron ; 1977/1995 : 22).

Page 40: UN REFERENTIEL, POUR QUOI FAIRE

40

Pour préciser la place de la modélisation systémique dans la progression de la

recherche, approfondissons notre réflexion sur ses différentes fonctions. La classification des

modèles « selon le type de fonction qui leur est affectée » de D. Durand précise le modèle

proposé par Walliser en 1977 (cf. aussi G. Le Boterf ; 1994 : 60, 61) :

« Le modèle cognitif a pour fonction de fournir une représentation d’un système existant qui met en évidence les propriétés de ce système que l’on veut spécialement connaître, au détriment d’autre propriétés jugées moins intéressantes (…) Le modèle prévisionnel a pour fonction, à partir de la connaissance que l’on a du système, dans une situation donnée, d’en déduire son comportement dans les situations nouvelles. Le modèle décisionnel a pour fonction de fournir à un décideur des informations qui lui permettront de prendre les décisions optimales en vue d’atteindre les objectifs visés (…) Le modèle normatif a pour fonction de fournir une représentation aussi précise que possible d’un système à créer (…) le modèle étudié doit être, à la fois techniquement réalisable, cohérent et socialement acceptable (…) » (1979/1992 : 53, 54).

La dérive de certaines modélisations ne serait elle pas, en partie, la conséquence d’une

confusion entre ces diverses fonctions ? L’intérêt du professionnel – au même titre que

l’homme de la rue, ou l’enfant qui apprend – est de se forger des modèles immédiatement

applicables dans certaines situations données. Bien entendu, il est souhaitable que le modèle

soit adapté à la situation, sinon il est nécessaire de le corriger : ce fonctionnement n’est

qu’une forme évoluée du schème assimilation / accommodation, à l’origine du phénomène

d’adaptation qui, pour J. Piaget, caractérise l’acte intelligent. La fonction de ces modèles est

normative quand l’action est immédiate, décisionnelle quand elle est réfléchie. A l’inverse, le

scientifique pose un modèle pour guider son observation des phénomènes, soit pour

déterminer les variables et relations pertinentes à étudier (modèle prévisionnel), soit pour

obtenir une vision globale à partir des résultats et faire ainsi progresser sa compréhension du

fonctionnement général du système (modèle cognitif).

Cette dichotomie entre normatif et cognitif a été traitée, au sein des sciences de

l’éducation, lors du débat entre approches prescriptive (modèle décisionnel ou normatif) et

descriptive (modèle prévisionnel et cognitif). Elle a donné lieu à un colloque (J. M. De

Ketele, 1986). Si les travaux de certains auteurs, tels ceux de P. Perrenoud (avec son approche

sociologique), d’Y. Chevallard (et son concept de contrat didactique), ou encore de M. Gilly

(et son étude des représentations sociales), s’inscrivent plus dans une option descriptive, J.J.

Bonniol (et sa problématique de l’évaluation formative) ou J.M. De Ketele (et son analyse

l’évaluation du savoir-être) revendiquent plutôt une approche prescriptive. C. Delorme expose

les limites des unes et des autres et nous renvoie ainsi à toute la complexité du problème.

Page 41: UN REFERENTIEL, POUR QUOI FAIRE

41

Si les démarches descriptives risquent de se couper des préoccupations des praticiens, à la fois

par des résultats trop réduits et très partiels (ou trop hâtivement généralisés) et par une

rationalisation abusive ou un manque d’effort dans la communication, l’approche prescriptive,

qui répond à la préoccupation des professionnels d’obtenir des « recettes » immédiatement

applicables, peut s’avérer « illusoire » et développer une « attitude d’acceptation passive ». Il

ne s’agit donc pas d’opposer la modélisation prescriptive à la descriptive, mais d’en discerner

la fonction respective par rapport au fonctionnement logique de la science et à l’intérêt social

d’une science appliquée. Cette problématique a été abordée tout au long de ce colloque. On

aurait pu en attendre une synthèse plus précise sur les questions qui caractérisent une

discipline scientifique, à savoir sa fonction spécifique, ses objets de recherche et ses

méthodologies. Mais on comprend aussi que les auteurs réunis à cette occasion n’aient pas

souhaité fermer un débat qui n’en est qu’à ses prémisses. C. Delorme évoque « l’interaction

entre théorie et pratique », « entre les différents acteurs » et « l’élaboration de nouvelles

méthodologies de recherche ». J.J. Bonniol s’inscrit aussi dans cette réflexion quand il

évoque, d’une part sa position de formateur, et d’autre part celle de chercheur :

« Que pouvons nous faire alors en tant que formateurs pour dépasser nous-mêmes le plan du constat, plan dans lequel nous reprochons par ailleurs aux enseignants de rester englués ? (…) De même en tant que chercheur, établissant nos problématiques à partir d’éléments de théories scientifiques, quels objets scientifiques devons nous construire qui ne soient pas à distance infranchissable des préoccupations pratiques et si possible des solutions envisageables » (J.J. Bonniol dans J.M. De Ketele ; 1986 : 123, 124).

Un an plus tard, cet auteur apporte des précisions sur sa conception:

« Le problème (jusqu’à présent traité) est bien « comment évaluer ? » et non pas « que fait celui qui évalue ? ». Les populations étudiées sont « les formés », et non « les évaluateurs ». Or il nous semble qu’il y a là, pour le moins, une ambiguïté, une confusion des rôles et des questions, dont le rapport ambigu entre chercheurs et praticiens est un symptôme (…), il semble que l’on cherche à construire une science appliquée sans s’être posée la question des fondements théoriques de cette science (…) Bref, on n’étudie pas l’évaluation, on innove en matière d’évaluation, ce qui empêche que le comportement d’évaluation soit jamais étudié en tant que tel » (J. J. Bonniol in Bonniol et Vial –1997 : 62). La question est bien de savoir : « qu’est-ce qu’on étudie ? » Quel est l’objet de

recherche ? Et par la même « qui fait quoi ? » entre le professionnel (le formateur, l’auditeur,

le conseiller, l’enseignant) et le chercheur. La posture du formateur n’est pas la même que

celle du chercheur. Si un chercheur s’avère être aussi un formateur, dans notre système

d’enseignement, cela signifie-t-il pour autant que sa posture soit identique quand il enseigne

et quand il fait de la recherche ? Cette interrogation rejoint la réflexion sur le parti pris adopté

au début de cette thèse, mais en approfondissant les implications méthodologiques.

Page 42: UN REFERENTIEL, POUR QUOI FAIRE

42

Quel est l’intérêt d’une problématique de recherche qui n’aurait pas de rapport avec les

problèmes auxquels sont confrontés les professionnels ? N’est-ce pas à ce niveau que doit

s’affirmer la démarche prescriptive ? Mais une fois que sont définis les objets de la recherche

et l’intérêt de les approfondir pour tel ou tel milieu professionnel (par exemple, le contrat

didactique, les règles implicites de l’évaluation scolaire, les représentations sociales des

enseignants, les interactions verbales lors des situations évaluatives, les référentiels implicites

du milieu professionnel), la position prescriptive est-elle encore soutenable ? Le chercheur

est-il là pour dire aux professionnels la façon dont ils devront organiser les relations sociales

entre formateur / stagiaires, enseignant / élèves ? Ou bien son rôle est-il d’expliquer pourquoi

elles s’opèrent ainsi, et quels sont les enjeux sociaux, psychologiques, historiques ? Certes, il

existe des modèles normatifs ou décisionnels dans le domaine de la recherche, en particulier

pour l’élaboration d’un document (article, thèse) ou la construction de la méthode. La façon

de définir la problématique fait partie de cette prescription : si nous considérons qu’une

science de l’éducation a pour principal objectif de répondre aux professionnels de l’éducation,

la façon de poser le problème en est influencée. Mais il ne s’agit pas ici de confondre l’objet

de la recherche (que l’on cherche à connaître) et la méthodologie pour l’observer (la

construction de la recherche par le chercheur) sans quoi on s’enferme dans des tautologies et

on ne démontre rien de plus que les principes et les postulats posés a priori.

Par ailleurs, dans la mesure où une recherche est pertinente, il est normal que les

professionnels s’approprient les modèles cognitifs des scientifiques, et les adaptent à certaines

situations comme « cadres d’interprétation »17 de celles-ci. Le professionnel simplifie alors

souvent ces modèles en fonction de ses connaissances, les remodèle en fonction de ses

besoins, et surtout, il les transforme en modèles décisionnels : cette « vulgarisation » a peu

d’importance puisqu’il les corrige au gré de ses expériences, soulevant parfois de nouvelles

problématiques pour les chercheurs18. En revanche, si ces derniers se contentent des

modélisations des professionnels pour interpréter la réalité, ils ne remplissent plus leur rôle

scientifique qui consiste à faire progresser la connaissance de plus en plus précise des

phénomènes, en transformant au besoin ces modèles d’origine ou en les remettant en

question : l’intérêt de la science est d’avoir des modèles cognitifs de plus en plus précis et de

plus en plus pertinents pour interpréter les phénomènes observés.

17 La notion de « cadre » est approfondie au paragraphe sur les représentations sociales (pages 212 à 230). 18 Notons qu’un chercheur a lui-même ses propres conceptions pédagogiques quand il est praticien : professeur dans l’enseignement primaire ou secondaire, professionnel de l’animation, professeur des universités. Mais la position n’est alors plus la même.

Page 43: UN REFERENTIEL, POUR QUOI FAIRE

43

Cette différenciation des fonctions entre professionnels et chercheurs est d’autant plus

importante pour une discipline scientifique où la tradition pédagogique induit souvent une

pratique plus prescriptive que descriptive19. La fonction de la science n’est pas de construire

des modèles d’action à proposer aux professionnels (c’est le rôle des pédagogues ou des

responsables), mais des modèles d’explication pertinents et valides sur les processus en jeu

lors des situations éducatives, connaissances que les professionnels s’approprieront au gré de

leurs besoins.

2-4) La Référentialisation, méthode scientifique ou objet de recherche ?

Les travaux de G. Figari, sur les « référentiels d’évaluation », constituent un bon

exemple pour étayer cette discussion. Cet auteur propose que les référentiels soient élaborés

par les acteurs, en particulier au niveau des établissements scolaires (1991). Chaque

établissement est ainsi invité à construire son « document de référence », qui devient ainsi un

« outil d’analyse » :

« Parce qu’il a exprimé des finalités et des objectifs, mis en place des dispositifs de régulation de l’action, anticipé des résultats et prévu les modalités de leur mesure, le référentiel devient également un outil d’ « autoanalyse » (Bollen, Hopkins, 1988). Les acteurs peuvent maîtriser grâce à lui les prises d’informations concernant les activités de projet et contrôler ainsi les diagnostics internes pouvant être portés sur le fonctionnement de l’établissement » (G. Figari ; 1991).

L’auteur offre ensuite des repères pour s’engager « vers une méthodologie d’élaboration d’un

auto-référentiel ». Dans son ouvrage de référence (1994), il clarifie sa position en définissant

la « référentialisation » :

« La référentialisation consiste à repérer un contexte et à construire, en le fondant sur des données, un corps de référence relatif à un objet (ou une situation) par rapport auquel pourront être établis des diagnostics, des projets de formation et des évaluations. La référentialisation veut être une méthode de délimitation d’un ensemble de référents et se distingue en cela du référentiel qui désigne lui, un produit fini, et plus exactement, une formulation momentanée de la référentialisation » (1994 : 48).

La « référentialisation » est donc une méthode pour construire un « corps de référence » dans

le but d’établir des projets et des évaluations. Mais, par ce parti pris, l’auteur quitte le

domaine du « descriptif » pour s’inscrire dans le « prescriptif » ou, selon les termes de D.

Durand, le modèle « cognitif » des scientifiques pour le modèle « décisionnel » des experts.

19 Cette remarque n’est pas une critique des recherches sur la pédagogie, en particulier sur les courants pédagogiques qui ont façonné l’éducation moderne, mais il me semble fondamental d’éviter la confusion entre le matériel de la recherche (textes des pédagogues, leur histoire, contextes sociaux de leur publication, etc.) et les méthodes (historiques, sociologiques, philosophiques).

Page 44: UN REFERENTIEL, POUR QUOI FAIRE

44

Le chercheur n’étudie plus les processus et procédures utilisés par les acteurs sociaux pour

élaborer leur auto-référentiel (modélisation cognitive), il offre des outils pour le construire

(modélisation décisionnelle). Cette confusion introduit de multiples questions. Tout d’abord,

quel est l’objet d’étude du scientifique ? Pour approfondir le sujet, partons de l’exemple d’une

étude sur l’évaluation des dispositifs des PAE (« Projets d’Action Educative »), exposée par

l’auteur et conduite par A. Bollon, C. Delorme et G. Figari (1986) :

« Du référentiel prescrit au référentiel reconstruit (...) Le dispositif des PAE a fonctionné depuis sa création en fonction d’un référentiel « prescrit » : les modalités de leur fonctionnement pédagogique, depuis « l’analyse des besoins des élèves et des problèmes inhérents à une situation » jusqu’à « l’évaluation », ont fait l’objet d’une contractualisation. Néanmoins, l’opération d’évaluation nationale, provoquée pour vérifier l’efficacité d’un système, a entraîné une reformulation de ce référentiel : l’étude menée à cette occasion a en effet amené les décideurs et les responsables à redéfinir les caractéristiques de la notion de projet » (G. Figari - 1994 : 81). Dans les faits, il a été mis en place « un instrument transparent, construit par des opérations successives, à partir de données recueillies et restituées aux représentants des différents partenaires de l’opération, (qui) devait présenter l’avantage de pouvoir ensuite être reconnu et utilisé par chacun d’entre eux » (Idem : 81).

Cette dynamique apparaît pertinente pour le commanditaire, et enrichissante pour les acteurs

impliqués (institutions, enseignants, élèves, etc.), mais s’agit-il d’une « recherche sur

l’évaluation » ou d’un « accompagnement de projet » (audit, conseil) ? Cette clarification

n’aurait pas grand intérêt si cette confusion ne véhiculait des illusions scientifiques. Il

n’émerge de cette méthode de « référentialisation » qu’un ensemble de représentations que

nous communiquent les acteurs : par exemple, pour les professeurs de PAE, le taux

d’absentéisme représente un indicateur à prendre en compte pour juger la motivation des

élèves (idem : 78). Mais est-il possible d’évaluer effectivement la motivation à partir de cet

indicateur ? La question n’est pas posée, ni approfondie. Comment faire alors la part des

choses entre le matériel fourni par les acteurs et la méthode d’observation du scientifique ?

Par conséquent, si la prétention de la méthode « référentialisation » est de faire émerger des

synthèses socialisées de représentations, elle semble tout à fait pertinente : il n’y a pas, a

priori, de raison de mettre en doute ce que les acteurs nous communiquent sur leurs propres

représentations. En revanche, si on affirme que cette méthode permet de « construire un

référentiel » « pour évaluer un établissement scolaire » (idem : 119 à 135), « pour évaluer un

dispositif de formation » (idem : 137 à 155), « pour évaluer la qualité d’un curriculum »

(idem : 157 à 178), ne véhicule-t-on pas une illusion ? Ne s’éloigne-t-on pas des informations

que la recherche a vraiment la possibilité de produire et de fournir aux professionnels ?

Page 45: UN REFERENTIEL, POUR QUOI FAIRE

45

En d’autres termes, en quoi la méthode « référentialisation » du chercheur serait-elle

meilleure que celle des acteurs ou d’un responsable de l’équipement, d’un formateur ou d’un

auditeur commandité par l’institution ? Il ne s’agit donc pas de rejeter les conceptions de G.

Figari quand il prône la construction d’auto-référentiels par les acteurs sociaux sur leurs

équipements respectifs. Il n’y a pas lieu, non plus, de critiquer l’immersion du chercheur pour

collecter le maximum d’informations (principes de l’ethnographie et de l’anthropologie de la

communication). En revanche, il convient de bien distinguer le rôle du chercheur de celui de

l’auditeur ou de l’évaluateur20 :

• si la « référentialisation » est une méthode pour élaborer des « référentiels » adaptés aux

problématiques des professionnels, c’est une modélisation « décisionnelle », de type

prescriptif ;

• si c’est un concept qui traduit les processus de jugement, ou le système de référence,

effectivement mis en œuvre par les acteurs dans les situations / interactions d’évaluation,

la « Référentialisation » devient un objet de recherche et la modélisation est alors

« cognitive », de type descriptif. Le chercheur a pour rôle de trouver des méthodes qui

éclairent le fonctionnement implicite (ou inconscient) des acteurs.

C’est le rôle des formateurs et des auditeurs de communiquer aux professionnels des modèles

qui découlent des travaux scientifiques, celui des chercheurs est de construire des outils pour

observer et donner du sens à ces observations : les modèles des professionnels sont donc des

objets de recherche, y compris ceux qui sont repris et mis en acte à partir des travaux

scientifiques. La définition de la « Référentialisation » pour laquelle on optera dans ces

travaux, se distingue ainsi de celle de G. Figari, en ce sens qu’elle détermine un concept qui

signifie un objet d’étude, et non un modèle méthodologique : « la Référentialisation est

l’ensemble des processus et des relations de référence, de signification et de

conceptualisation, qui sont mis en œuvre par les acteurs sociaux lorsqu’ils sont en situation de

porter des jugements d’évaluation. En un mot, il s’agit d’étudier leur système de Référence et

la façon dont il est construit ». Ces discussions pour différencier objet et méthode trouvent

matière à s’enrichir dans l’analyse des rapports entre la conception d’un objet de recherche et

les méthodes utilisées pour l’étudier - en d’autres termes, sur les modalités expérimentales de

l’étude des objets, ce que T. S. Kuhn appelle des « paradigmes ».

20 A plus forte raison lorsqu’un commanditaire demande un travail d’audit ou de formation à un universitaire, ce qui en soi est tout à fait légitime : le chercheur qui connaît un objet de recherche n’est-il pas le mieux placé pour faire du conseil ou de la formation sur cet objet ?

Page 46: UN REFERENTIEL, POUR QUOI FAIRE

46

Chapitre 3

Vers la définition des axes de recherche :

1) La notion de paradigme :

Le concept de « paradigme » est utilisé par T. S. Kuhn dans un sens différent de la

linguistique. Il fait référence à ses travaux sur « la structure des révolutions scientifiques ». Il

apparaît, dans un premier temps, utile de faire une présentation de ces thèses et des premières

définitions de l’auteur (1962), avant d’embrayer sur les définitions plus précises de sa

postface de 1969. Thomas S. Kuhn, après avoir étudié l’histoire des découvertes scientifiques

et observé le fonctionnement des groupes de recherche, propose d’appeler « paradigme » :

« Les découvertes scientifiques universellement reconnues qui, pour un temps, fournissent à une communauté de chercheurs des problèmes types et des solutions » (1962 : 11).

En choisissant ce terme, l’auteur veut « suggérer que certains exemples reconnus de travail scientifique réel – exemples qui englobent des lois, des théories, des applications et des dispositifs expérimentaux – fournissent des modèles qui donnent naissance à des traditions particulières et cohérentes de recherche scientifique » (1962 : 30).

Un groupe scientifique, pour progresser vers de nouvelles recherches et résoudre de nouveaux

problèmes, a besoin de se libérer de « la nécessité de réexaminer constamment ses premiers

principes » pour « se concentrer exclusivement sur les phénomènes (...) qui l’intéressent ».

Pour approfondir ses connaissances du monde et étudier les mêmes phénomènes, cette

communauté a besoin de cerner les objets d’étude pertinents et de préciser les méthodologies.

« L’observation et l’expérience peuvent et doivent réduire impitoyablement l’éventail des croyances admissibles, autrement il n’y aurait pas de science » (1962 : 21).

Parfois des « anomalies » apparaissent qui ne se laissent pas réduire par les lois scientifiques

et les croyances en vigueur dans le groupe. Ces contradictions provoquent alors des « crises »,

qui obligent la discipline scientifique à se transformer :

« Quand cela se produit – c’est-à-dire quand les spécialistes ne peuvent ignorer plus longtemps des anomalies qui minent la tradition établie dans la pratique scientifique – alors commencent des investigations extraordinaires qui les conduisent finalement à un nouvel ensemble de convictions, une nouvelle base pour la pratique de la science. Les épisodes extraordinaires au cours desquels se modifient les convictions des spécialistes sont qualifiés dans cet essai de révolutions scientifiques » (1962 : 23).

Page 47: UN REFERENTIEL, POUR QUOI FAIRE

47

Pour répondre aux critiques qui ont été formulées lors de son premier écrit, l’auteur, dans la

postface de la seconde édition, précise la structure de ces paradigmes :

« Le terme de paradigme est utilisé dans deux sens différents. D’une part, il représente l’ensemble des croyances, de valeurs reconnues et de techniques qui sont communes aux membres d’un groupe donné. D’autre part, il dénote un élément isolé de cet ensemble : les solutions concrètes d’énigmes qui, employés comme modèle ou exemples, peuvent remplacer les règles explicites en tant que bases de solutions pour les énigmes qui subsistent dans la science normale » (T. S. Kuhn – 1962, postface de 1969 : 238).

Il appelle donc « paradigme » « les éléments constituants » de ce qu’il nomme la « matrice

disciplinaire », qui « forment un tout et fonctionnent ensemble » : « les généralisations

symboliques (...) expressions employées sans question ou dissension par les membres du

groupe », « la partie métaphysique (...) le fait d’adhérer collectivement à des croyances »,

« les valeurs » et « prédictions », et « les exemples (...) solutions concrètes de problèmes »

(1969 : 248 à 255). Le chercheur en sciences de l’éducation, qui emprunte souvent à d’autres

disciplines ses modèles, est confronté à certains problèmes de positionnement, qui justifient

une réflexion sur les paradigmes utilisés. Dans ce qui suit, il ne s’agit pas tant de critiquer la

proposition de T.S. Kuhn dont on reprend la structure et l’analyse, que de se la réapproprier

pour expliquer l’articulation des différents paradigmes de cette recherche.

a) Commençons par le dernier élément cité, « les exemples » :

« Solutions concrètes de problèmes que les étudiants rencontrent, dès le début de leur formation scientifique (...) solutions techniques de problèmes exposés dans les publications périodiques, que les scientifiques rencontrent durant leur carrière de recherche et qui leur montrent aussi, par l’exemple, comment ils doivent faire leur travail » (1969 : 254).

On préfèrera, pour qualifier cet élément, le concept de « modèle d’expérience et

d’observation » (MEO) , peut être plus restreint que celui de T.S. Kuhn, mais qui a l’avantage

d’être plus précis, et surtout d’introduire une réflexion sur la fonction de ces modèles,

généralement très normatifs au niveau de la méthode, ou du moins à caractère décisionnel

lorsqu’ils ont une vocation heuristique. Cette normativité n’en est pas, pour autant, arbitraire :

elle résulte des phénomènes d’institutionnalisation. Ces modèles ont été introduits par des

chercheurs, à une époque donnée, pour résoudre certaines problématiques, puis ils ont été

repris par leurs confrères et progressivement utilisés par l’ensemble de la communauté

scientifique, sans qu’il soit nécessaire de reprendre tout l’argumentaire qui a accompagné leur

émergence. Cet argumentaire est implicite et il est censé être connu par tous les membres de

la communauté (du moins dans ce qu’il a d’essentiel) car c’est lui qui justifie les inférences

logiques au moment de l’interprétation des résultats.

Page 48: UN REFERENTIEL, POUR QUOI FAIRE

48

b) Abordons ensuite les « généralisations symboliques » :

« Expressions employées sans question ou dissension par les membres du groupe, et qui peuvent facilement revêtir une forme logique (...) Ce sont des éléments formels, ou facilement formalisables, de la matrice disciplinaire. Parfois, on les trouve déjà sous une forme symbolique : f=ma ou I=V/R. D’autres s’expriment généralement sous une forme verbale : « Les éléments se combinent dans des rapports de poids constants » ou bien : « L’action est égale à la réaction ». Ce sont des « points de départ (des) techniques de manipulation logique et mathématique » que les chercheurs adoptent « pour leur activité de résolution d’énigmes ». Pour l’auteur, « la puissance d’une science semble généralement augmenter avec le nombre de généralisations symboliques dont disposent ces spécialistes » (1969 : 249 et 250).

Dans les sciences humaines et sociales, ce symbolisme est moins apparent, bien qu’on le

retrouve aussi avec les formules statistiques (Khi 2, t de Student, f d’Anova, etc.). Pour cette

raison, elles sont souvent qualifiées de « sciences molles ». Mais l’habillage n’est-il pas ici en

train de se substituer au contenu, le codage symbolique à la rigueur de la démarche ? Dans

les sciences humaines et sociales, la communication langagière joue un rôle plus central que

les mathématiques, et la formalisation se structure à travers les constructions conceptuelles :

« ça, moi, surmoi » de la psychanalyse, axes « paradigmatiques et syntagmatiques » de la

linguistique structurale, etc. Les concepts scientifiques assument donc cette fonction de

« généralisation symbolique » : l’utilisation récurrente des concepts, dans les mêmes cadres

d’expérience, pour étudier les mêmes phénomènes, conduit les membres de la communauté à

fixer la signification du concept et à se comprendre rapidement quand celui-ci est évoqué : la

notion de « signification » par exemple, a une signification plus précise pour les linguistes que

pour l’usage commun. Les concepts ont aussi cette fonction dans les sciences dites « dures »

(physique, chimie, biologie, etc.), ils traduisent de phénomènes observés et des relations

logiques entre ceux-ci. « R » signifie résistance, « I » intensité : cette « résistance » et cette

« intensité » ne sont-elles pas aussi des concepts qui expriment des phénomènes électriques

bien définis ? La symbolisation mathématique n’est donc qu’une forme particulière de

codification des concepts. Bien plus donc que la généralisation symbolique, ce sont les

relations fonctionnelles et logiques entre les concepts, qui ont vertu de paradigme. On pourrait

prendre, comme exemple, dans le domaine de l’évaluation, les relations entre les

« indicateurs » et les « critères » qui ont fait l’objet de nombreuses études. Dans la même

perspective, l’objectif de cette recherche est de préciser les relations fonctionnelles et logiques

entre « conceptions », « représentations sociales » et « compétences professionnelles », et leur

articulation au cours des processus d’évaluation. Dans les sciences humaines, il existe donc

aussi des relations formelles entre les concepts. On les notera « RFC ».

Page 49: UN REFERENTIEL, POUR QUOI FAIRE

49

Les analyses de T. S. Khun sur cet élément pointent cependant un aspect important :

ce ne sont pas ces relations formelles des concepts qui font défaut dans les sciences de

l’éducation, mais leur articulation et leur manipulation par l’ensemble d’une communauté qui

songe plus souvent à critiquer les autres paradigmes (MEO) qu’à construire un corps de

connaissances cohérent et pertinent, utilisés par tous les membres. L’effort entrepris dans les

paragraphes suivants pour générer cette complémentarité entre les paradigmes s’explique en

grande partie par de tels constats.

c) T. S. Kuhn nous décrit ensuite les « croyances » :

« Le fait de croire à certains modèles particuliers (...) la chaleur est l’énergie cinétique des parties constituantes du corps ; toutes les phénomènes perceptibles sont dus à l’interaction dans le vide d’atomes qualitativement neutres, ou aussi à la matière et à la force, ou à des champs. (...) J’élargis la catégorie des modèles pour y inclure aussi des variétés relativement heuristiques : le circuit électrique peut être considéré comme un circuit hydrodynamique en équilibre (...) Bien que la force et l’adhésion du groupe varie – avec des conséquences non dépourvues d’importance – en parcourant la série qui va des modèles heuristiques aux modèles ontologiques, tous ont la même fonction : entre autre chose, ils fournissent au groupe des métaphores et de analogies préférées ou permises. Ils contribuent ainsi à déterminer ce qui sera accepté comme explication et comme solution d’énigmes ; et réciproquement à déterminer l’ensemble des énigmes non résolues et l’importance de chacune » (1969 : 250 et 251).

Nous reconnaissons ici la fonction des modèles cognitifs, qui offrent une vision globale des

systèmes de relations entre les phénomènes observés. Ces modèles sont des schématisations

de la réalité, mais ils ont aussi une vertu prédictive : la connaissance de l’objet permet de

prévoir la façon dont il devrait se comporter ; si les prédictions sont fausses, c’est la

connaissance elle-même qui est mise en doute. On peut donc être un peu surpris de voir que

T. S. Kuhn classe les « prédictions » parmi les « valeurs ». Mais l’auteur entend certainement,

derrière ce terme, la « marge d’erreur tolérable », qui elle fait partie des critères de validité,

alors que les prédictions, en tant que telles, sont une des fonctions des modélisations

systémiques. Par conséquent, dans cette rubrique, on regroupera tous les modèles, dans leur

fonction cognitive et prévisionnelle, c’est à dire la modélisation des « croyances » et des

« prédictions » (MCP).

d) Enfin, les « valeurs » :

Le dernier groupe d’éléments, proposé par T. S. Kuhn, est certainement celui qui porte

le plus à discussion. L’auteur y rassemble les « prédictions » que l’on a rattachées aux

fonctions de la modélisation, des valeurs intrinsèques aux manipulations logiques, et des

valeurs exogènes et sociétales, induites par l’histoire des communautés scientifiques.

Page 50: UN REFERENTIEL, POUR QUOI FAIRE

50

Les « valeurs » qualifiées d’intrinsèques aux processus logiques, sont celles

« que l’on fait intervenir pour juger des théories complètes : elles doivent, avant toute chose, permettre de formuler des énigmes et d’en trouver la solution ; dans la mesure du possible, elles doivent être simple, cohérentes et plausibles, c’est à dire compatibles avec les autres théories en cours. Je pense que c’est une faiblesse de mon texte original d’avoir accordé si peu d’attention à des valeurs comme la cohérence interne et externe » (1969 : 251 et 252).

Les « préceptes » de Descartes, ou ceux de J. L. Le Moigne, qui lui répondent (cf. plus loin)

font partie de cette catégorie de valeurs intrinsèques. Les scientifiques de l’éducation

préfèreront le concept de « critère », plus pertinent pour décrire cet élément de la matrice. Par

exemple, J. M. De Ketele et X. Rogiers (1996) proposent, pour les recherches en sciences de

l’éducation, les critères de « pertinence », de « validité » et de « fiabilité ». Le critère, pour J.

Ardoino et Berger (1989), est une interface entre les valeurs et les indicateurs plus

opérationnels mis en place pour observer l’objet. Dans des pages qui suivent (chapitre 7), on a

défini le « critère » à partir de trois attributs, un concept générique qui oriente la collecte

d’information et détermine l’objet de l’étude ou de l’évaluation, une opération logique et

méthodique à appliquer à l’objet, et un ensemble de connaissances de référence qui justifient

les inférences. Les critères, en tant que forme conceptuelle élaborée, articulent donc les autres

éléments de la matrice disciplinaire, en fonction de l’objet d’étude, des pratiques instituées et

des modèles dominants au sein du groupe de scientifiques.

e) L’auteur nous propose enfin, dans le même groupe d’éléments, les valeurs sociétales :

« Il existe également d’autres genre de valeurs – par exemple, la science devrait-elle ou ne devait elle pas avoir une utilité sociale » (1969 : 252).

Ces valeurs interrogent les représentations sociales que les chercheurs ont de leur rôle. Elles

orientent les efforts de la communauté scientifique, souvent de façon implicite. La

docimologie, par exemple, a émergé pour répondre aux préoccupations sociétales de l’école

républicaine, au moment où celle-ci s’est démocratisée. Le but n’était pas de justifier les

écarts de notation, mais bien de les réduire dans l’esprit égalitaire de cette institution. Les

travaux plus récents (Caverni et Noizet, J. J. Bonniol) ont donc surtout centré leur étude sur

les phénomènes qui génèrent ces écarts de notation. Les mêmes valeurs ont présidé à

l’émergence des taxonomies, mais dans une logique beaucoup plus fonctionnaliste (Bloom,

1956). Ces valeurs s’inscrivent dans un ensemble de représentations sociales de la profession :

celles des physiciens, en interaction avec les progrès technologiques, sont sensiblement

différentes de celles des sciences médicales, orientées vers la santé de patients, ou des

sciences de l’éducation ; même si, par ailleurs, elles sont souvent des points communs.

Page 51: UN REFERENTIEL, POUR QUOI FAIRE

51

Ces différences, souvent implicites, ne sont-elles pas un frein à l’interdisciplinarité ? C’est à

l’ensemble de ces réflexions sur les vertus de la science, en tant que telle, qu’on réservera le

terme de « valeur », ainsi que celui de « métaphysique », au sens où l’entendait E. Kant. Dans

une recherche sur l’évaluation, la réflexion métaphysique n’est pas superflue. Des recherches

qui seraient perçues contraires à l’esprit républicain seraient certainement rejetées, aussi bien

par les professionnels que par les chercheurs. Mais ces réactions ne risquent-elles pas aussi de

constituer des obstacles épistémologiques (au sens de G. Bachelard) qui viseraient à masquer

l’élitisme républicain à l’origine de nos modes de sélection scolaires (C. Lelièvre ; 1990) : le

chercheur doit-il être éthiquement en accord avec les représentations sociales de l’évaluation

qu’il étudie ? N’est-on pas en train de confondre les « valeurs » et l’objet de recherche ? Et le

chercheur lui-même ne fait-il pas les frais de ces conceptions élitistes, lorsqu’elles renforcent

la résistance à la progression des connaissances sur le sujet ?

Pour conclure, on différenciera donc

• la partie métaphysique des paradigmes, qui interroge les valeurs et renvoie vers des

questions éthiques : elle n’en est pas moins importante au niveau des orientations

épistémologiques dans la mesure où elle détermine souvent le type de recherches qui

seront mises en œuvre

• la matrice disciplinaire avec

� ses modalités d’expérience et d’observation (MEO)

� ses relations formelles entre concepts (RFC)

� ses modélisations cognitives et prévisionnelles / modes de croyances et de prédictions

(MCP)

� ses critères de validité (CV)

La métaphysique est réflexive (voire « réflexivité » au sens de P. Bourdieu), alors que la

matrice est observable. Dans une étude qui fait appel à plusieurs disciplines scientifiques,

l’analyse des matrices est souhaitable pour les articuler et les adapter aux objets d’étude. La

réflexion métaphysique est précieuse pour dépasser les obstacles épistémologiques qui

surgissent nombreux lorsqu’on quitte les sentiers balisés des disciplines institués.

Page 52: UN REFERENTIEL, POUR QUOI FAIRE

52

2) Théorie du « système général » :

J.L. Le Moigne, à travers ses différentes modélisations, a approfondi cette réflexion

sur les « paradigmes ». Dans son premier ouvrage Théorie du Système Général (1977), il

analyse l’évolution des différents paradigmes qui ont progressivement conduit à la formation

du paradigme systémique : d’abord celui de la mécanique classique, qui met en relation la

fonction et la structure ; puis celui de la mécanique statique (thermodynamique), qui introduit

la notion d’évolution dans l’étude de la structure ; le paradigme structuraliste, qui résulte pour

cet auteur de l’intégration des deux paradigmes précédents, la structure est à la fois

fonctionnelle et en évolution ; le paradigme cybernétique, qui introduit la notion d’interface

entre un projet conçu et un environnement perçu ; enfin le paradigme systémique, qui

réintroduit la structure, sa fonctionnalité et son évolution, mais en prenant aussi en compte les

finalités et l’environnement du système. Cette chronologie des paradigmes du XXème siècle, et

fin du XIXème, permet de mieux cerner les apports de chaque révolution scientifique : si la

mécanique classique introduit l’étude de la fonctionnalité des éléments d’un objet et la

thermodynamique y inclut la notion de temporalité, c’est avec le structuralisme (qui

s’organise autour d’auteurs comme De Saussure et Levy-Strauss par exemple) que ces

éléments et ces fonctions s’insèrent dans un ensemble plus vaste qui évolue avec le temps :

De Saussure introduit la notion de « système ». Avec la cybernétique, émergent l’analyse de

l’adaptation du système à son environnement et l’étude de ses finalités. Cette conception offre

alors une compréhension plus globale de la gestion des flux et des informations : régulation,

boucles de rétroaction, servocommande, etc. Le paradigme systémique, allie l’étude globale

de la structure avec ses fonctions d’adaptation et ce fonctionnement finalisé. En schématisant

de la sorte les paradigmes, J. L. Le Moigne nous oriente vers les différents aspects à prendre

en considération lors de l’étude d’un système :

• analyse fonctionnelle de la structure,

• intégration de la finalité des acteurs,

• ouverte du système sur son environnement, etc.

De par ses options de recherche, cet auteur adopte un point de vue différent de celui de L.

Von Bertalanffy, dont il critique la définition du « système » :

« On montrerait sans peine que cette définition analytique et ensembliste a fourvoyé bien des chercheurs qui ne perçurent pas le passage qu’elle autorisait avec d’autres définitions, au moins aussi fécondes » (1977 : 61).

Page 53: UN REFERENTIEL, POUR QUOI FAIRE

53

Il propose une approche plus globale de la notion de « système », après avoir défini son

« intention, celle de la recherche des méthodes pour bien conduire sa raison et donc pour

représenter honnêtement le monde connaissable » (1977 : 61). L’objectif de J. L. Le Moigne

est de découvrir les modalités cognitives de la pensée scientifique, et non de nous proposer un

nouveau modèle à suivre pour aborder l’étude d’un système. Une telle conception

« décisionnelle » du modèle de cet auteur ne nous conduirait-elle pas vers les mêmes écueils

que ceux qu’il critique dans les propositions de Von Bertalanffy ? La théorie de J. L. Le

Moigne ne se réduit pas à brosser des pistes, elle clarifie aussi les oppositions de méthodes

entre les approches systémique et analytique. Il propose ainsi quatre préceptes à opposer au

discours de la méthode de Descartes.

Préceptes du « discours de la méthode »

de Descartes

Préceptes de la systémique

« Le premier était (...) d’éviter soigneusement la précipitation et la prévention, et de ne comprendre rien de plus en mes jugements que ce qui se présenterait si clairement et distinctement que je n’eusse aucune occasion de le mettre en doute. « Le second de diviser chacune des difficultés en autant de parcelles qu’il se pourrait et qu’il serait requis pour mieux les résoudre. « Le troisième de conduire par ordre mes pensées en commençant par le objets les plus simples et les plus aisés à connaître pour monter peu à peu comme par degré jusque à la connaissance des plus composés (...) « Et le dernier est de faire partout des dénombrements si entiers et des revues si générales que je fusse assuré de ne rien omettre. »

« Le précepte de pertinence : convenir que tout objet que nous considérerons se définit par rapport aux intentions implicites ou explicites du modélisateur (…) « Le précepte du globalisme : (…) percevoir d’abord (l’objet) globalement, dans sa relation fonctionnelle avec son environnement sans se soucier outre mesure d’établir une image fidèle de sa structure interne. (…) « Le précepte téléologique : interpréter l’objet non pas en lui même (…) Comprendre en revanche son comportement et les ressources qu’il mobilise par rapport aux projets que, librement, le modélisateur attribue à l’objet. (…) « Le précepte de l’agrégativité : convenir que toute représentation est partisane (…) et exclure l’illusoire objectivité d’un recensement exhaustif des éléments à considérer » (1977 : 43)

Page 54: UN REFERENTIEL, POUR QUOI FAIRE

54

On n’adhèrera que modérément à la radicalité des propositions de J. L. Le Moigne, qui

pourrait réintroduire la subjectivité - et surtout autoriser l’arbitraire – du chercheur. Sa

contribution, cependant, enrichit la réflexion propédeutique, dans la mesure où elle interroge

cette subjectivité. Le choix de l’objet de recherche n’est jamais neutre. Mais le critère de

« pertinence » ne se définit pas seulement par rapport aux « intentions implicites et explicites

du modélisateur », il fait partie d’un questionnement sur les valeurs sociétales de la

recherche : par exemple, le parti-pris défini au début de cette thèse, répondre aux

préoccupations des professionnels de l’éducation. Bien plus que de simples choix, c’est un

« positionnement » qu’il convient ici de définir, dont on retrouve un exemple dans la

discussion plus haut sur la définition de l’objet « Référentialisation ». La remarque est

similaire en ce qui concerne le « précepte téléologique », dans la mesure où la finalité d’un

système social soumis à l’étude (ici, les systèmes d’évaluation) n’est pas déterminée par le

modélisateur, mais par un ensemble d’acteurs sociaux dont il s’agit de découvrir l’

« Inconscient collectif », pour reprendre une expression de C. Castoriadis. Certes le

modélisateur a une représentation de cette finalité ; celle ci s’insère dans les jeux de

représentations sociales des milieux sociaux qu’il fréquente. Mais la recherche des principes

téléologiques du système conduit à interroger ces représentations, et non à postuler que ce

sont les finalités du système. Il s’agit bien plus, dans ce cas, d’un « positionnement » du

chercheur par rapport aux acteurs de terrain et aux objets de recherche, que d’opter librement

sur les finalités pour lesquelles on étudie un système. Le « précepte du globalisme » ne se

réduit pas, non plus, à des schémas généraux pour approcher l’étude d’un système. Là encore,

il s’agit d’une approche progressive pour entrer dans une connaissance de plus en plus précise

des objets de l’étude, de leur structure, de leur fonctionnement, de leur adaptation à

l’environnement, etc. Le point de vue global qui est choisi à l’origine n’est pas arbitraire, il

est fonction des réflexions induites par les autres préceptes.

Quant au « précepte de l’agrégativité », il ne consiste pas seulement à agréger des

données et des connaissances sur un système pour définir son fonctionnement, encore faut-il

que les données rassemblées lors de cette agrégation soient pertinentes par rapport à l’objectif

de la recherche et nous instruisent sur la finalité du système. Les modélisations de cet auteur

ont donc plus, pour vocation, d’interroger nos fonctionnements cognitifs, nos représentations

des objets et nos pratiques de recherche, que d’élaborer un plan des différentes étapes de

l’étude d’un système. Ses recherches ultérieures le conduiront vers une étude approfondie des

« épistémologies constructivistes » (1995), qui enrichit cette orientation. L’auteur y étudie les

fondements épistémiques (conceptions de l’objet et méthodes) des paradigmes scientifiques.

Page 55: UN REFERENTIEL, POUR QUOI FAIRE

55

3) Paradigmes, conceptions de l’objet et méthodes pour l’étudier :

3-1) L’étude des paradigmes :

Dans ces derniers travaux de J. L. Le Moigne (1995), le « paradigme » est conçu

comme un « produit cartésien » entre une conception de l’objet (selon la terminologie de

l’auteur, « une hypothèse gnoséologique ») et une conception de la méthode (« principe

méthodologique »). A partir d’une étude conséquente de la bibliographie philosophique et

scientifique, l’auteur fait émerger quelques « hypothèses gnoséologiques » et « principes

méthodologiques » qui fondent les « paradigmes positivistes » d’une part, et les « paradigmes

constructivistes » d’autre part. La méthode analytique et sommative caractérise les premiers,

l’approche systémique et globale les seconds. Sur les divergences méthodologiques - elles ont

été largement évoquées dans les paragraphes précédents - la première dissèque l’objet pour

étudier de façon plus précise chaque partie et comprendre ainsi le fonctionnement de

l’ensemble, la seconde envisage une approche globale de l’objet, qui prenne en compte ses

finalités, son environnement et la fonction de ses éléments / de sa structure par rapport à ces

finalités et à cet environnement : la découverte de l’objet se précise ainsi au fur et à mesure.

Les hypothèses gnoséologiques méritent un peu plus d’attention. Elles concernent la

conception que le chercheur a de l’objet, qui influenceront aussi bien ses méthodes

d’investigation que son positionnement par rapport au champ de la recherche. J. L. Le Moigne

discerne deux hypothèses principales pour chaque type de paradigmes.

Pour les paradigmes positivistes :

• L’hypothèse ontologique : « il existe une réalité (...) qui présente quelque forme de

permanence (...) indépendante des observateurs qui la décrivent (...) potentiellement

connaissable » (1995 : 21 et 22).

• L’hypothèse déterministe, sa complémentaire : « recherche des lois causales qui

gouvernent la réalité (...) ce n’est pas parce que ces lois ne peuvent être établies et donc

connues du fait de l’incomplétude de nos instruments de mesure que ces lois n’existent

pas » (1995 : 71).

Pour les paradigmes constructivistes :

• L’hypothèse phénoménologique : « on ne peut pas séparer la connaissance de l’objet de

l’intelligence (ou de la cognition) qui la produit, et il nous faut entendre la connaissance

par le processus qui la forme autant que comme le résultat de ce processus de formation

(...) Le sujet ne connaît pas de « chose en soi » (hypothèse ontologique), mais il connaît

l’acte par lequel il perçoit l’interaction entre les choses » (1995 : 74 et 76).

Page 56: UN REFERENTIEL, POUR QUOI FAIRE

56

• L’hypothèse téléologique qui prend « en compte l’intentionnalité ou la finalité du sujet

connaissant » ou aussi, qui prend « acte du caractère intentionnel et donc finalisé et

finalisant de l’acte cognitif » (1995 : 78).

Poussé par le besoin de justifier son parti-pris vis-à-vis des « épistémologies institutionnelles

contemporaines » (1995 : 70), J. L. Le Moigne fait des concessions à la méthode analytique, à

la fois sur la forme puisqu’il analyse le paradigme scientifique (« produit cartésien » d’une

« hypothèse gnoséologique » et d’une « méthode »), et par le contenu, lorsqu’il reconnaît la

pertinence des « deux familles d’hypothèses gnoséologiques » (1995 : 119) et qu’il argumente

la pertinence des paradigmes constructivistes à partir des hypothèses du positivisme. Il n’en

défend pas moins ses convictions constructivistes : les schématisations qu’il utilise (1995 :

102, 116 et 119) illustrent son approche méthodologique globale ; par ailleurs, il englobe les

« hypothèses gnoséologiques du positivisme » dans sa conception constructiviste :

« Les hypothèses fondatrices du paradigme constructiviste peuvent d’ailleurs être présentées comme englobant celle des positivismes, qui serait alors défini par leurs valeurs limites : l’hypothèse ontologique serait alors celle retenue par un sujet connaissant tenant pour indépendant de son expérience cognitive les phénomènes qu’il perçoit ; et l’hypothèse déterministe postulerait que l’unique finalité du phénomène considéré est celle d’une obéissance absolue à la loi causale exogène qui le détermine » (1995 : 106 et 107).

Je ne suivrai pas, ici non plus, J. L. Le Moigne sur cette piste, mais la question mérite d’être

posée : nos représentations du rationalisme et du positivisme ne sont-elles pas aussi soumises

à l’évolution ? Les conceptions ontologiques et positivistes sont-elles identiques, de nos jours,

à celles de l’époque d’A. Comte ? Nous aurons l’occasion de revenir sur cette question à la fin

de ce paragraphe. Le sujet ici n’est pas de savoir quelle est la meilleure méthode (les choix

sont souvent liés au contexte de la recherche et aux objets de l’étude), mais de saisir en quoi

l’émergence de nouveaux paradigmes a modelé nos formes de pensée contemporaines et, de

ce fait, en quoi l’analyse de ces paradigmes oriente la recherche en cours ? C’est dans cette

logique d’une approche systémique de nos modes de raisonnement scientifique qu’on utilisera

ici sa « lecture paradigmatologique » sur l’émergence des épistémologies :

« Emergence que l’on peut illustrer aussi en représentant matriciellement la formation du paradigme constructiviste (...), matrice qui (...) va nous présenter une lecture « paradigmatologique » (E. Morin) (...). En tenant pour plausibles et culturellement acceptables aujourd’hui les deux familles d’hypothèses gnoséologiques (...) et les deux groupes de principes méthodologiques (...) on peut proposer une présentation de ces paradigmes épistémologiques par une matrice croisant hypothèses gnoséologiques et principes méthodologiques : chaque case de cette matrice caractérisant un paradigme épistémologique concevable :

Page 57: UN REFERENTIEL, POUR QUOI FAIRE

57

Principes méthodologiques Modélisation analytique

Raison suffisante Modélisation systémique Action intelligente

Hypothèses Ontologique Déterministe

I - Paradigmes des épistémologies positivistes et réalistes classiques

III

Gnoséologiques Phénoménologique Téléologique

II IV -Paradigmes des épistémologies constructivistes

Les deux cases I et IV de cette matrice permettent de rendre compte des deux grands paradigmes épistémologiques que reconnaissent depuis longtemps, sans toujours leur accorder le même statut institutionnel, les sociocultures dans lesquelles ils s’expriment, le paradigme des épistémologies positiviste et réaliste et le paradigme des épistémologies constructivistes. Les cases intermédiaires II et III suggèrent alors de nouvelles investigations et de nouvelles hypothèses sur les processus de morphogenèse des paradigmes épistémologiques » (1995 : 119 et 120).

La porte ouverte par J. L. Le Moigne nous interroge - au delà des voies tracées par ses

analyses sur les épistémologies constructivistes et positivistes – sur la reconnaissance de deux

autres paradigmes scientifiques, une épistémologie qui serait « phénoménologique » et

« analytique » ; et une épistémologie qui serait « ontologique / déterministe » et

« systémique ». L’objectif, à ce stade de la réflexion, n’est pas d’approfondir la recherche sur

l’histoire des sciences de ces deux derniers siècles, mais seulement d’aborder quelques

repères pour définir les quatre axes qui ont permis l’articulation de ces travaux.

En reliant les différents paradigmes, en analysant respectivement les « conceptions de

l’objet » et les « méthodes » qu’ils ont en commun, on parvient à créer du sens entre ces

différents modes d’investigation et à construire ainsi une connaissance plus complète des

phénomènes observés. (Par exemple, les paradigmes I et II pour la « méthode analytique » ou

II et IV pour la « conception phénoménologique »).

3-2) L’épistémologie « phénoménologique » et « analytique » :

Si nous acceptons la position épistémique de J. L. Le Moigne, à savoir que la

conception phénoménologique a introduit la rupture avec le positivisme, il est logique de

rechercher dans la phénoménologie d’E. Husserl les fondements de cette rupture. Mais, là

encore, il ne s’agit pas tant d’étudier cette philosophie complexe que de comprendre l’origine

de cette rupture, et surtout les objets et les concepts privilégiés par cette approche21. D’après

R. Schérer, la phénoménologie de la fin du XIXème siècle n’obéit pas à des besoins spéculatifs.

21 Le seul intérêt de la discussion, ici, est d’analyser les « conceptions de l’objet ».

Page 58: UN REFERENTIEL, POUR QUOI FAIRE

58

« Au contraire, à une intention nettement antispéculative, elle est le pendant du positivisme dans les sciences de la nature. Son origine se trouve dans l’orientation que donne Franz Brentano (1838-1917) à la psychologie. Un point de vue radicalement empirique oppose, à la recherche « génétique » des relations causales, la « description » des phénomènes psychiques (...) La psychologie empirique de Brentano ouvre la voie à des investigations concernant la description du champ phénoménal. Une « phénoménologie » désignera l’exploration de ce champ. Carl Stumpf (1948-1936) utilise le mot phénoménologie pour l’analyse et la description du contenu immédiatement donné dans les orientations intentionnelles. Les sons, les couleurs sont traités en tant que « phénomènes » indépendamment des causes physiques et physiologiques » (R. Schérer ; in La Philosophie T. 3, sous la direction de F. Châtelet, 1973).

Ainsi la phénoménologie s’affirme comme courant philosophique, en même temps que la

psychologie se construit comme science. A cette époque, S. Freud révolutionne cette dernière

avec la « psychanalyse », qui construit son étude des phénomènes inconscients du psychisme

à partir du matériel fourni par les rêves et la parole de ses patients. On n’entrera pas ici dans

l’analyse des méthodes de la psychanalyse pour faire émerger l’inconscient à la conscience, ni

des processus sollicités : rêves, phantasmes, associations, etc. Il est surtout intéressant de

constater que la réalité phénoménale n’est plus prospectée par une observation exogène de

l’objet, comme dans le positivisme traditionnel des sciences physiques, mais par une réflexion

sur les processus à l’œuvre au fond de chacun de nous. Mais la conception psychologique de

la phénoménologie est bien différente de celle du fondateur de la psychanalyse22. Il s’agit de

prendre en compte l’intentionnalité dans la recherche de l’objectivité et la construction de nos

connaissances (1925/2001 : 35-44 et 1907/1998 : 169). La subjectivité n’est pas prise en

compte par la physis : le physicien « met hors circuit » « tous les modes subjectifs »

(1925/2001 : 139). Pourtant elle existe dans le « domaine de la conscience des animaux et des

hommes » ou en tant qu’« apparition » pour le chercheur. Le but du philosophe est de

neutraliser cette subjectivité. Par une variation des idées, qui ne part pas de l’expérience mais

d’actions intentionnelles réflexives (visions) sur le monde des objets (1925/2001 : 79-81), il

recherche la « saisie du congruent en tant qu’éidos » (idem : 75), la « vision de essences »,

« l’eidos comme invariant » : « mise en évidence de la suite hiérarchisée des genres et

obtention des genres les plus élevés ». Cette méthode nous est présentée par A. Mucchielli :

« Si l’on fait varier par imagination les caractéristiques du phénomène étudié, on constate que certaines variations ne l’affectent pas fondamentalement, mais que certaines variations par contre lui enlèvent sa possibilité d’existence. L’essence de l’objet est donc constitué par l’invariant, ce qui demeure identique à travers les variations, « l’essence est seulement ce en quoi la « chose même » m’est révélée par une donation originaire ». (...) Le second principe de la méthode phénoménologique pourrait donc s’énoncer ainsi : pour atteindre l’essence des phénomènes, on doit utiliser la méthode des variations et cette essence nous est révélée par une sorte d’intuition » (1983 : 18).

22 Plus proche serait certainement la conception de G. Bachelard et de sa psychanalyse de la raison.

Page 59: UN REFERENTIEL, POUR QUOI FAIRE

59

En d’autres termes, en interrogeant les phénomènes à travers son imaginaire, l’individu

découvre aussi les invariants dans sa façon d’appréhender les choses. Le philosophe rétablit

ainsi la place de l’intentionnalité et se démarque du positivisme. Les concepts de

« phénomène », de « psychologie » et de « représentation » existaient déjà dans l’œuvre d’E.

Kant. Mais le philosophe s’était bien gardé d’entrer dans une analyse rationnelle de la psyché.

« Donc le mot moi, en tant qu’être pensant, indique déjà l’objet de la psychologie, qui peut être appelé science rationnelle de l’âme lorsque je ne veux savoir rien de plus de l’âme que ce qui peut être conclu de ce concept moi, en tant qu’il se présente dans toute pensée, et indépendamment de toute expérience (...) on fait totalement abstraction de ses qualités, quand on le désigne uniquement par l’expression complètement vide du contenu : moi (expression que je puis appliquer à tout sujet pensant) (...) c’est déjà un grand point de gagné que de pouvoir, en avouant librement ma propre ignorance, repousser enfin les attaques dogmatiques d’un adversaire spéculatif et que de lui montrer qu’il ne saurait jamais avoir de la nature de mon sujet, pour contester la possibilité de mes espérances, une connaissance meilleure que celle que j’ai moi même pour m’y attacher fortement » (1781/1974).

La rupture de la phénoménologie est d’avoir dépassé ces contradictions en analysant le sujet

lui-même, en position de vivre les situations et de réfléchir sur ses façons de les appréhender :

« il s’agit d’élucider de quelle façon la conscience vient pour ainsi dire s’insérer dans le

monde réel » (E. Husserl, 1913 / 1950 : 179). A travers la notion de « vécu », E. Husserl

réintroduit ainsi la possibilité, pour le sujet, d’acquérir de la connaissance sur lui-même : « le

type d’être du vécu veut qu’il soit perceptible par principe sous le mode de la réflexion »

(idem : 147). Husserl propose ainsi d’étudier les processus de la conscience, « tous les

processus qui se déroulent dans le flux du vécu ». Cette notion de vécu introduit

« l’intentionnalité » du sujet dans les processus de découverte du monde objectif. Par là

même, la phénoménologie fait une place importante à la notion de « fonction » pour

construire sa compréhension de l’univers.

« Le point de vue de la fonction est le point de vue central de la phénoménologie (…) Au lieu de se borner à l’analyse et à la comparaison, à la description et à la classification attachées aux vécus pris isolément, on considère les vécus isolés du point de vue « téléologique » de leur fonction qui est de rendre une unité synthétique. On considère des divers de conscience qui sont pour ainsi dire prescrits dans les vécus eux-mêmes, dans leur donation de sens » (idem : 295, 296).

Ainsi les observations phénoménales ne sont pas isolées, décomposées puis recomposées

(synthétiquement), elles sont perçues au fur et à mesure de la découverte des phénomènes, en

rapport avec leur fonctionnalité ; chaque observation prend du sens parce qu’elle est

positionnée fonctionnellement par rapport l’objet, du moins à la fonction que celui-ci a pour

le « moi ». L’approche phénoménologique ne saurait donc se réduire à une approche globale

de l’objet, l’analyse de la fonction des éléments observés interroge simultanément le « moi »,

c'est-à-dire les processus mis en œuvre par le sujet pensant (cogito) pour découvrir son objet.

Page 60: UN REFERENTIEL, POUR QUOI FAIRE

60

Ces processus deviennent eux-mêmes objets de connaissance phénoménologique.

L’imaginaire n’est plus sujet à suspicion, comme dans la pensée cartésienne attachée à

l’observation des faits, mais il est support à l’introspection. Les phénomènes imaginaires – au

sens large qui intègre toutes les formes d’images et de sons, y compris les souvenirs, portraits,

schémas, phantasmes, rêves, paroles et musiques intérieures, etc. – sont neutralisés pour être

analysés. Mais cela conduit à une articulation complexe entre ces analyses d’une part, et

l’appréhension globale et intuitive des phénomènes d’autre part. Le philosophe s’est ainsi

attaché à mettre en valeur l’imbrication de ces phénomènes avec les vécus intentionnels du

« moi » qui deviennent déterminants dans l’aperception de la réalité phénoménale. Il poursuit

son analyse par la différenciation de « structures noético-noématiques » ou « doxiques ». La

« doxa » est l’articulation entre « noème » et « noèse », dont l’explication semble

fondamentale pour comprendre la complexité des phénomènes de « conscience ».

« D’un côté, nous avons donc à distinguer les parties et les moments que nous obtenons par une analyse réelle du vécu : par là, nous traitons le vécu comme s’il était un objet au même titre que n’importe quel autre objet, nous interrogeant sur les éléments ou les moments dépendant qui l’édifient réellement. » (Idem ; 304). Ce sont les « moments noétiques », grâce auxquels tout « vécu intentionnel (…) est précisément un vécu noétique ». « Mais de l’autre côté, le vécu intentionnel est conscience de quelque chose ; il est tel en vertu de son essence, par exemple, en tant que souvenir, que jugement, que volonté » (Idem ; 304) Ce sont ces moments perçus plus globalement, « dans une intuition véritablement pure ; ils forment un « statut noématique » corrélatif, ou plus brièvement le « noème » (Idem ; 305). « Le corrélat noématique, c'est-à-dire le « sens » (en donnant à ce mot une signification très élargie) doit être pris exactement tel qu’il réside à titre immanent, dans le vécu de la perception du jugement, du plaisir, etc. c'est-à-dire tel qu’il nous est offert par ce vécu quand nous interrogeons ce vécu lui-même » (Idem : 306).

C’est en abordant la démarche scientifique globale que nous pouvons en comprendre l’enjeu

de cette articulation. Dans son Introduction à la logique et à la théorie de la connaissance, E.

Husserl (1907/1998) présente et approfondit l’étude des différentes disciplines, les sciences

empiriques et les sciences aprioriques. Ces dernières sont celles qui apportent leur

contribution pour fonder les approches méthodologiques : les mathématiques, bien entendu,

mais aussi une science des significations pour étudier la forme des propositions, une ontologie

logico-formelle qui s’intéresse aux aprioris concernant les objets en général23. La noétique

apparaît alors comme une de ces sciences qui « explore l’un après l’autre les actes de

connaissance » (1907/1998 : 180). Dès lors et en raison de cette atomisation des diverses

approches scientifiques, aprioriques ou empiriques, la noèse (produit de l’activité noétique) se

traduit et se caractérise par une atomisation des connaissances, sur soi et sur l’univers.

23 Il y joint aussi la métaphysique apriorique, mais les questions métaphysiques, qui correspondent à la réflexion philosophique de l’époque moderne, ont perdu, à mon avis, de leur actualité au fur et à mesure du développement des sciences contemporaines.

Page 61: UN REFERENTIEL, POUR QUOI FAIRE

61

Le noème rétablit alors cette unité globale dans une aperception intuitive et spontanée. Avec

toute la prudence qu’il convient lorsqu’on fait appel à certaines analogies, une comparaison

avec les pratiques cinématographiques offre un terrain de comparaison et une vision globale

de ces phénomènes. Le spectateur vit les objets mis en scène par l’image cinématographique

de façon noématique, à travers les différentes sensations, perceptions, sentiments qu’elle

produit et qu’elle éveille ; en revanche, les cinéastes (au sens des multiples métiers sollicités

par la production cinématographique) l’appréhendent à travers les lois empiriques qui

régissent les effets de sens produits par l’image, et certaines règles aprioriques qui permettent

de la construire dans toute sa complexité (contraste, luminosité, densité, sons graves, aigus,

rythmique, plans, etc.). Bien entendu la réalité n’est pas si tranchée : les cinéastes ont besoin

de faire appel à leur aperception pour produire ce qu’ils souhaitent exprimer à travers la

construction de leurs images : l’art cinématographique n’est pas une simple accumulation de

connaissances techniques, il fait appel à l’intuition. Inversement, le spectateur avisé, d’autant

plus s’il a une connaissance des techniques cinématographiques, appréciera les effets de sens

produits par certaines caractéristiques noétiques des images. Si cet exemple peut apparaître

réducteur par rapport à la multitude des phénomènes signifiés par les concepts de « noème »

et de noèse », il n’en est pas, pour autant, infondé. Au moment où les thèses

phénoménologiques se construisent et s’imposent dans la sphère philosophique, le cinéma fait

ses premières apparitions. Par ailleurs E. Husserl s’appuie sur l’analyse de ses impressions

face à des peintures pour développer son argumentaire. La phénoménologie traduit l’évolution

de la pensée sociale d’une époque, induite en grande partie par les révolutions technologiques

qui se multiplient et par les progrès des sciences.

La phénoménologie réintroduit l’espace représentationnel dans l’aperception du

monde objectif. La découverte d’un objet interroge, de façon réflexive, les modes de

représentations (regards, positions, images, etc.) privilégiés pour l’appréhender. L’objet n’est

plus pensé indépendamment du sujet qui le découvre et l’objective, ainsi que du point de vue

qu’il adopte. Il s’établit ainsi une dialectique permanente entre les vécus représentationnels et

les différentes conceptions que nous pouvons avoir d’un objet, en fonction des regards que

nous portons sur lui et des positions que nous prenons pour le découvrir. L’essence de l’objet

ne réside plus, comme chez E. Kant, dans un hypothétique « en soi » (ou noumène),

intrinsèque à l’objet, mais dans la construction conceptuelle de l’objet qui embrasse la logique

des propositions, celles du champ objectif et des différents schémas qui le représentent, et la

logique formelle des mathématiques.

Page 62: UN REFERENTIEL, POUR QUOI FAIRE

62

« Il n’est pas douteux que les essences sont des « concepts » - si par concept on entend précisément l’essence, comme l’autorise la multitude des sens du mot » (E. Husserl ; 1913 / 1950 : 179 ; 74). « Il n’est pas douteux que la construction des concepts est au même titre que les libres fictions, une opération spontanée et que tout ce qui est produit spontanément est de toute évidence un produit de l’esprit » (Idem : 76).

Le « concept » chez E. Husserl est pris dans une acception plus large que celle de F. De

Saussure, qui a réduit son espace de recherche. On n’a présenté ici qu’une partie des travaux

du philosophe pour approfondir certains phénomènes adaptés à nos problématiques. Il

apparaît effectivement difficile d’en faire une synthèse complète dans un espace si restreint.

Toute interprétation d’une pensée aussi riche est donc nécessairement réductrice, mais n’est-il

pas intéressant, par le cumul d’approches parcellaires, d’approfondir les réflexions amorcées

par ce grand philosophe, et de faire progresser ainsi notre compréhension des phénomènes de

la conscience ? Chaque recherche ajoute sa pierre à l’édifice pour clarifier cette nouvelle

conception de l’essence phénoménologique du monde objectif.

Bien entendu les phénomènes mis en valeur par cette philosophie ne sont pas de la

même essence que ceux des sciences de la nature. Pour ces dernières, l’essence est la nature

de l’être (d’où le terme de « paradigme ontologique » pour caractériser cette épistémologie),

alors que pour la phénoménologie, elle est dans le « sens ». Ainsi l’une ouvre la voie de la

recherche à la psychologie, et plus généralement aux sciences humaines et sociales, alors que

les autres sont plus centrées sur l’exploration de notre environnement matériel, physique et

biologique. Mais les choses ne sont pas si tranchées. Dans la première moitié du XXème siècle,

la « relativité » d’A. Einstein révolutionne la pensée physique et la « psychanalyse de la

raison » de G. Bachelard, le monde des sciences. Ce paradigme épistémologique est donc le

reflet d’une époque. Dans l’immédiat, on le définira sous le terme de « dialectique /

phénoménologique » (psychanalyse, socianalyse, analyse institutionnelle, analyse

phénoménologique et structurale, etc.). Analysons maintenant les relations entre ce nouveau

paradigme II (phénoménologique / analytique) et le IV (constructiviste) : rechercher ce qu’il y

a de commun (la conception de l’objet) et ce qu’il y a de différent (la méthode) est un moyen

de construire du sens, d’analyser l’évolution et de distinguer la pertinence des paradigmes en

fonction des situations.

Page 63: UN REFERENTIEL, POUR QUOI FAIRE

63

3-3) Les évolutions induites par l’épistémologie « constructiviste » :

En s’opposant à une psychologie rationnelle, E . Kant souhaitait s’ancrer, pour étudier

les facultés de notre raison, sur notre expérience des objets, qui se construit à partir de

perceptions ou de sensations. Mais ces dernières n’accéderaient pas à l’intelligibilité sans les

« catégories de l’entendement », qui existent a priori dans nos modes de pensées. Dans la

« Critique de la Raison Pure », il définit ces « catégories de l’entendement » : elles sont des

concepts a priori de la pensée rationnelle à appliquer aux objets de la sensibilité, à partir de

nos intuitions : elles constituent des règles pour construire le concept de l’objet.

« C’est au moyen de la sensibilité que des objets nous sont donnés, seule elle nous fournit des intuitions ; mais c’est l’entendement qui pense ces objets et c’est de lui que naissent les concepts (...) Aucune de ces deux propriétés n’est préférable à l’autre. Sans la sensibilité, nul objet ne nous serait donné et sans l’entendement, nul ne serait pensé. Des pensées sans contenu sont vides, des intuitions sans concepts, aveugles » (1790 : 55, 56).

Le philosophe ne différenciait pas les aspects culturels et ontologiques de ces catégories.

L’essentiel était, pour lui, la recherche de l’unique vérité qui émanait de Dieu. Mais les

travaux de J. Piaget ont bouleversé cette conception en démontrant que les structures de la

pensée humaine se forment à partir de l’activité sensori-motrice du jeune humain qui s’adapte

à son environnement par tâtonnements du type essais / erreurs (schéma assimilation /

accommodation). Cet auteur étudie ainsi la formation ontogénétique des principes de

conservation (quantité, longueur, surface, ensemble) et de certaines opérations concrètes

(sériation, classification, numération). Notons que les schèmes de l’intelligence ne sont pas

les seuls processus qui induisent nos structures de raisonnement. Ces dernières ont aussi une

histoire, elles ont été élaborées puis transmises de génération en génération. Il existe donc au

moins deux types de catégories, celles inhérentes à la constitution psychique de l’être humain

(les schèmes de l’intelligence) et celles instituées par notre culture (au niveau de la culture

scientifique, ce sont les paradigmes). Il existe certainement des homologies de structure entre

les unes et les autres, dans la mesure où un patrimoine culturel ne peut se transmettre que si

les formes de l’intelligence humaine sont réceptives24, mais ce n’est pas ici le propos.

La découverte scientifique est un processus complexe de communication et

d’expérimentation. Les cadres culturels des disciplines scientifiques sont communiqués aux

jeunes chercheurs qui les expérimentent, à partir de leurs propres compétences à concevoir le

monde. Ils les adaptent, les ajustent, les critiquent. Un long processus de sélection s’opère

donc pour conserver les opérations et procédures les plus adaptées à la découverte des objets.

Page 64: UN REFERENTIEL, POUR QUOI FAIRE

64

Les méthodologies les plus adéquates subsistent alors et sont transmises aux générations

suivantes. Les paradigmes scientifiques ne sont donc pas établis une fois pour toutes, ils

évoluent au fur et à mesure de la recherche. La grande entreprise d’E. Kant, pour fixer une

fois pour toutes les « catégories de l’entendement », a été précieuse pour l’avènement de la

pensée scientifique contemporaine, mais elle n’est plus d’actualité. Bien au contraire même,

ces catégories pourraient constituer un obstacle épistémologique si elles étaient maintenues de

façon dogmatique. Une révolution scientifique s’est donc opérée à partir du moment où la

recherche scientifique a suffisamment progressé pour requérir les fondements de nos

raisonnements dans la nature et la culture humaines, sans faire appel à une réalité

transcendante (ou « transcendantale »).

• La psychologie génétique (J. Piaget, H. Wallon) a étudié la formation des schèmes de

notre pensée, dès les premiers jours de la vie, mais aussi la formation des images mentales

(J. Piaget, ) et des structures formelles de notre intelligence.

• La linguistique a défini une nouvelle approche du concept (F. De Saussure) et étudié la

structure hiérarchisée et déterminée des langues (Hjelmslev, E. Benveniste, A. Martinet,

N. Chomsky) et, par la même, introduit des discussions quant à l’influence de cette

structure langagière sur nos modes de pensée (Sapir, Whorf).

• L’anthropologie (B. Malinowski, G. Mead, Lévi-Strauss) a innové dans les modes

d’observation des phénomènes sociaux et elle offre aujourd’hui des cadres de référence

pour analyser la structure et les raisons de nos modes de communication (E. Goffman, H.

S. Becker, Y. Winkin, B. Latour)

La phénoménologie a donc introduit une rupture dans les modes d’observation ; elle a

influencé aussi bien l’observation anthropologique, en particulier l’attitude empathique de

l’observateur (A. Muchielli, 1983), que la psychologie génétique et son analyse de certains

processus ontogénétiques (cf. plus loin). Mais l’ère structuraliste – constructiviste s’amorce

vraiment avec les progrès de la linguistique (F. De Saussure, E. Benveniste) car il devient

alors possible de structurer les concepts qui guident la pensée rationnelle indépendamment de

concepts a priori.

24 Il y a certainement matière à approfondir cette réflexion, en étudiant les homologies entre paradigmes scientifiques, schèmes sensori-moteurs, et catégories de l’entendement de E. Kant.

Page 65: UN REFERENTIEL, POUR QUOI FAIRE

65

3-4) La « récursivité » de la science :

Les postulats des recherches scientifiques sont de plus en plus le produit de résultats

empiriques. Ainsi est-il possible d’interroger les concepts à l’origine d’une discipline au

regard des travaux sur leur genèse (ontologique et historique). Le concept s’enrichit par une

sorte de rétroaction, de circularité : le concept – catégorie se précise au fur et à mesure que le

concept – objet est mieux connu. E. Morin, dans sa réflexion sur la Nature de la Nature,

emploie le terme de « récursivité » pour qualifier ces cycles gnoséologiques.

« C’est en cela un processus récursif : tout processus dont les états et effets finaux produisent les états initiaux ou les causes initiales. Je définis donc ici comme récursif tout processus par lequel une organisation active produit les éléments et effets qui sont nécessaires à sa propre génération ou existence, processus circuitaire par lequel le produit ou l’effet ultime devient élément premier et cause première. (...) C’est le fondement logique de la générativité. Autrement dit, récursivité, générativité, production-de-soi, ré-génération, et (par conséquence) réorganisation sont autant d’aspects du même phénomène central » (E. Morin, 1977 : 186).

Cette conception de la « récursivité » a induit au moins deux réflexions

• La première sur le risque tautologique : lorsqu’un concept est à la fois un objet de

recherche et une catégorie de la démarche, la confusion entre les deux conduit à des

cercles vicieux puisque la définition du concept en tant que catégorie induit la façon

d’observer l’objet, par la même les conclusions de la recherche. C’est particulièrement le

cas des concepts comme « critère » ou « indicateur » qui sont à la fois des outils

méthodologiques, mais aussi des éléments du Référentiel, objet de la recherche. C’est

aussi le cas des analyses sur la « fonction » de l’évaluation, où le statut de cette notion n’a

jamais été clairement posé. Mais réciproquement, la découverte de ces objets de la pensée

nous conduit à repenser nos catégories de recherche. Par la même, elle donne du sens aux

concepts en relation avec les méthodes d’observation : par exemple, quels sont les critères

du concept de « Critère », les indicateurs pertinents pour analyser le concept d’

« Indicateur ». (paradigme RFC25)

• L’étude des « représentations sociales » et de leur fonction dans la formation des milieux

professionnels nous interpellent sur celles qui régissent nos milieux scientifiques. La

fonction des « valeurs » dans la recherche en devient plus précise, la fonction du

« critère » comme interface entre ces valeurs et la matrice disciplinaire26 se clarifie (cf.

discussion sur la matrice de T. S. Kuhn au & 3-1) et le positionnement du chercheur est

réinterrogé (cf. discussion sur les préceptes de J. L. Le Moigne au & 3-2).

25 Quand le terme de « paradigme » est suivi d’une abréviation, celle-ci définit le type d’éléments auxquels il est fait référence.

Page 66: UN REFERENTIEL, POUR QUOI FAIRE

66

Mais si, de cette « récursivité », il résulte des clarifications (la structure conceptuelle

s’autonomise par rapport aux aprioris à l’origine de la recherche), il en découle aussi des

dérives. Certains écueils ne sont pas nouveaux ( sophismes des grecs, paralogismes de E.

Kant, tautologies, etc.), mais le risque est accru aujourd’hui de se complaire dans des

discours auto-référencés, dans des analogies superficielles ou une utilisation des concepts

« commune », c’est-à-dire non argumentée par des définitions qualitatives ou des situations

fonctionnelles qui en précisent la signification empirique. A ce sujet, le concept de « critère »

est exemplaire : il est souvent utilisé dans les sciences de l’éducation, il n’est pas toujours mis

en relation avec des attributs et des fonctions, comme si la signification de ce concept est

évidente, et surtout comme s’il pouvait exister sans ces qualifications. Au fur et à mesure que

la science découvre les principes de la cognition, la pensée scientifique est en mesure de

renverser l’argumentaire : tout devient cognition, nos pensées n’en sont qu’une forme

d’expression. La science a ainsi la possibilité de renouer avec les croyances des conceptions

déterministes, tout en intégrant la relativité introduite par la pensée constructiviste. Le

plaidoyer de F.J. Varéla, qui revendique son « déterminisme » pourrait constituer une réponse

« positiviste » à la conception de J.L. Le Moigne :

« Nous présumons que le monde est prédéfini, c’est à dire que ses propriétés sont établies préalablement à toute activité cognitive. Alors, pour expliquer la relation de cette activité cognitive et un monde prédéfini, nous posons l’hypothèse de l’existence des représentations mentales au sein du système cognitif (peu importe pour l’instant qu’il s’agisse d’images, de symboles, ou de schémas sub-symboliques d’activité distribuée sur un réseau) Nous disposons alors d’une théorie complète qui dit 1. le monde est prédéfini, 2. notre cognition concerne ce monde – même dans une mesure partielle – et 3. notre cognition de ce monde prédéfini s’accomplit à partir de la représentation de ses propriétés, puis d’une action fondée sur cette représentation » (F.J. Varéla ; 1988/1989 : 101).

On aperçoit, dans la position épistémique de F.J. Varéla, les mêmes illusions que le

positivisme : un retour à des conceptions mécanistes27 : 1. le monde est organisé

indépendamment de notre aperception ; 2. les méthodes scientifiques nous ouvriront de plus

en plus la connaissance objective de ce monde ; 3. le mouvement cognitif est le moteur des

rapports universels et la pensée humaine n’en est qu’une représentation. Ne retrouve-t-on pas

ici le principe du grand horloger de l’univers, vestige de l’influence des croyances religieuses

sur la philosophie et le rationalisme du XIIIème et XIXème siècle ?

26 Définition de J. Ardoino. 27 Si on se réfère à certaines applications des sciences cognitives (nanotechnologies, programme NTIB), on aperçoit le danger de telles positions scientistes qui seraient sorties de leur contexte épistémologique.

Page 67: UN REFERENTIEL, POUR QUOI FAIRE

67

Cette proposition a cependant l’intérêt de nous orienter dans notre questionnement sur

l’évolution actuelle des paradigmes. A la fois « systémique » dans son approche et

« ontologique / déterministe » dans sa conception de l’objet, la position que défend F.J.

Varéla correspond à la dernière case (III) de la matrice proposée par Le Moigne :

l’épistémologie connexionniste des sciences cognitives. Mais cette conception bio-mécaniste

et néo-positiviste n’est–elle pas réductrice pour traduire la richesse des recherches de ce

nouveau courant de pensée ?

3-5) De la conception mécaniste du positivisme à une conception relativiste du connexionnisme :

Avec la même logique que la critique de la raison pure de E. Kant sur les paralogismes, on

essayera de cerner les limites des propositions de F. J. Varéla et de suggérer une autre

conception de cette épistémologie qui se dessine à travers les recherches interdisciplinaires

des sciences cognitives28

1. L’axiome 1 proposé par F.J. Varéla (« le monde est prédéfini ») ne sera jamais ni infirmé,

ni confirmé, dans la mesure où la pensée humaine n’englobera jamais une connaissance

totale de l’univers. Cet axiome sera « vrai » ou « faux » selon la façon dont le problème

est présenté. Y a-t-il, dans ce cas, un intérêt à débattre de tels postulats en dehors de leur

valeur heuristique ?

2. L’axiome 2 pose un postulat essentiel de la conception connexionniste. Pour le saisir,

remontons aux sources de ce courant de pensée :

« En 1949, Donald Hebb suggéra que l’apprentissage pouvait être basé sur les modifications du cerveau émanant du degré d’activités corrélée entre les neurones : si deux neurones essaient de s’activer au même moment, leur lien et renforcé ; autrement il est diminué. Ainsi, la configuration des liens du système de vient inséparable de l’histoire de ses transformations et du type de tâche qui lui est impartie. Le nom de connexionnisme (...) vient don du fait que l’action a véritablement lieu au niveau de la connexion des neurones » (F.J. Varéla ; 1988/1989 : 57 et 58).

On peut accorder du crédit à cette idée de « connexion » pour décrire le fonctionnement de

nos raisonnements, dans la mesure où ce postulat repose sur des connaissances bio- et

neurologiques. Il apparaît légitime d’en inférer que notre intelligence du monde est fondée,

dans les premières expériences de la vie du moins, sur des analogies : connexions cognitives,

coordinations sensori-motrices, relation images / sons, superpositions d’images ou de sons.

Page 68: UN REFERENTIEL, POUR QUOI FAIRE

68

La question, cependant, n’est pas de savoir si ces connexions existent, mais de savoir où

s’arrêtent la validité des analogies induites par nos modes de raisonnement ? Dans quelle

mesure nos perceptions du monde sont-elles la conséquence du fonctionnement cognitif et

connexionniste de notre cerveau, et dans quelle mesure, au contraire, sont-elles inscrites dans

le monde extérieur / objectif ? Là aussi, le problème est insoluble, car nous ne pouvons penser

qu’à partir de ce que nous sommes. Si le connexionnisme introduit une idée nouvelle

pertinente, l’étude de notre cognition à partir des réalités physiologiques et neuronales, son

pouvoir axiomatique est limité par le fondement même de cette position épistémique. On ne

reviendra pas ici sur les limites de la méthode analogique.

3. L’axiome 3, enfin, clôt cette discussion : « notre cognition de ce monde s’accomplit à

partir de la représentation de ses propriétés, et d’une action fondée sur cette

représentation ». L’homme n’agit pas que sur ses représentations, il agit aussi sur le

monde, il le modifie. Le monde d’aujourd’hui n’est pas celui d’hier, et cette modification

induit aussi une transformation des représentations : les conceptions cognitivistes et

l’intelligence artificielle en sont une illustration. Nos représentations sont adaptées à ce

que nous avons besoin de savoir, en raison de l’évolution de ce monde à laquelle participe

aussi l’être humain. Il y a donc bien une interaction entre l’action et l’évolution des

représentations. Cela démontre-t-il que le monde est prédéfini ? Non. Seulement que l’être

humain est obligé de s’adapter au monde dans lequel il vit, et qu’il possède pour ce faire

des capacités de représentations de celui-ci. Celles ci sont elles justes ou erronées ? Qui

oserait se prononcer de façon catégorique sur cette question après les révolutions

scientifiques du XXème siècle. Une seule chose est certaine : elles sont suffisantes pour

s’adapter au monde actuel ; dans le cas contraire, il deviendrait vital pour l’humanité de

les faire évoluer.

Cette analyse des paralogismes de la pensée néo-positiviste n’a pas pour but de nier le

caractère indépendant de l’ob-jet. Que les ob-jets existent indépendamment du sujet, cette

position est tout à fait légitime dans la recherche scientifique, aussi bien en physique que dans

les sciences sociales et humaines. Et il est tout aussi légitime de défendre qu’il s’agit là d’un

postulat fondamental de la Science en tant que telle, et par conséquent d’un principe

gnoséologique qui détermine le caractère ontologique de certains paradigmes29.

28 Neurologie, biologie, psychologie cognitive, linguistique en particulier grammaire générative et pragmatique, sociologie cognitive et interactionniste. 29 A nier les contraintes du « monde objectif », ne s’expose-t-on pas à les subir ? Si j’avance vers un mur en fermant les yeux, il y a peu de chances que je passe au travers du mur.

Page 69: UN REFERENTIEL, POUR QUOI FAIRE

69

En revanche, l’organisation rationnelle et prédéterminée des objets existe-t-elle

indépendamment de nos représentations de l’univers ? L’univers est-il organisé

indépendamment de la façon dont l’humain se le représente ? Cela est beaucoup moins

certain. Dans tous les cas, il s’agit là d’une question épistémologique bien différente de la

première, et cette différenciation est essentielle pour réfléchir à l’articulation des paradigmes

scientifiques - du moins à l’exploitation qui en a été faite dans cette thèse.

A partir de ces réflexions sur le « déterminisme », une autre conception, « récursive »,

du connexionnisme se dégage. Les structures conceptuelles qui fondent les disciplines

scientifiques s’émancipent des conceptions théologiques pour s’autoalimenter. Les postulats

de la recherche sont construits à partir de concepts dont la signification empirique a été

validée par de nombreuses expériences, dans la discipline concernée ou dans d’autres. La

conception ontologique et déterministe de l’objet s’en trouve profondément modifiée.

L’« objectivité rationnelle » ne se limite plus seulement au produit de nos perceptions et de

nos sensations, mais aussi de l’ensemble des représentations scientifiques qui sont considérées

valables par une socio-culture. On pourrait schématiser cette problématique par un exemple

sur l’évolution des conceptions, emprunté à la sociologie. Pour K. Marx, le déterminisme de

l’histoire trouvait son principe explicatif dans les conditions matérielles et naturelles des

humains, qui les ont conduits à s’organiser en sociétés ; pour la sociologie des organisations,

les structures sociales auxquelles un individu est contraint de s’adapter sont le produit des

représentations et des jeux construits par les acteurs : ils sont objectivement contraignants,

mais l’acteur y possède sa marge d’action imprévisible, et sa conscience. La première

conception est traditionnelle, encore emprunte de positivisme (« matérialisme historique » et

« matérialisme dialectique »30), la seconde analyse le monde moderne sous un nouveau

regard, celui des contraintes créées par les acteurs eux mêmes, au sein des organisations

sociales qu’ils ont construites, analyses qui sont aussi pertinentes pour des organisations

industrielles que pour les institutions de la « science moderne » : les scientifiques ne sont-ils

pas aussi organisés en groupes sociaux influents ? On n’approfondira pas ici la complexité des

processus qui ont conduit à fixer les valeurs, les croyances, les rites, les modèles, des

disciplines scientifiques, et à structurer les représentations sociales de nos connaissances.

30 Il est à noter que ces termes de « matérialisme historique » et de « matérialisme dialectique » n’ont jamais été utilisés par K. Marx lui même, mais par ses contemporains qui discutèrent sur sa pensée. Le second concept n’a d’ailleurs peut être même pas été utilisé du temps de son vivant, il traduit une pensée développée par F. Engels, (et non par K. Marx) dans sa « dialectique de la nature ». L’intérêt de ces concepts est, cependant, d’illustrer le caractère « ontologique » et « déterministe » de la conception des objets scientifiques de cette époque.

Page 70: UN REFERENTIEL, POUR QUOI FAIRE

70

Celles-ci ne sont d’ailleurs pas uniquement le fruit des jeux interactionnels et institutionnels

au sein des structures universitaires et des groupes de recherche (B. Latour ; 1995), bien des

partenaires modèlent aussi ces représentations, par exemple, les médias qui participent à la

diffusion de ces connaissances auprès d’un large public, (cf. Les travaux de S. Moscovici sur

la psychanalyse ; 1961). On s’attachera donc plus à analyser les progrès qu’ont autorisés les

sciences cognitives de ces dernières années.

Au fur et à mesure qu’une science accomplit des découvertes significatives dans un

domaine (par exemple, la psychologie cognitive sur la mémorisation des concepts, ou la

sociologie cognitive par rapport à certains processus de communication), elle modifie la

représentation que les autres sciences ont de leur objet d’étude. La « réalité objective » n’est

pas inscrite dans l’ordre universel du Cosmos (ainsi que le présupposait le positivisme et le

postule la conception connexionniste de F.J. Varéla), mais elle est dans le fait que nos actions

sont induites par nos conceptions et nos représentations, qui se sont construites sur un

faisceau d’expériences et de communications, et qui évoluent au fur et à mesure de nos

connaissances acquises. Le déterminisme n’existe donc pas « en soi », dans la nature, mais

dans l’aspect contraignant de ces réseaux de communications et d’expériences, qui font que

« l’homme moderne » existe31. Cela ne signifie pas que les contraintes naturelles n’existent

pas, mais elles sont loin d’expliquer à elle seule l’ensemble de contraintes objectives

auxquelles nous devons nous adapter. Les formes et la structure de nos connaissances sont

liées au monde dans lequel nous vivons.

• Si un « déterminisme » existe, ce n’est pas « en soi », mais en raison des déterminations

intrinsèques à nos outils d’observation et à nos modes de communication, et la structure

langagière n’est pas la moindre de ces contraintes.

• Si un caractère « ontologique » est à rechercher, ce n’est pas dans la nature même des

objets, mais dans l’essence des concepts, qui sont les supports de nos communications sur

les objets. Car si ces ob-jets existent indépendamment de nos représentations, en tant

qu’ob-stacles auxquels nous sommes contraints de nous adapter, et de ce fait ob-servables

par nos sensations et nos perceptions, la connaissance sur ces objets ne saurait exister

indépendamment des modes de communication et des concepts, indispensables à

l’échange de nos expériences et à la construction des « catégories de l’entendement » dont

nous avons besoin pour discerner leurs caractéristiques et leurs propriétés.

31 L’homme n’est plus un animal sauvage qui ne réagit qu’en fonction de ses besoins physiologiques et des contraintes naturelles, la société n’est plus une structure pyramidale avec un symbolisme fondé sur des croyances religieuses, etc.

Page 71: UN REFERENTIEL, POUR QUOI FAIRE

71

Le « déterminisme » redevient donc une position épistémique crédible, mais essentiellement

parce que les moyens de communication que nous utilisons reposent sur un système de

« déterminations », au sens linguistique du terme. C’est cette position épistémique, produit de

la recherche conduite ici, que l’on adoptera dans cette thèse : il est préférable de la préciser

pour éviter tout malentendu.

3-6) La position du chercheur :

Pour cerner l’intérêt propédeutique de cette réflexion, braquons brièvement notre

focale sur les travaux d’un grand psychologue, J. Piaget. IL ne s’agit pas, ici, d’approfondir

ses conceptions, mais d’analyser, à partir du modèle de J. L. Le Moigne, les modes

d’expérimentation et de communication mis en œuvre par lui. Cette approche demeure assez

schématique, l’objectif de cette présentation étant plus d’expliquer les orientations de cette

thèse que de proposer une étude exhaustive de ces travaux. J. Piaget est un constructiviste : la

définition de ce concept est induite par son approche scientifique. Il introduit, dès les années

soixante, l’idée de circularité de la connaissance scientifique, reprise par E. Morin à travers

son concept de « récursivité ». Il ouvre la voie au cognitivisme en orientant la recherche vers

l’étude des processus cognitifs, et malgré certaines critiques, il reste un auteur de référence

pour ce courant de pensée. Mais sa conception de l’objet, à l’origine de ses recherches du

moins, est fortement ancrée dans les hypothèses ontologiques et déterministes de son époque,

qui s’expriment d’ailleurs à travers le choix des concepts pour qualifier son objet d’étude :

l’ontogenèse (ou genèse ontologique) de l’intelligence humaine. Sa conception déterministe

des « stades du développement psycho-sensori-moteur » a été critiquée, malgré les

précautions méthodologiques du « chercheur » et les communications pondérées de

« l’auteur ». Ses protocoles expérimentaux sont ceux de la psychologie empirique de son

époque : ils sont fondés sur une observation statistique des performances en fonction de l’âge,

mais alliée avec une analyse du discours des enfants. Et surtout, l’observation

phénoménologique de ses propres enfants lui a permis d’analyser certains processus

ontogénétiques, en particulier la formation des images mentales à partir de la coordination

des schèmes sensori-moteurs (J. Piaget, 1945/1994), quitte à les valider ensuite par de

nouveaux protocoles expérimentaux. Par ailleurs, le caractère systémique, du moins

structuraliste, apparaît dès ses premières publications : il s’appuie sur des modèles

biologiques et zoologiques pour construire son approche empirique de la psychologie.

Page 72: UN REFERENTIEL, POUR QUOI FAIRE

72

Le sujet mériterait d’être approfondi, mais l’idée est plutôt ici d’exposer une aperception de la

méthodologie de cet « homme de science », et surtout, une analyse du contexte scientifique

dans lequel le paradigme constructiviste s’est structuré. La conception ontologique et

déterministe de l’objet ont conduit la Science du XVIII ème et surtout du XIXème siècle, vers un

souci de fiabilité des outils pour obtenir une observation systématique des phénomènes. La

psychologie et la sociologie ont rencontré les mêmes préoccupations, lors de leur

institutionnalisation au début du XXème siècle (En France, avec Binet et Durkheim, par

exemple). La richesse de la pensée de J. Piaget a été d’intégrer, aux conceptions de son

époque, le côté innovant des courants de pensée qui émergeaient : la phénoménologie qui a

exercé une forte influence sur la psychologie, et le structuralisme qui a induit une réflexion

sur les cadres de référence de la pensée scientifique. Il a ainsi réussi à innover au niveau de

l’observation des phénomènes, tout en intégrant ses découvertes dans les conceptions de la

connaissance de son époque, fortement imprégnées du progrès des sciences de la nature et de

la physique / chimie.

A partir de cette succincte analyse, on peut discerner les quatre grands principes

épistémologiques et axes méthodologiques qui fondent l’esprit de cette thèse :

- positiviste / ontologique

- dialectique / phénoménologique

- constructiviste / structurale

- cognitiviste / connexionniste

Page 73: UN REFERENTIEL, POUR QUOI FAIRE

73

Chapitre 4

Les quatre axes de la recherche

1) Principes et méthodes :

Les contraintes de la recherche et la complexité d’une réalité sociale difficile à

identifier, à l’instar d’un objet comme le « référentiel », nous invitent à approfondir cette

réflexion épistémologique sur nos conceptions de l’objet de recherche (paradigmes MCP), sur

nos raisonnements logiques (RFC) et sur nos outils (MEO)32.

1-1) Les critères de validité :

Commençons tout d’abord par interroger les orientations épistémologiques de cette

thèse (paradigmes CV) :

1) Ce qui différencie l’approche scientifique du « sens commun »33, c’est la collecte

fiable des données sur les objets par des protocoles expérimentaux. On entend ici

« protocole » dans un sens très large qui inclut tout mode d’observation systématique :

questionnaires ouverts et fermés, analyse des discours, observation de conduites

répétitives, etc. Mais ces données collectées sur nos objets de recherche n’ont pas de

signification en elles-mêmes, elles traduisent des phénomènes qui ne prennent sens

qu’à travers les relations logiques qui existent entre eux : de fonctionnalité, de

causalité, de cooccurrence, de congruence, d’opposition, etc. (positivisme) 34.

2) Tout observateur agrège les différentes données à partir de ses propres cadres de

référence ; par conséquent, l’appréhension de la réalité est intuitive. L’essence n’existe

donc pas dans l’objet, mais dans l’aperception intuitive que nous en avons a priori.

C’est en interrogeant les modalités de nos perceptions, et les constructions

intellectuelles qui en sont l’expression, que nous pouvons réellement découvrir la

complexité de l’objet, en particulier dans le domaine des sciences humaines et sociales

(principe fondamental de l’analyse). Sans ce « recul analytique », le chercheur

s’expose à l’écueil d’égo / ethno – centrisme (phénoménologie).

32 On reprend ici les principales catégories d’une matrice disciplinaire évoquées précédemment (page 50). 33 Au sens défini par P. Bourdieu, J.C. Chamboredon et J.C. Passeron (1968). 34 On reprend ici les principaux paradigmes évoqués précédemment (pages 55 et 56).

Page 74: UN REFERENTIEL, POUR QUOI FAIRE

74

3) Les objets de la recherche n’existent pas a priori, en soi.

Les concepts qui les signifient35 sont construits au fur et à mesure :

a. des besoins de la recherche

i. pour aborder les problématiques qui sont induites par les questions du

milieu socioprofessionnel

ii. pour élaborer les modes d’observation possibles, en fonction des

progrès de la science : outils, méthodes, concepts opératoires, etc.

b. de la découverte des phénomènes, par une immersion dans le milieu social, et

de leur agrégation à partir d’une modélisation du système global = la structure

de l’objet (constructivisme).

4) Ce sont les rapports entre les différentes variables qui font système. La modélisation

est un moyen de représenter les attributs observables et les interactions entre eux, afin

de formuler des hypothèses sur celles-ci ou d’inférer des rapports logiques à partir des

données collectées. Toute conceptualisation fait donc appel à une représentation de

l’objet, soit a priori pour formuler des hypothèses, soit a posteriori pour ordonner les

phénomènes qui apparaissent dans un même temps ou espace. Celle-ci est enrichie -

ou remise en question - au fur et à mesure que de nouvelles connaissances sont

acquises sur certains éléments du système, sur les rapports entre ces éléments ou sur

les représentations elles-mêmes, selon le principe de la récursivité (connexionnisme).

Il ne s’agit pas ici de réduire ces principes aux grandes étapes d’une enquête

sociologique traditionnelle (R. Ghiglione et B. Matalon ; 1978) : 1. Entretien préalable avec

des acteurs sociaux pour concevoir les objets de recherche et formuler des hypothèses (2) ;

2. Enquête quantitative à partir de questionnaires, d’entretiens ou d’observations (1) ;

3. Traitement des données pour observer la structure et le fonctionnement des systèmes (4) ;

4. Interprétation des résultats en les rapportant aux connaissances que nous avons déjà sur ces

acteurs sociaux (histoire, psychologie, autres études sociologiques, etc.) (3) Cette démarche

enferme souvent la recherche dans des cadres hypothétiques préétablis, contraire à l’esprit

phénoménologique, et elle se concentre sur un objet d’étude prédéfini, avec une succession

d’étapes pour justifier les préconceptions du chercheur, ce qui ne correspond pas à la

conception du constructivisme.

35 Sans ces concepts, les phénomènes existent toujours, puisqu’ils sont en rapport avec nos facultés perceptives, mais non les objets qui s’inscrivent dans une représentation de l’univers.

Page 75: UN REFERENTIEL, POUR QUOI FAIRE

75

L’objet « référentiel » est complexe, sa conceptualisation induit l’étude de plusieurs

objets : critère, indicateur, conception, représentation sociale, etc. La recherche est donc

confrontée à plusieurs approches différentes (paradigmes MEO) adaptées aux conceptions

scientifiques de chaque objet (paradigmes MCP) : par exemple, l’étude des représentations

sociales conduit à l’observation de phénomènes interactionnels et des modes de

communication, celle des critères à l’analyse des constructions argumentatives et

référentielles, celle des conceptions à l’analyse des discours et à l’étude de ceux-ci par rapport

à leur situation d’énonciation, etc. Au fur et à mesure que s’élabore l’observation des

phénomènes et l’analyse des concepts, il émerge donc des relations formelles entre ces

concepts (paradigmes RFC).

1-2) Les modalités d’expérience et d’observation :

Les quatre axes paradigmatiques ne sont donc pas quatre étapes chronologiques d’une

même étude, mais des recherches complémentaires pour étudier l’objet sous des angles

différents.

Ces choix se traduisent par des options méthodologiques (paradigmes MEO) :

1) Pour parvenir à une collecte fiable des données, on développe des protocoles

d’observation et des méthodes d’analyse des discours36, qui s’appuient sur des

traitements statistiques et des outils de systématisation, et qui offrent une

généralisation des observations et une appréhension fonctionnelle de l’objet

(positivisme).

2) Pour éviter les interprétations abusives déterminées par les schémas de pensée du

chercheur, l’interprétation des phénomènes (mis en valeur par les autres approches

méthodologiques) est construite à partir de l’analyse de la parole des acteurs à

l’origine de ceux-ci37, ou par l’étude des documents de référence, des formes

d’expression et des représentations sociales du milieu professionnel. Un système n’a

pas de sens en lui-même, mais seulement si les modes de fonctionnement s’inscrivent

dans les pratiques et les finalités des acteurs (phénoménologie).

36 Ceux-ci sont précisés dans la partie méthodologique. 37 Cette approche a été, en particulier, adoptée par P. Bourdieu (1979 ; 1985 ; 1989) qui s’est fondé sur des entretiens auprès des acteurs pour interpréter les données statistiques recueillies par questionnaires. C’est, aussi, l’approche épistémologique de J. Piaget, quand il a demandé aux enfants d’expliquer leurs actions par rapport aux problèmes qui leur étaient posés.

Page 76: UN REFERENTIEL, POUR QUOI FAIRE

76

3) Pour éviter d’influencer les phénomènes lors de la collecte, les protocoles sont

construits en les adaptant aux modes de communication ordinaires du milieu social au

sein duquel s’est faite l’observation. La méthode est ainsi adaptée à la structure des

discours ou aux modalités des actions observées. Le fonctionnement de l’objet est

appréhendé dans sa globalité fonctionnelle pour discerner les observations pertinentes

(constructivisme).

4) Pour obtenir une approche globale des systèmes de communication, une modélisation

cognitive de ces phénomènes est adoptée, en relation avec les traitements statistiques

(tris croisés, analyses multi-variée ou factorielle, etc.), ou les dispositifs

d’observations systématiques (dimensions, critères, indicateurs, etc.) : l’objectif de ces

méthodes est d’analyser les connexions entre les différents attributs (éléments du

discours / situations d’énonciation ; représentation d’un objet / contraintes

d’utilisation, etc.) C’est à partir de l’étude des relations significatives entre ces

éléments co-occurrents / congruents (pourquoi apparaissent-ils toujours ensemble ?)

que nous pouvons étudier le système dans sa globalité (connexionnisme).

Bien entendu, ces paradigmes sont complémentaires : la recherche génétique de la

construction d’une représentation sociale (constructivisme) est articulée avec l’étude du

contexte de l’énonciation (connexionnisme), ce qui permet d’étudier la façon dont se sont

construits les systèmes de référence que nous connaissons aujourd’hui. Réciproquement, les

phénomènes observés à travers les protocoles empiriques (positivisme) ont besoin d’une

analyse des systèmes de référence des acteurs, pour acquérir de la signification

(phénoménologie). Les processus méthodologiques s’enrichissent donc, de façon récursive.

1-3) Les relations formelles entre concepts :

Mais les méthodes n’ont pas de sens en elles-mêmes. Ce sont les concepts qui leur

donnent de la signification, en créant du lien entre les phénomènes observés (agrégativité), les

intentions des acteurs (téléologie), les sensations et perceptions (intuition), etc. Les concepts

ont ce pouvoir en raison de la structure hiérarchique de la langue et de leurs rapports de

référence (au sens linguistique) avec les objets du monde sensible. Mais ces rapports sont

complexes, tout autant que la structure de la langue : à un mot (« arbre ») ne correspond pas

simplement l’objet (arbre), car celui-ci n’existe que parce qu’il est signifié par les opérations

de conceptualisation qu’autorise le langage. On aura l’occasion de revenir sur ces aspects.

Page 77: UN REFERENTIEL, POUR QUOI FAIRE

77

Dans l’immédiat, on en précisera que les conséquences épistémologiques. La méthode de

collecte de données n’a de sens que si elle est en congruence avec la « structure du concept ».

Mais la structure du langage est si complexe qu’il est possible d’en déduire l’existence

d’autant de structures conceptuelles – du moins à partir de la définition adoptée ci-dessus –

que d’auteurs ou d’interlocuteurs. Or toute discipline scientifique a besoin de créer des

significations conceptuelles communes, de façon à ce qu’un groupe social de chercheurs

puissent travailler ensemble sur les mêmes objets d’étude (cf. T.S.Kuhn). Le caractère

disciplinaire consiste donc à normaliser les modes de communication au sein d’un groupe

d’acteurs, afin que les significations des actes et des situations puissent être partagées par eux.

On peut donc dégager les grands types de structures conceptuelles (paradigmes RFC)

et inférer les types de modélisation cognitive et prévisionnelle qu’elles induisent - ou encore,

pour reprendre les expressions de T.S. Kuhn, les croyances et prédictions sur lesquelles elles

sont fondées (paradigmes MCP). Le concept fait ainsi le lien entre les procès

d’expérimentation et d’observation (MEO) et les modélisations ou les croyances / prédictions

(MCP) qu’il est possible de déduire, ou plus exactement d’inférer. On abordera donc concepts

et modélisations simultanément.

1) Un objet d’étude n’existe que si les attributs de sa définition font référence à des

phénomènes observables. Définir ontologiquement un concept, c’est donc déterminer

les objets et / ou les caractéristiques qui signifient ses attributs : si ce sont des objets,

ils sont eux-mêmes signifiés par des concepts (il y a alors inclusion de concepts les

uns dans les autres, ou du moins, relations logiques entre eux) ; si ce sont des

caractéristiques, ils font référence à des modalités d’observation phénoménale. Le

choix de ces objets et de ces caractéristiques est induit par la recherche des fonctions

de ces attributs, c'est-à-dire de leur action dans le fonctionnement de l’objet d’étude.

Cela induit une question de fond : en quoi le caractère de l’attribut ou la structure de

l’objet-attribut, expliquent l’action de celui-ci dans certains fonctionnements et modes

d’organisation de l’objet d’étude ? (paradigme positiviste)

2) Les phénomènes observés n’ont pas de sens en eux-mêmes, et leur fonction / existence

ne s’expliquent qu’en référence à un être agissant. Les phénomènes acquièrent du sens

à travers la signification empirique qu’ils ont pour les acteurs, soit que l’observation

ait un intérêt pour l’action / l’adaptation du sujet (conception fonctionnaliste), soit

qu’elle s’inscrive dans le mode global d’appréhension de l’univers (existentialiste).

Page 78: UN REFERENTIEL, POUR QUOI FAIRE

78

Si ce sont les concepts qui donnent du sens aux phénomènes, l’essence de ceux-ci

n’est pas à rechercher dans leur propre réalité (en soi), mais bien dans les

constructions cognitives qui les signifient et qui fondent leur Raison d’être. Les

concepts étant produits par le système de référence de l’être Acteur ou Existant, c’est

donc en interrogeant le sens (fonctionnel ou existentiel) qu’il a pour lui que nous

découvrons les différentes significations d’un concept. Le concept prend ainsi forme,

au fur et à mesure de la découverte de sa genèse historique, culturelle, psychologique,

interactive, etc. (paradigme phénoménologique).

3) Le concept n’existe pas a priori38. Il est toujours le produit de l’expérience, soit de

l’expérience sensible qui s’est progressivement construite sous forme langagière, soit

de l’expérience langagière communiquée par les pairs sous diverses formes

médiatiques, et mémorisée sous forme cognitive. La logique formelle est le produit du

logos (discours). Le langage a ce pouvoir de se libérer des objets du monde sensible,

puisque la signification des concepts ne repose pas sur les rapports sensibles à l’objet,

mais sur la structure de la langue et sur les liens de signification engendrés par les

modalités fonctionnelles du langage39. N’est-ce pas alors cette capacité d’abstraction

qui a généré la création, de façon imaginaire, de concepts « purs », existants a priori

dans la pensée ? Partir du postulat que le concept est le produit de l’expérience, c’est

se distancier de l’idéalisme, et le concevoir comme une « structure » qui permet de

trier, de classer et de traiter les données de l’expérience. La définition de l’objet, à

travers un concept, est donc modelée par les données de l’expérience, non seulement

parce que le concept est la figuration langagière de celles-ci, mais aussi parce que son

élaboration a pour objectif de donner du sens à ces données afin qu’elles soient

exploitables par les acteurs. (paradigme constructiviste).

38 On se démarque ici des conceptions idéalistes du XVIII ème et XIXème siècles, en particulier celles d’E. Kant, de G.W.F. Hegel ou d’E. Husserl. Il ne s’agit pas ici de critiquer les travaux de ces philosophes, qui ont défini des concepts précieux pour la pensée scientifique, mais seulement de faire référence à la conception récursive, introduite dans les sciences, par les travaux sur l’ontogenèse des structures de l’intelligence (psychologies génétique et cognitive) - qui offrent une explication de nos formes de pensée sans avoir recours à un idéalisme transcendantal. Cela n’exclut pas la pertinence, pour les philosophes (y compris de nos jours), de créer des concepts « purs », idéaux, transcendantaux (essence, noumène, éidos…), afin d’avoir une réflexion spéculative sur nos façons de penser et de construire ainsi de la connaissance. Mais la méthodologie scientifique se démarque ici de la philosophie en ce sens que les postulats d’une science sont fondés sur des connaissances produites par l’expérience, et non sur des concepts transcendantaux. 39 On reviendra sur cette question lors de la partie méthodologique.

Page 79: UN REFERENTIEL, POUR QUOI FAIRE

79

4) Le concept n’est donc pas figé et déterminé, une fois pour toutes, à partir du moment

où il a été fixé dans son sens par le philosophe ou l’homme de science. Le travail

disciplinaire d’un groupe de chercheurs - qui œuvrent sur les mêmes objets - les

conduit à préciser le sens des concepts pour leur communiquer un sens partagé, une

existence monosémique. Celle-ci est intrinsèquement déterminée par l’objet de

recherche, l’histoire du groupe et les modalités empiriques de la discipline. Par

conséquent, les mêmes termes scientifiques (signifiants de la linguistique) n’ont pas le

même sens selon les disciplines, dans la mesure où ils ne sont pas produits par les

mêmes constructions cognitives, et où ils n’appliquent pas les mêmes systèmes de

référence aux phénomènes observés. C’est le cas, par exemple, de la « représentation

sociale », pour la psychosociologie francophone et la sociologie interactionniste

anglo-saxonne. Il en est de même de la « compétence », de la « conception », du

« référentiel » etc. Mais ces concepts n’en sont pas, pour autant, totalement différents,

dans la mesure où ils font référence à certains phénomènes communs (en partie du

moins) et où ils ont souvent une origine commune. L’analyse propédeutique, pour

discerner cette genèse originelle et les phénomènes similaires signifiés par l’univers

sémantique des concepts, engendre de la signification, créée des rapports entre les

attributs de ces concepts, construit un système de référence, et précise ainsi la

définition des termes signifiants. Les concepts s’enrichissent ainsi au contact d’autres

logiques cognitives, en particulier celles des autres disciplines : par exemple,

l’approche cognitive de la « représentation » permet d’appréhender certains

fondements ontologiques de la « représentation sociale » (au sens de Goffman : 1981)

ou certaines modalités de celle-ci (au sens de Gilly, 1996). De ce fait, au fur et à

mesure que la découverte d’un objet progresse dans une discipline, sa

conceptualisation cognitive offre une meilleure appréhension dans l’autre discipline :

par exemple, le « référentiel » des sciences de l’éducation et celui des sciences

politiques. Les regards sont ainsi croisés. (paradigme connexionniste).

La définition des concepts – qui signifient les objets de recherche – est donc structurellement

déterminée par les modalités relationnelles entre concepts (RFC) et les inférences qu’elles

autorisent. Les différentes composantes des paradigmes (MEO / RFC / MCP) sont ainsi

articulées entre elles : la collecte des données, les relations logiques entre celles-ci et les

interprétations, traitements, explications, etc. que nous pouvons en déduire.

Page 80: UN REFERENTIEL, POUR QUOI FAIRE

80

1-4) Une vision panoramique des différents paradigmes :

Dans son approche du système général, J.L. Le Moigne (1977) propose de modéliser les

objets complexes à partir de trois approches : ontologique, génétique et fonctionnelle.

L’analyse conduite ci-dessus, fondée à partir de ses recherches sur les paradigmes (1995),

nous conduit à redéfinir sa proposition :

- L’objet ne peut être modélisé sans une phase de conceptualisation (utilisation du langage),

même si par ailleurs, elle s’appuie sur la schématisation visuelle (analogique), dans un but

d’illustration pédagogique, de support de communication, de miroir propédeutique, voire

de formalisation à finalité heuristique, etc. ;

- la définition du « concept » pour signifier l’objet de recherche (ou la construction du

système pour le représenter) peut emprunter quatre grands types d’approches (et non

trois), en rapport avec l’épistèmê privilégié. Le tableau ci-dessous en cerne, de façon

schématique, les principales modalités.

Paradigmes

Orientation épistémologique

CV

Options méthodologiques

MEO

Construction des concepts

RFC

Modalités des inférences MCP

Positivisme Ontolologique Analytique

Observations des caractères de l’objet Systématisation logico- mathématiques

Attributs Fonction (au sens mathématique du terme)

L’essence de l’objet est dans sa nature. L’objet est décomposé en attributs observables (analyse). La nature des attributs permet d’inférer leur participation au fonctionnement de l’objet (synthèse)

phénoménologique Dialectique Fonctionnelle

Expression des acteurs Réflexion sur la signification des actes / en rapport avec leur fonction ; ou des conceptions / en rapport à la position

Représentation de leur vécu Fonction (au sens téléologique)

L’essence de l’objet est dans l’intuition originaire . L’objet ne peut être découvert sans une réflexion sur les processus qui permettent de l’appréhender (analyse). La synthèse ne s’élabore pas à postériori, mais a priori dans l’intuition. La connaissance est le produit d’une distanciation critique et d’une réflexion sur la fonction des objets.

Constructivisme Structurale Systémique

Collecte en situation réelle, systématisation des observations Interprétation par modélisation

Invariants structuraux Système (relations entre éléments)

L’essence de l’objet est dans sa structure, c'est-à-dire les phénomènes essentiels pour notre aperception de l’objet. La découverte de cette structure et de son fonctionnement se construit par l’étude de la genèse de sa formation. La modélisation est un moyen de mettre en relation la conception de l’objet et les phénomènes observés.

Cognitivisme Connexionniste Récursive

Observation des cooccurrences et connexions Recherche des homologies structurelles

Significations, produits de l’intertextualité Boucles rétroactives et récursives

L’essence de l’objet se trouve dans les réseaux de connexions qui déterminent nos conceptions. L’objet est ainsi déterminée par sa signification sociale, le sens qu’il a pour les acteurs, et qui justifie de communiquer sur l’objet. La modélisation est un moyen de mettre en valeur les homologies de structure pour en étudier les fondements : « objectifs » – intrinsèques à la nature de l’objet - ou « cognitifs » - intrinsèques à nos formes de raisonnement

Page 81: UN REFERENTIEL, POUR QUOI FAIRE

81

Le but d’une analyse des différents paradigmes n’a pas qu’une fonction heuristique,

bien que celle-ci soit essentielle dans une recherche. L’objectif est aussi de structurer

progressivement les méthodes qu’on utilisera pour observer les phénomènes à étudier. Il

apparait donc logique de traduire ses grandes dimensions méthodologiques en modes

opératoires, à partir de ceux des disciplines scientifiques auxquelles on a fait appel pour

étudier certains phénomènes et leur donner de la signification ; cette propédeutique interroge

ainsi les relations entre les disciplines concernées, en abstrait l’essentiel pour l’étude présente,

et permet ainsi de définir des concepts utiles pour l’interprétation / la démonstration.

Le tableau ci-dessous explique, de façon synthétique, les choix qui ont été adoptés

pour étudier l’objet « référentiel », tant au niveau des principes que des modes opératoires

empruntés aux diverses disciplines :

- L’approche phénoménologique nous conduit à ré-fléchir sur notre aperception des objets.

Elle nous inscrit dans une aperception intuitive a priori, adaptée à un phénomène aussi

complexe que le Référentiel. Mais cette démarche ne se limite pas à une intuition

subjective de l’objet, elle préconise une analyse toujours plus poussée de ces aperceptions

et des rapports sujet observant / objet observé, pour en comprendre le fondement objectif.

Epistémè privilégié

Principe Méthodologie Analyse de contenu

Sociologie

Phénoménologie Réflexion sur les processus en jeu - analyse des phénomènes intuitivement perçus - analyse des catégories utilisées pour appréhender l’objet

Analyse des systèmes de raisonnement mis en œuvre par les acteurs

analyse de la construction de la référence et des systèmes de signification

Approche et concepts ethnographiques pour aborder les modes de communication sociale des acteurs

Constructivisme Dégager les structures - des modèles cognitifs de l’objet - des cadres de référence pour étudier l’objet

Etude structurale des conceptions des acteurs et de la genèse de leur formation.

Etudes des principales structures du discours et des constructions discursives

Historique des idées, construction sociales des conceptions

connexionnisme Générer de la signification en rapprochant - les modélisations de l’objet - les méthodes de recherche appliquée à celui ci

Etude des phénomènes les plus significatifs dans les deux acceptions du terme : - processus cognitifs généraux - caractères significatifs statistiquement

Traitement de la récurrence : des cooccurrences, des structures syntaxiques et des processus de référenciation et de référentialisation

Observation des corrélations entre variables sociologiques et variables sémio-linguistiques pour identifier les porteurs de conceptions

Positivisme Discerner des éléments objectifs : - observables dans les matériaux collectés - fonctionnels pour expliquer l’objet

Analyse de la structure formelle des processus, étude systématique et statistique

Analyse syntaxique et sémantique des unités du langage (APD, AAC)

traitements statistiques adaptés à l’expérience / en fonction de l’hypothèse

Page 82: UN REFERENTIEL, POUR QUOI FAIRE

82

Ainsi on ne peut parler d’approche phénoménologique que si, au fur et à mesure de la

recherche, on précise notre réflexion sur nos systèmes de référence, nos rapports avec le

monde sensible (actions, observations, etc.), et la façon dont nous créons de la

signification à partir de ces phénomènes. Mais cette réflexion n’est pas le produit d’une

pure abstraction, elle s’élabore au fur et à mesure de la découverte progressive de notre

objet, les référentiels. Comprendre la façon dont ils se sont construits, à travers l’histoire,

en systèmes de référence, nous interpelle sur la façon dont nous appréhendons le monde

sensible : ils sont le re-flet de nos propres systèmes de référence. La phénoménologie, par

son approche dialectique des phénomènes (sujet / objet), ouvre ainsi la porte à la

récursivité ; réciproquement, cette dernière réifie l’approche phénoménologique en

interrogeant l’intuition première à partir de la découverte de l’objet, qui conduit le sujet à

se re-connaître.

- L’approche constructiviste structure la recherche de trois façons : au fur et à mesure que

nous communiquons de la signification aux phénomènes sociaux, ceux-ci prennent du

sens pour nous : ils existent.

o A partir des phénomènes les plus significatifs, pour les acteurs, dans leur pratique

quotidienne, on obtient une première structure : leur conception. La conception des

acteurs devient ainsi un objet digne d’intérêt, et surtout, adapté à l’étude des

référentiels. Nous ne sommes pas en mesure de discerner tous les « facteurs » qui

« conditionnent » l’action des professionnels (dans une acception positiviste du

terme), mais il nous est possible de travailler sur la signification que ceux-ci donnent

à leurs actes : c'est-à-dire sur la logique des constructions qui guident leurs conduites,

et sur leur système de référence. C’est la structure-objet.

o Mais il y aussi les conceptions propres du chercheur, qui orientent la façon dont il

collecte les informations et dont il structure l’étude. Les conceptions du domaine

scientifique constituent des cadres de référence pour définir la méthodologie : ces

concepts ont un caractère objectif, en ce sens qu’ils sont le produit d’une signification

partagée par des chercheurs qui ont œuvré sur un même objet de recherche. Pro-poser

des cadres à partir d’une « revue de la littérature », c’est aussi s’interroger sur leur

pertinence et leur validité40. C’est la structure-sujet de l’approche.

40 JM. De Ketele et X. Rogiers proposent trois critères pour construire une recherche : pertinence, validité, fiabilité.

Page 83: UN REFERENTIEL, POUR QUOI FAIRE

83

o Les rapports entre la structure-objet et la structure-sujet conduisent à une construction

progressive (et dialectique) de la recherche, qui aboutit à l’émergence de nouvelles

façons de concevoir les objets :

• La découverte de l’objet permet de mieux saisir la façon dont se sont construits,

socialement, nos modes des pensées : par la même, elle nous informe sur la

structure-sujet. C’est le principe de la récursivité.

• L’interrogation sur nos possibilités d’observer l’objet nous fait découvrir, aussi

bien nos structures de pensée, que le caractère observable de l’objet (qu’est ce que

je peux observer ?) ; l’interaction entre les deux (pensée/objet) nous informe sur le

sens que ces observations ont pour nous, en raison de notre façon d’être.

- L’approche cognitiviste offre des outils méthodologiques pour donner de la

« signification » à la démarche : l’étude systématique de certains phénomènes langagiers

(récurrence des cooccurrences, systématicité des constructions syntaxiques, etc.) permet

d’inférer les processus cognitifs mis en œuvre par les acteurs ; la mise en relation avec des

phénomènes significatifs (au sens de la statistique) inscrit ces analyses des discours dans

leur contexte : cela oriente alors notre interprétation vers les éléments de celui-ci, qui

influencent les modes d’énonciation des acteurs – en d’autres termes, en quoi les

conceptions sont-elles déterminées (au sens de la linguistique) et induites par les éléments

du contexte ?

- L’approche positiviste nous invite ensuite à analyser dans le détail les phénomènes les

plus significatifs, à creuser l’observation et par la même, à avoir une vision et une

conception plus précises de l’objet. L’étude des conceptions peut ainsi être approfondie,

mais sans prétention d’englober tous les phénomènes discursifs, chose impensable en

raison de la multitude et de la complexité de ceux-ci.

Il est important que les différences qui existent entre ces paradigmes épistémologiques

puissent s’exprimer. Mais il ne parait pas très sain que cette expression se fasse au détriment

de l’écoute des arguments réciproques et de la collaboration, car chaque approche apporte une

dimension spécifique que les autres ne peuvent traiter et un regard critique pour éviter les

solutions simplistes et les dérives scientistes. Le débat qui a eu lieu à Royaumont entre

cognitivistes et constructivistes, en particulier N. Chomsky et J. Piaget, est particulièrement

significatif à ce sujet : comment serait-il possible de se passer des apports de ces deux grands

hommes de sciences.

Page 84: UN REFERENTIEL, POUR QUOI FAIRE

84

2) Constructivisme et cognitivisme :

2-1) Le débat de Royaumont :

Les débats scientifiques, qui ont eu lieu au centre de Royaumont entre J. Piaget et N.

Chomsky, occupent une place importante dans l’histoire des sciences. Ils ont été l’occasion

d’une confrontation entre deux des principaux paradigmes scientifiques de notre époque, le

constructivisme qui, avec le structuralisme, a marqué le XXème siècle, et le cognitivisme qui

émerge après la seconde guerre mondiale, en particulier avec les espoirs suscités par l’essor

de l’informatique. Ils ont eu, pour objet, la question de l’acquisition du langage, mais, ainsi

que le fait remarquer dans ses commentaires un des deux organisateurs de ces rencontres (M.

Piattelli-Palmarini), les problématiques abordées cernent un champ bien plus complexe, en

particulier autour de la question de la « connaissance » :

« Nous sommes ici témoins moins d'une confrontation entre différentes théories du langage ou de l'apprentissage, que d'une querelle à propos des théories de la connaissance » (Centre Royaumont ; 1979 : 341).

Sans entrer dans les complexes questions qui ont été soulevées au cours de ce symposium, on

s’interrogera ici sur l’opposition entre ces paradigmes, et surtout leur complémentarité pour

étudier notre objet de recherche. Les deux auteurs présentent, au début de ce débat, leur

position, à partir de leurs travaux et approches respectifs. Le linguiste expose ainsi son

hypothèse :

« Comme pour les grammaires, un système fixe et génétiquement déterminé contraint étroitement les formes que peuvent prendre ces systèmes (de performance, développés par l’enfant). J’avancerai, en outre, l’idée que des analyses analogues pourraient s’avérer fructueuses eu égard à d’autres structures cognitives qui se développent chez l’homme » (N. Chomsky ; Centre Royaumont ; 1979 : 65).

Ce que réfute N. Chomsky, c’est la notion d’un apprentissage progressif du langage :

« Il est parfaitement vrai que nous en parlons comme d’un apprentissage, mais c’est parce que traditionnellement, on suppose que ce qui se passe dans l’esprit implique une interaction entre organisme et environnement, tandis que ce qui se passe dans le corps est de façon ou d’autre physiquement déterminé » (idem : 122).

Il fait l’hypothèse que des structures innées existent et orientent l’acquisition, certes

progressive, des différents éléments et structures linguistiques.

« Il me semble probablement plus vraisemblable (…) qu’il s’agisse de maturation progressive d’une structure (harware) spécialisée. Il me paraît très plausible que ce que nous appelons (utilisant sans doute une mauvaise métaphore) apprentissage du langage (…) implique effectivement le développement d’une structure spécialisée » (idem : 121, 122).

Page 85: UN REFERENTIEL, POUR QUOI FAIRE

85

Pour J. Piaget, le fait que des contraintes induisent la formation d’un système de

communication universel ne signifie pas, pour autant, que celles-ci soient produites par des

caractères morphologiques de l’organisme, ni qu’elles soient un produit de l’innéité :

« Il n'y a pas d'opposition franche et totale, avec une frontière délimitable, entre ce qui est inné et ce qui est acquis : toute conduite cognitive comporte une part d'innéité dans son fonctionnement, tout au moins, tandis que la structure ma paraît se construire peu à peu, par autorégulation (…) L'innéité me paraît inutile pour le but qu'on se propose, c'est-à-dire souligner la stabilité et l'importance des structures cognitives, et en particulier, du noyau fixe dans le domaine linguistique » (J. Piaget ; Idem : 99).

Dans son introduction, L. Piattelli-Palmarini présente la complémentarité des deux positions,

en s’appuyant sur les controverses qui ont alimenté les recherches en biologie. D’un côté,

l’approche génétique (au sens développement), par confrontation au monde des objets,

adaptation et processus de régulation qui conduisent à une généralisation des phénomènes :

« Les processus cognitifs apparaissent alors simultanément comme la résultante de l’autorégulation organique dont ils reflètent les mécanismes essentiels et comme les organes les plus différenciés de cette régulation au sein des interactions avec l’extérieur » (J. Piaget cité par L. Piattelli-Palmarini ; idem : 23).

De l’autre, le point de vue « rationaliste » de N. Chomsky, qui considère que la structure

cognitive est imposée par les contraintes de l’organisme de l’être humain et non par

l’environnement, c'est-à-dire que le langage trouve l’explication de ses modes d’organisation

dans la structure de notre physiologie ou de notre cerveau :

« Le présupposé fondamental du programme rationaliste (…) consiste à n’attribuer aucune structure intrinsèque à l’environnement. Il n’y a de lois d’ordre que venant de l’intérieur, c'est-à-dire que toute structure liée à la perception, qu’elle soit de source biologique, cognitive, linguistique ou autre, est imposée à l’environnement par l’organisme et non pas extraite de celui-ci. Les lois de cet ordre sont conçues comme relatives à l’espèce, invariantes à travers les époques, les individus et les cultures. L’heuristique positive de tout programme rationaliste, y compris évidemment le programme kantien, est orienté vers l’étude exhaustive et pointilleuse de la structure interne du sujet universel (Chomsky l’appelle « locuteur idéal »), à partir de données empiriques qui sont recueillies et organisées sous l’empire préalable d’abstractions pertinentes » (L. Piattelli-Palmarini ; idem : 33).

On retrouve ici le projet cartésien, du moins une conception ontologique de l’étude de

l’univers mental dont on cherche à « cerner les différents domaines », puis à « étudier les

structures de base par des méthodes spécifiques et efficaces » (idem : 34).

« Les modèles abstraits auxquels on aboutit auront, pour chacune de ces structures, valeur scientifique dans la mesure où ils seront suffisamment généraux pour saisir véritablement les caractéristiques universelles du sujet et suffisamment précis pour être opérationnels, donc falsifiables par l’expérience. Ils peuvent, qui plus est, ne pas avoir honte d’être des modèles locaux (circonscrits à un sous-domaine particulier) et exigeant (l’organisme est censé posséder des caractéristiques innées très particulières). Il faut souligner qu’une chose est d’admettre qu’il y ait des potentialités innées frustres et bonnes à tout faire (…), une autre chose est de prétendre qu’il y ait des structures innées hautement spécifiques, hautement compliquées, et qu’elles soient effectivement mises à la disposition de l’organisme » (Idem : 34).

Page 86: UN REFERENTIEL, POUR QUOI FAIRE

86

Si la position de N. Chomsky apparaît pertinente, lorsqu’elle oriente la recherche vers l’étude

des relations logiques entre la morphologie de notre organisme et les capacités psychiques

supérieures, spécifiques de l’être humain - permettant d’analyser, par là même, certaines

contraintes du langage -, est-il pour autant possible de la soutenir pour en tirer des conclusions

sur la « grammaire universelle » ? En tout cas, les deux questions sont distinctes. Ainsi les

études neurologiques permettent d’observer les zones du cerveau sollicitées, en fonction des

actions langagières ou réflexives mises en œuvre par le sujet (Dee Unglaub Silverthorn ;

2007 : 290-300). Mais, si les études physiologiques ou zoologiques nous apprendront peut-

être en quoi la morphologie de l’être humain lui a permis d’acquérir la double articulation,

spécifique du langage humain, ou si ces divers domaines de recherche scientifique

apporteront peut-être des informations pertinentes sur l’acquisition du langage, est-il, pour

autant, possible de suivre la position radicale de N. Chomsky et J. Fodor, pas toujours très

productive pour la recherche41 ? Les protagonistes de la thèse innéiste renvoyèrent plusieurs

fois l'argument qu'il n'existe aucune théorie pour expliquer le noyau fixe grammatical par un

apprentissage progressif des concepts, ni aucune expérience à discuter sur ces questions (N.

Chomsky, (p. 80, 122, 156, 170), D. Speber, (p. 128), J. Fodor, (p. 219, 220). D. Speber, en

particulier, reproche au constructivisme, « pour ce qui est de l’apprentissage du langage », de

ne pas opposer « un projet nouveau à des hypothèses anciennes, mais au contraire un projet

ancien resté à l’état de projet, à des hypothèses nouvelles et effectives » (Idem : 129).

Argument difficilement recevable quand on connaît les travaux de L. Vygotski, grand absent

de ce débat42. Les constructivistes ont, sur ce point, largement étayé leurs conceptions.

Mais on est conscient qu’une telle position s’inscrit plus dans la tradition de la pensée

scientifique européenne, influencée par la phénoménologie et le structuralisme, différente de

celle de nos collègues Outre-Atlantique, où le connexionnisme s’est largement diffusé. Faut-il

voir à cela l’influence de deux contextes économiques différents (en particulier le

développement de l’intelligence artificielle aux USA), ou encore le produit des modes de

fonctionnement distincts des universités, en particulier vis-à-vis de l’enseignement (l’école de

Genève est très impliquée dans l’étude des processus d’apprentissage) ? Peu importe ici.

41 Ce débat entre l’innéisme et le constructivisme n’est-il pas aussi insoluble que celui des philosophes modernes qui abordèrent la question de l’existence de Dieu - non seulement en raison de l’état actuel de nos connaissances scientifiques, mais aussi en raison de l’impasse tautologique dans laquelle on s’enfermerait à vouloir démontrer la légitimité de l’une par rapport à l’autre de ces deux positions ? 42 En raison de sa mort précoce, certes, mais aussi de la censure stalinienne qui n’a permis à cette théorie d’émerger en occident qu’à la fin du XXème siècle.

Page 87: UN REFERENTIEL, POUR QUOI FAIRE

87

Ces deux positions scientifiques sont tout aussi légitimes, une légitimité reposant sur

l’ensemble des travaux de ces courants de pensée, qui nous apportent des informations

scientifiques différentes, complémentaires et adaptées à notre problématique. Pour parvenir à

analyser les processus d’évaluation, nous avons besoin, dans un premier temps, de cerner un

peu plus les phénomènes qu’il convient d’observer, et le rapport entre cette recherche et les

préoccupations des professionnels. Les distinctions introduites par certains chercheurs, lors de

ce débat, ont le mérite de clarifier la façon de poser les problèmes. Par exemple G. Bateson

(idem : 126), mais surtout G. Cellérier, lors d’une réponse (idem : 135-137), amorcent

diverses interrogations au sujet de la « génétique ». L’acquisition de la compétence langagière

par les enfants est-elle un produit de la phylogénèse, de l’ontogénèse ou de la morphogénèse ?

En d’autres termes, est-elle le produit de l’histoire humaine et des conditions particulières qui

ont conduit ce patrimoine à se construire et se communiquer de génération en génération / ou

de l’auto-apprentissage du jeune humain en interaction avec son environnement / ou de

contraintes morphologiques spécifiques à la nature humaine ? La première position serait

plutôt celles des encyclopédistes, la seconde celle des psychologues généticiens, la troisième

celle des innéistes. Dans la conception de L. Vygotski et de J. Piaget, la « génétique » se

réfère plutôt à la notion de « genèse » (développement depuis les origines : phylogenèse et

ontogenèse), alors que celle de N. Chomsky fait plutôt référence à la notion biologie des

« gènes ». Dans les faits, cependant, la problématique apparaît plus complexe, ainsi que le fait

remarquer G. Cellérier. Il n’est guère possible de traiter indépendamment chaque dimension :

« Je dirai que Chomsky et Piaget admettent l’un et l’autre l’existence d’un « état initial S0 génétiquement déterminé » non vide, suivi d’une séquence d’états intermédiaires et d’un état final relativement stable, ou S8, stable tout au moins en ce qui concerne le développement observable du langage (peut-être moins stable en ce qui concerne les mathématiques). Ils admettent également l’un et l’autre qu’une partie du contenu de ces états n’est pas innée mais acquise, c'est-à-dire « apprise » dans un environnement externe caractérisé par des « problèmes ». La question classique est de savoir quelle part de contenu est innée et quelle part est acquise. Mais je pense qu’il est plus pertinent de s’interroger sur le type de contenu que sur la part de contenu » (G. Cellérier ; idem : 115).

On ne cherchera pas ici à approfondir les différentes problématiques soulevées dans ce débat,

mais seulement à discerner en quoi elles concernent la question de l’évaluation, étroitement

liée d’ailleurs à celle de l’apprentissage. Si l’acquisition d’une compétence (en l’occurrence

langagière) s’avérait purement morphologique, il n’y a pas lieu d’en favoriser l’apprentissage.

Page 88: UN REFERENTIEL, POUR QUOI FAIRE

88

Au fur et à mesure que l’organisme se développe, la compétence est acquise, elle est

préprogrammée dans notre morphogenèse. Si, en revanche, elle s’élabore progressivement

sous forme de structures mentales à partir des actions du sujet (ontogenèse), l’évaluation

devient un moyen d’apprécier le niveau d’acquisition du sujet et les difficultés qu’il rencontre

pour réajuster l’action d’apprentissage (évaluation formative). Si, enfin, elle est le produit

d’un système complexe de conceptions qui s’est construit à travers les âges, la question est de

savoir comment celui-ci est communiqué aux jeunes générations, et l’évaluation acquiert alors

une fonction en rapport avec cette action de communication. Il est clair que, problématisées

de la sorte, les trois positions sont également pertinentes. Elles s’imbriquent les unes dans les

autres et elles apportent chacune des éléments d’informations aux professionnels. Par

exemple, pour s’inscrire dans la position de N. Chomsky, on peut faire l’hypothèse que

l’amplitude des propositions de base d’une grammaire (phrase marker, indicateurs

syntagmatiques) est plus ou moins induite par les contraintes de l’empan mnésique. Mais tout

grammairien sait fort bien que la forme structurelle de ces propositions est très diversifiée

selon les cultures, et que chacune d’entre elles est le produit d’une longue histoire. Enfin,

quelle qu’en soit la structure, l’acquisition n’est jamais spontanée et elle résulte d’un

processus d’apprentissage, tout au moins de maturation. Le professionnel est donc confronté à

ces trois dimensions : à la fois, l’étude des contraintes morphologiques pour adapter son

action aux possibilités éducatives de l’individu, à la fois l’observation de l’évolution

progressive (ontogénétique) de son public pour ajuster les conceptions (connaissances) qu’il

souhaite lui communiquer, à la fois l’histoire de ces connaissances et la diversité des cultures

pour donner du sens à son action éducative et prendre en compte les différences de son public.

Les professionnels, et par là même les sciences de l’éducation, n’ont donc pas lieu de

privilégier une position épistémologique par rapport à une autre, mais plutôt d’analyser

comment s’articulent ces différentes dimensions.

2-2) La question du concept :

Cette dialectique entre les conceptions instituées à travers l’histoire (connaissances) et

la formation ontogénétique de l’intelligence chez l’enfant a été un objet d’étude pour L.

Vygotski (1934). Pour cet auteur, le concept résulte de l’articulation entre l’acquisition du

langage et le développement des schèmes opératoires. B. Schneuwly résume bien cet aspect

de la pensée de l’auteur russe :

Page 89: UN REFERENTIEL, POUR QUOI FAIRE

89

« L’intervention de signes transforme radicalement l’activité et fait apparaître de nouvelles fonctions psychiques et de nouvelles formes d’activité. Prenons un exemple que Vygostky a analysé expérimentalement : la formation des concepts. Cette capacité se développe à partir de l’activité de classification. Les mots et leurs significations, c'est-à-dire des signes sociaux extérieurs, interviennent dans ce processus en le soutenant et le modifiant. Les enfants deviennent de plus en plus capables de les utiliser pour contrôler leur activité de classification. Le mot fonctionne finalement comme moyen de contrôle volontaire de l’attention, de l’abstraction, de l’analyse des particularités des objets, de synthèse et de symbolisation. A l’aide de médiateurs, les mots et leurs significations, plusieurs fonctions primitives (classification, analyse, symbolisation, synthèse) sont intégrés en une nouvelle fonction complexe : la formation des concepts » (B. Schneuwly & J.P. Bronckart ; 1985 : 173).

Le « concept » est donc ici conçu comme le condensé d’un ensemble d’opérations, de

généralisations et de structurations, de type à la fois langagier, à la fois psycho-sensori-

moteur. Mais le concept peut être aussi conçu dans son acception linguistique de « signifié »

d’une forme phonique ou graphique (F. De Saussure ; 1916 : 28 à 35 et 97 à 103). Le

« concept », dans ce cas, n’est ni le signe exprimé, ni l’objet dont il est question, il est le

produit du système langagier, construit pour exprimer la nature de l’objet. Mais F. De

Saussure reste cependant assez imprécis sur cette notion de « concept », il considère que

l’étude de cette notion relève plus de la psychologie que la linguistique :

« La langue est un système de signes exprimant des idées, et par là, comparable à l’écriture, à l’alphabet des sourds-muets, aux rites symboliques, aux formes de politesse, aux signaux militaires, etc. Elle est seulement le plus important de ces systèmes. On peut donc concevoir une science qui étudie la vie des signes au sein de la vie sociale ; elle formerait une partie de la psychologie sociale, et par conséquent de la psychologie générale ; nous la nommerons sémiologie… C’est au psychologue à déterminer la place exacte de la sémiologie ; la tâche du linguiste est de définir ce qui fait de la langue un système spécial dans l’ensemble des faits sémiologiques » (1916 : 33).

La tradition scientifique européenne se démarque ici encore de la tradition américaine : pour

F. De Saussure, les questions posées lors du symposium de Royaumont ne concernent pas les

linguistes. Mais cette posture, qui a été très productive pour la linguistique moderne, a aussi

mis entre parenthèses, en Europe, la recherche sur la construction de la signification, au moins

jusqu’à la réintroduction de la sémiotique et de la pragmatique à la fin des années soixante.

C’est pourtant cette position de l’auteur genevois qui a ouvert la voie à la sémiologie, dont

l’approche de L. Vygotski est une composante. Le « concept » apparaît donc ici comme un

produit du système langagier. Il acquiert sa signification à travers les relations mises en œuvre

lors de la production des actes langagiers. Il permet ainsi de nommer les choses du monde

sensible : il fixe une signification assez stable pour exprimer les représentations de ce monde.

Page 90: UN REFERENTIEL, POUR QUOI FAIRE

90

Il n’y a pas lieu de le réduire, dans cette acception, aux seules généralisations de la période

opératoire, ainsi que l’a fait l’auteur russe43. L’articulation dialectique qui s’opère entre les

signifiants langagiers (les sons émis) et les généralisations issues de l’activité sensori-motrice

s’instaure certainement dès les premiers apprentissages du langage : elle constituerait, de ce

fait, un fondement essentiel sur lequel se construisent nos systèmes de signification et de

référence pour nommer les choses. Si nous généralisons les découvertes de L. Vygotski à

toute acquisition du langage, y compris dans la petite-enfance, elles vont à l’encontre des

thèses de N. Chomsky sur l’innéité de la « grammaire universelle » - si l’on entend, bien

entendu, derrière ce terme, les structures universelles de la syntaxe (deixis, hiérarchie

syntaxique, prédication, relations attributives) et non les contraintes morphologiques qui

contraignent ces constructions syntaxiques (phonologiques, mnésiques). De ces hypothèses,

on peut abstraire quelques conséquences logiques : 1° à partir du moment où on admet les

thèses de L. Vygotski, d’une part un développement autonome de l’intelligence, de l’autre des

conceptions qui se sont construites à travers l’histoire et qui sont communiquées aux jeunes

générations, l’évaluation apparaît clairement comme un moyen de réajuster l’apprentissage

dans le sens des conceptions culturellement admises. N’est-ce pas ainsi que se structurent les

pratiques de l’évaluation scolaire, du moins qu’elles revendiquent leur légitimité ? 2° Mais

ces pratiques pourraient-elles acquérir du sens pour les jeunes générations (et pour les

professeurs qui les pratiquent), si elles ne s’ancraient pas dans des mécanismes profonds qui

s’instaurent dès la petite enfance et qui génèrent cette signification. Les expériences de J.S.

Bruner (1983) permettront d’étayer ce point de vue. Cet auteur a montré l’importance de

l’interaction, en particulier avec la mère, dans la construction primitive du langage :

« Le langage s’acquiert en tant qu’instrument de régulation de l’activité conjointe et de l’attention conjointe. Indiscutablement, sa structure même reflète ces fonctions et son acquisition en est imprégnée. (…) Ce qu’il peut y avoir d’inné dans l’acquisition du langage, ce n’est pas une innéité linguistique ; ce sont quelques caractéristiques spécifiques de l’action humaine et de l’attention humaine qui permettent le décodage du langage à partir de ses utilisations » (1983 : 210).

Il existe certainement des caractères innés qui conduisent l’enfant à porter son attention sur

certains objets. D.W. Winnicott (1971), en particulier, a étudié certaines relations primaires

avec la mère et analysé la fonction de l’objet transitionnel pour se décentrer. Mais, pour J.S

Bruner, ce sont surtout les interactions avec la mère, échanges, jeux spontanés, qui induisent

les processus et systèmes de relations qui serviront de référence au langage :

43 On retrouve cette même acception limitative du concept, lors de la critique que H. Putnam adresse à J. Piaget (Centre Royaumont ; 1979 : 430, 431), mais avec une ouverture qui va dans le sens de l’hypothèse présentée ci-

Page 91: UN REFERENTIEL, POUR QUOI FAIRE

91

« Le langage s’ajuste à l’organisation du traitement de l’information par l’attention perceptive. (…) Les catégories primaires de la grammaire se rapportent davantage aux actions, en tant qu’effectuées par des agents, génératrices d’effets de diverses sortes, dans des lieux particuliers, etc. » (1983 : 215).

C’est ainsi que les structures universelles de la grammaire s’inscrivent dans des rapports de

référence avec l’univers de la perception. J.S. Bruner (1983 : 221, 222) nous en cite plusieurs

exemples : segmentation, positions, priorités d’occurrence, règles de substitution, inversion

des places, routines. Ainsi le langage acquiert de la signification à partir du moment où il

s’inscrit dans les habitudes ou les jeux de l’enfance. La deixis se structure de façon très

précoce : elle sert ensuite d’ancrage au discours par rapport à la situation d’énonciation.

« L’ontogenèse de l’interaction sociale médiatisée sémiotiquement ne commence pas par les significations généralisées, catégorielle des mots, mais par les références indexicales. Les adultes entraînent les jeunes enfants dans des interactions sociales par cette fonction indexicale, qui permet une intersubjectivité à propos des objets perceptivement présents » (J.V. Wertsch dans B. Schneuwly & J.P. Bronckart ; 1985 : 150, 151).

On pourrait, de la même façon, analyser la mise en place de la hiérarchie syntaxique, de la

détermination attributive ou de la prédication fonctionnelle. Chaque nouvelle structure vient

ainsi se construire à partir de celles qui sont déjà acquises, en rapport avec les situations

d’énonciation et les représentations de l’univers. Quelles sont les conséquences déductibles de

ces travaux ? Si la signification logique des structures syntaxiques était le produit de l’innéité,

comment se construiraient les rapports de référenciation avec les représentations du monde

sensible ? N’est-ce pas en raison de leur inscription dans le jeu des acteurs que les

propositions (phrase marker) ont du sens pour l’action ? La signification d’une proposition

pourrait-elle s’instituer sans la récurrence des situations de communication, l’adaptation de

l’individu à celles-ci et les différentes corrections opérées par les adultes et les pairs ? Nos

méthodologies d’analyse des discours reposent effectivement sur un postulat implicite : le

fondement de l’universalité des structures syntaxiques ne saurait se réduire à des contraintes

morphologiques liées à notre nature, sans prendre en considération la fonction des modes de

communication qui ont acquis un sens, stable, institué, et reconnu par tous les membres de la

communauté culturelle. Comment, dans le cas contraire, serait-il possible de déduire un

contenu sémantique et logique à partir d’une forme d’expression proposée par un acteur ?

dessus : « le concept de conservation dans sa plénitude consiste dans la capacité d’utilisation du symbolisme avec la complexité du langage ».

Page 92: UN REFERENTIEL, POUR QUOI FAIRE

92

Pour donner du sens aux énonciations d’un acteur à partir des structures syntaxiques et

des concepts qu’il a mis en œuvre, il nous faut bien nous référer à des structures qui ont un

sens communément admis (représentations, schémas, modes de communication). Certes les

contraintes morphologiques de notre cerveau interviennent dans la forme que prennent nos

modes de communication. J. Piaget lui-même ne les exclut pas. Mais comment les relations

humaines pourraient-elles se fédérer autour de représentations communes sans apprentissage ?

Et comment le jeune humain pourrait-il se réapproprier, en si peu de temps, le patrimoine

culturel de l’humanité, qui a mis des millénaires à se constituer ? Par conséquent aucun

paradigme ne saurait être exclu a priori. Ils ont chacun une fonction différente qu’il est

intéressant d’identifier, pour la suite de cette thèse.

2-3) La question des fondements neurophysiologiques :

Si la thèse innéiste apparaît en contradiction avec bien des travaux (L. Vygotski, J.S.

Bruner, D.H. Hymes), cela ne signifie pas, pour autant, l’inanité des problématiques

cognitivistes posées par N. Chomsky autour du concept de compétence et des

questionnements sur le fonctionnement du SNC (système nerveux central). Ce dernier concept

fait référence aux travaux des physiologistes. On constate ici le retour des cognitivistes vers

l’hypothèse gnoséologique que J.L. Le Moigne a qualifié de « ontologique ». Le linguiste

cherche à se fonder sur des observations physiologiques pour interpréter des faits observés

dans sa propre discipline. Par ses références au cartésianisme, N. Chomsky (1966/1969) ancre

ses recherches dans la tradition philosophique moderne et reprend les postulats implicites de

la physiologie qui a pris son essor au XVIIème et XVIIIème siècles. Mais, en raison de ces

présupposés, il fait l’impasse sur tout le questionnement phénoménologique qui a envahi

l’Europe à la fin du XIXème siècle. Or, si l’étude des fonctionnements du SNC (système

nerveux central) apparaît pertinente, les progrès actuels de la physiologie conduisent plutôt à

postuler à une variété très conséquente de phénomènes au cours de chacune de nos opérations,

et l’implication de nombreuses connexions entre les diverses parties du cortex cérébral. Une

approche trop mécaniste de ces problèmes ne peut donc aboutir qu’à des impasses. Il n’y a

donc pas lieu de se priver d’une démarche plus globale et intuitive, dialectique et réflexive.

D’ailleurs la proposition de N. Chomsky sur le dispositif générateur de grammaire comme

résultat d’une « maturation progressive d’une structure (hardware) spécialisée » montre

rapidement ses limites, ainsi que le fait remarquer J.P. Changeux :

Page 93: UN REFERENTIEL, POUR QUOI FAIRE

93

« En tant que neurobiologiste, je suis tout à fait d’accord avec Chomsky lorsqu’il écrit que « le développement de l’acquisition du langage devrait s’étudier comme le développement de n’importe quel autre organe ». Mais c’est aller trop loin que de dire, comme il le fait dans la discussion, que « l’environnement n’introduit pas plus de complexité dans le cerveau que dans d’autres organes ». La métaphore cerveau-foie peut s’avérer utile pour un public de linguistes, mais elle est trompeuse pour des psychologues et des biologistes. En réalité, le neurone en tant que cellule est infiniment plus complexe qu’un hépatocyte. Par ses prolongements axonaux et dendritiques, il peut entrer en relation avec souvent plusieurs milliers d’autres cellules, ce que manifestement une hépatocyte ne peut pas faire. Les fonctions essentielles du système nerveux, et en particulier la capacité d’apprendre sont déterminées par ces relations intercellulaires » (J.P. Changeux dans Centre Royaumont ; 1979 : 277).

La problématique est ici mieux positionnée par le biologiste. Pour lui, le plus surprenant est

qu’une « faible quantité d’information génétique » (un nombre limité de gênes) puisse

engendrer un cerveau aussi complexe (idem : 281). Peut-être est-ce que la complexité de

l’apprentissage du langage est moins à rechercher dans l’organe, que dans l’articulation

complexe qui se développe en raison de la multitude des connexions entre les différentes

sphères au sein du SNC. Qu’il y ait certaines zones du SNC qui soient centrales pour

l’utilisation du langage, cela ne fait plus l’ombre d’un doute : les aires de Broca et de

Wernicke ont été identifiées depuis longtemps. Par ailleurs, en raison des moyens modernes

comme la tomographie (PET scan) ou la résonance magnétique nucléaire (RMN), il est

aujourd’hui possible d’observer le cerveau en activité. Mais, justement, aucune de ces zones

n’est déterminante à elle seule : la lésion de l’une d’entre elle, ou de la liaison entre les deux

(fascicule arcuatus) entraîne des pathologies différentes.

« Les patients présentant une lésion de l’aire de Wernicke ne peuvent pas comprendre le langage, qu’il soit parlé ou écrit. Les patients présentant une lésion de l’aire de Broca n’ont pas de problème de compréhension mais ne peuvent pas répondre correctement » (D. U. Silverthorn ; 2007 : 300) Avec l’« interruption du fascicule arcuatus, donc de la connexion de l’aire de Wernicke et de l’aire de Broca, la communication verbale est conservée, mais le malade ne peut répéter les mêmes mots ni les répéter quand on les lui dit » (R. F. Schmidt ; 1995/1999 : 60).

Par ailleurs, si le PET scan met en valeur que l’aire Wernicke est plus sollicitée au moment

d’entendre des mots et l’aire de Broca au moment de les dire, l’action de ces zones est

couplée avec le cortex auditif dans le premier cas, le cortex moteur primaire dans le second et

bien d’autres zones sont activées dans une moindre mesure (en particulier, mais pas

seulement, une partie de l’aire de Broca et du cortex primaire dans le premier cas, de la zone

de Wernicke et du cortex auditif dans le second). Les observations plaident donc plutôt pour

une conception de type coordination sensorimotrice entre les neurones, dans la lignée des

théories de J. Piaget, que pour une conception d’un organe qui se développerait de façon

autonome, à l’instar de la thèse chomskyenne.

Page 94: UN REFERENTIEL, POUR QUOI FAIRE

94

Mais notons tout de même, au crédit des thèses du linguiste, que, pour la formation de

mots, c’est surtout le cortex préfrontal qui est sollicitée, cortex qui est particulièrement

développé chez l’humain. L’étonnante plasticité du cerveau et l’existence de certains

neurones qui ne se trouvent que dans le SNC (interneurones anaxoniques, interneurones

multipolaires) laissent ouvertes bien des perspectives de liaisons synaptiques entre les

structures neuronales déjà existantes, sans intervention de la perception (intéro-, extéro- et

priorio-). Certaines structures conceptuelles pourraient ainsi se former, à partir de concepts

déjà existants, sans être en rapport de référence immédiat avec le système sensori-moteur.

Cette conception expliquerait alors l’existence de concepts plus abstraits que d’autres ou des

taxinomies sémantiques. Cette hypothèse demande cependant à être précisée. Les biologistes

distinguent « trois grandes aires associatives présentant des capacités d’intégration »

différentes (F. Schmidt ; 1995/1999 : 60) : 1° sur la partie centrale postérieure, le cortex

parieto-temporo-occipital, qui se trouve entre le cortex visuel, le cortex auditif et le cortex

somato-sensoriel, et par ailleurs à proximité de l’aire de Wernicke ; 2° le cortex préfrontal

associatif (dans lequel semblent se former les mots) qui est en relation avec le cortex pré-

moteur ou associatif-moteur et à proximité de l’aire de Broca ; 3° le système limbique qui

comprend l’amygdale et le gyrus cingulaire, qui jouent un rôle dans l’émotion et la mémoire,

et l’hippocampe, impliqué dans l’apprentissage et la mémoire. A partir des deux premières

aires associatives de notre cerveau (autres que le système limbique), il est possible, du moins

à titre d’hypothèse, d’inférer deux types de processus cognitifs, un qui serait plutôt en rapport

avec la coordination sensorimotrice (1°), un autre qui serait plus spécifique à la formation des

concepts, sur le plan grammatical aussi bien que sémantique (2°). Mais cette distinction entre

les deux premières aires ne correspond guère à l’opposition des ergonomes entre une mémoire

déclarative et une mémoire procédurale (pages 256 à 259). D’après D.U. Silverthorn (2007 :

298, 299), la seconde « ne demande pas de processus conscient pour être créé et pour se

souvenir » et impliquerait essentiellement « la région de l’amygdale dans le système

limbique et le cervelet », alors que « les tâches cognitives de haut niveau » de la première se

situeraient dans « le lobe temporal ». Là encore l’étude anatomique du cerveau plaide plutôt

pour les thèses de la psychologie génétique. Tout d’abord l’hippocampe est situé à

proximité du cortex parieto-temporo-occipital, ce qui conforte la perspective d’une

coordination, dans cette zone, qui pourrait être à l’origine de la formation des

schèmes psycho-sensori-moteurs, préconisée par J. Piaget. Ensuite les deux aires associatives

sont reliées entre elle par le gyrus cingulaire, dont il conviendrait d’analyser la fonction

émotive pour comprendre la relation entre affects, schèmes sensori-moteurs et concepts.

Page 95: UN REFERENTIEL, POUR QUOI FAIRE

95

Enfin l’importance de l’articulation entre l’aire de Broca et celle de Wernicke, à travers le

fascicule arcuatus, joue certainement un troisième rôle, différent du précédent, dans la

formation du langage. La formation du langage résulterait donc d’une multitude de

phénomènes et les observations physiologiques, du moins anatomiques, plaident plutôt pour

une complexité des différents processus à l’origine de nos constructions conceptuelles sur

notre environnement. Cela n’exclut pas la possibilité d’une structuration autonome au sein de

chaque aire, en particulier une aire du langage qui pourrait se développer, indépendamment de

l’activité sensori-motrice.

Il n’est pas question, dans cette thèse, d’approfondir ces discussions

neurophysiologiques. Une telle recherche nécessiterait une équipe pluridisciplinaire composée

de physiologistes, de linguistes et de psychologues. Mais on peut déjà formuler quelques

postulats pour la suite de la recherche :

1° L’hypothèse de N. Chomsky, d’une aire plus spécifique à la formation des

concepts, n’est pas à exclure. En raison de la plasticité du cerveau et du potentiel

neurologique humain, on peut envisager la formation de processus cognitifs

spécifiques, qui favoriserait un développement autonome de nos conceptions à partir

de structures déjà existantes.

2° Mais cette hypothèse gnoséologique est loin de remettre en question les conceptions

sensori-motrices des psychologues généticiens (J. Piaget, H. Wallon, L. Vygotski) et

de plaider pour l’innéisme des acquisitions langagières. Il semble plus probable que

ces deux modes de pensée cohabitent dans notre cerveau : des schèmes sensorimoteurs

et des connexions cérébrales. Elles se construiraient dans des aires spécifiques

d’activité, avec de multiples modalités d’interférence entre elles.

On s’oriente ainsi vers un postulat qui intègre la conception cognitiviste de N. Chomsky, mais

avec un ensemble de présupposés beaucoup moins restrictifs. Les débats entre cognitivistes et

constructivistes ouvrent ainsi des perspectives intéressantes, en termes de formulation

d’hypothèses. Il serait prématuré d’en tirer des conclusions sur l’acquisition du langage ; les

débats de Royaumont ont mis en exergue la complexité de ces questions. En revanche il est

possible d’identifier deux niveaux d’analyse des processus cognitifs impliqués dans l’acte

langagier : d’une part, les processus syntaxiques et sémantiques qui structurent et fondent nos

conceptions, de l’autre, les processus qui articulent la parole et l’aperception du monde

sensible (schèmes). Les conséquences de cette position seront exploitées dans la partie

méthodologique.

Page 96: UN REFERENTIEL, POUR QUOI FAIRE

96

2-4) La notion de postulat hypothétique :

Les débats de Royaumont n’ont pas seulement pour intérêt d’orienter l’approche

méthodologique, ils ont aussi mis en valeur un phénomène épistémologique essentiel. Toutes

les disciplines scientifiques se structurent autour de postulats qui s’avèrent souvent, sur le

long terme, hypothétiques. La vivacité de ces débats n’a-t-elle pas exprimé, en grande partie,

l’importance pour les chercheurs de ces postulats qui fondent souvent l’ensemble de la

méthodologie. J. Piaget s’est inspiré de ses études zoologiques pour construire ses paradigmes

expérimentaux et mettre en valeur l’adaptation des individus à leur environnement. Bien

entendu, il a intégré de nombreuses dimensions empruntées aux autres sciences, en particulier

la psychanalyse et la psychologie expérimentale. Mais le couple assimilation /

accommodation, qui produit l’adaptation intelligente, reste fondamental dans sa démarche. N.

Chomsky, lui, s’inscrit dans le paradigme cognitiviste. Son programme de recherche est

influencé par la conception connexionniste, la logique formelle et l’intelligence artificielle.

Au regard des arguments de chaque partie, la polarisation réciproque semble provenir d’une

interprétation des conceptions de l’adversaire à partir des histoires propres à chaque camp,

sans prendre en considération ni les fondements gnoséologiques, ni les partis pris

méthodologiques de l’autre camp. Ainsi N. Chomsky perçoit les arguments des généticiens à

travers le prisme du béhaviorisme, à qui il reproche à juste titre sa conception d’une

acquisition progressive du langage, en contradiction avec certaines observations de perte, puis

de réappropriation du langage. J. Piaget, lui, perçoit la proposition des cognitivistes comme

une résurgence des thèses associationistes, de type pavloviennes44. Mais les cognitivistes ne

prennent pas en compte le fait que les psychologues généticiens conçoivent l’apprentissage

comme une découverte de l’environnement et une adaptation progressive au monde sensible,

et non comme un conditionnement volontaire préconisé par les théories béhavioristes : est-il

possible de nier que l’être humain soit obligé de s’adapter à son univers et que, phylo-

génétiquement autant qu’ontologiquement, il le découvre petit à petit ? Les constructivistes,

eux, ne perçoivent pas que l’associationnisme, chez les linguistes générativistes, concernent

essentiellement la signification des concepts, et non pas les réflexes conditionnés comme dans

la théorie d’I.P. Pavlov. Là encore peut-on nier nos mécanismes de recherche d’une

signification d’un mot inconnu, soit par association des unités qui le composent (racine,

préfixe, suffixe), soit par intégration du mot dans des structures syntaxiques normalisées ?

44 D.U. Silverthorn n’utilise-t-il pas, pour parler des aires associationistes, les exemples d’I. Pavlov (2007) ?

Page 97: UN REFERENTIEL, POUR QUOI FAIRE

97

Les postulats sont souvent construits à partir d’évidences, perceptibles par tout le

monde, et structurés de façon à favoriser l’expérimentation. Aussi longtemps que les

expériences renforcent le postulat, celui-ci n’a pas de raison d’être remis en question. Mais

ces postulats sont hypothétiques et il est toujours possible de les interroger au regard des

données qui s’accumulent. Le postulat de l’innéité de la « grammaire universelle » a conduit

N. Chomsky dans des pistes fructueuses pour étudier les structures grammaticales et la

logique profonde qu’elles expriment. Pourtant, les débats de Royaumont l’ont souligné, il est

tout à fait hypothétique. Au terme de ceux-ci, il n’est ni infirmé, ni confirmé. Un postulat

n’est pas une simple hypothèse, il est étayé par de nombreux travaux : par exemple, ceux des

neurosciences pour N. Chomsky. Mais ce caractère n’est pas suffisant pour le différencier. Il

ne peut être considéré comme postulat qu’à partir du moment où il introduit de nombreuses

recherches autour d’un objet commun, qui convergent en un système cohérent

d’interprétation. Par ailleurs il contribue à déterminer des hypothèses et il fonde la

méthodologie : par exemple, il n’est possible d’abstraire une interprétation d’un texte qu’à

partir du moment où on reconnaît l’existence d’une logique induite par une « grammaire

universelle », ou de conclure à une action intelligente qu’en intégrant l’idée d’une

« adaptation » de l’individu à son univers. On pourrait alors objecter le caractère tautologique

des postulats. Tout comme une hypothèse focalise l’attention sur certains phénomènes au

détriment d’autres, le postulat détermine la validité des procédures méthodologiques utilisées

à partir de la cohérence des résultats produits par les diverses expériences, autour d’un même

ensemble de phénomènes. Mais cette réduction n’est-elle pas propre à tout travail scientifique

(cf. T.S. Kuhn ; 1962) ? Il s’agit donc plutôt d’interroger en permanence le caractère

hypothétique du postulat, au cours des recherches, pour y déceler les contradictions et les

paradoxes. En ce sens tout postulat est voué à évoluer.

Le postulat central de cette thèse se décline autour des deux postulats, constructiviste

et cognitiviste. Il existe deux types de processus cognitifs langagiers bien différents, un qui

permet à l’individu de s’adapter à son univers sensible, sur un mode sensori-moteur, et un qui

conduit à la formation de ses concepts, sur le mode de l’association et de la structuration

syntaxique normalisée. Ceux-ci se développent dans des aires autonomes de notre cerveau et

ils sont en interaction entre eux. Les postulats des constructivistes sont valides, pour le

premier type de processus, ceux des cognitivistes, pour le second. Les postulats cognitivistes

offrent des outils pour étudier la structure profonde (le contenu) à partir de l’expression des

éléments langagiers collectés en surface (discussions, textes, réponses écrites ou orales).

Page 98: UN REFERENTIEL, POUR QUOI FAIRE

98

Ils constituent le fondement des principes méthodologiques de l’analyse des discours et des

contenus (cf. partie III). Les postulats constructivistes nous guident pour analyser la relation

entre le discours et l’action, soit celle qui est vécue (la situation d’énonciation), soit celle qui

est décrite (représentation du réel). Il est ainsi possible d’interroger la construction de la

référence avec le monde sensible. Les relations entre ces deux types de processus sont

complexes. Elles empruntent différents canaux et reposent sur des processus cognitifs

diversifiés : soit de type répétitif et mémoriel en raison des fonctions différentes entre

substance blanche (véhicule) et substance grise (coordination et stockage) du cerveau45, soit

de type affectif en raison du rôle du système limbique, soit de type comportemental en raison

des systèmes modulateurs diffus (noradrénaline, sérotonine, dopamine, acétylcholine). Par

conséquent, pour analyser les interactions entre ces deux types de processus cognitifs, seule

une démarche intuitive et analytique, de type phénoménologique, apporte le recul nécessaire

pour faire progressivement le tri entre les diverses aperceptions, sensations et sentiments qui

s’imbriquent les uns dans les autres.

3) Chronologie des études :

Le choix de la démarche descriptive conduit la recherche vers un approfondissement

progressif de différents domaines de connaissances scientifiques qui interfèrent les uns par

rapport aux autres, pour expliquer et fonder les processus cognitifs qui sont en jeu. La

conception de l’objet de recherche, le Référentiel, est déterminée, dans un premier temps, par

l’intérêt de l’étude : les préoccupations des milieux professionnels et les problématiques des

sciences de l’éducation (chapitre 5). Mais elle est aussi le produit d’un ensemble cohérent de

connexions entre les différents concepts, qui signifient des objets de recherche identifiables et

des processus cognitifs observables : critères, indicateurs, etc. (chapitre 7). Tous ces concepts

ont une cohérence sémantique tautologique (principe des définitions qui se renvoient les unes

aux autres). De ce fait, ils n’ont pas de sens en dehors des processus de référence qui les

ancrent dans les systèmes de communication et la pratique des acteurs (chapitre 6). La

méthodologie d’analyse des discours (chapitres 8, 9 et 10) avait donc à prendre en compte ces

différentes contraintes : à la fois, favoriser l’observation des échanges langagiers (ou extra-

langagiers46), à la fois donner du sens à cette collecte de données en fonction de la situation.

45 Certains de ces processus ont été mis en valeur par les cognitivistes (par exemple, A. Baddeley ; 1990/1992). 46 Ce second aspect est seulement évoqué ici : il a souvent été pris en considération pour analyser certains phénomènes, mais il n’a fait l’objet d’aucun traitement expérimental.

Page 99: UN REFERENTIEL, POUR QUOI FAIRE

99

3-1) Micro et macrophénomènes, Référentiel et référentiels :

L’étude de l’objet Référentiel justifie ainsi une double approche (dialectique), mise en

exergue au paragraphe précédent : identifier, à travers les discours des acteurs, des éléments

observables, à partir de protocoles assez rigoureux ; intégrer ces microphénomènes dans des

ensembles phénoménologiques globaux, afin d’apporter aux professionnels des informations

pertinentes, en rapport avec les concepts généraux qu’ils ont l’habitude d’utiliser. La

pertinence de ces informations peut se situer aussi bien au niveau des microphénomènes (les

processus cognitifs inconscients qui sont appliqués au matériel langagier, ou un sens plus

opératoire de certains concepts généraux : argumentation, cohérence, positionnement) qu’au

niveau des macrophénomènes : la fonction des référentiels dans la communication entre pairs.

Mais, pour cette problématique aussi, l’intérêt est dédoublé : la logique implicite n’est pas la

même si nous analysons la façon dont l’outil Référentiel nous sert dans la communication

avec les collègues (autres professeurs, examinateurs au cours des régulations, lors des

épreuves) ou si nous nous intéressons à la fonction des référentiels implicites au sein des

milieux professionnels (cf. J. Leplat, page 258). Dans ce dernier cas, on englobera, dans la

notion de référentiel, divers phénomènes qui relèvent de la représentation : schémas-type

implicites communs (cf. A. Schutz, page 200 à 205), cadres de référence adaptés aux

situations (cf. E. Goffman, pages 208 à 221), superstructures culturelles (cf. M.F. Ehrlich,

pages 405 à 409). Les référentiels sont définis ici comme des structures cognitives, qui

instaurent des rapports de sens entre les microphénomènes cognitifs et les situations qui

justifient leur existence. On introduit ainsi un niveau d’analyse entre microphénomènes et

macrophénomènes : l’articulation entre les processus de signification et de référenciation.

Pour qu’une forme d’expression d’un acteur / émetteur (par ex., un candidat) ait du sens pour

un autre acteur / récepteur (par ex., un examinateur), elle doit avoir de la signification pour les

deux acteurs, c'est-à-dire faire partie d’un patrimoine culturel commun (par ex., la langue).

Mais aussi il est important que le récepteur puisse la rapporter / la confronter à la situation

vécue (interaction en cours) ou représentée (sujet de la discussion), afin d’apprécier dans

quelle mesure elle est pertinente. Par exemple, si un candidat se met à chanter pendant une

épreuve de mathématiques, cela ne sera pas forcément bien compris ; la même attitude peut

être adaptée lors une épreuve artistique, voire, dans certaines conditions, lors d’une épreuve

de littérature ou de langue. Cette confrontation à la situation décrite ou vécue est qualifiée de

« référenciation » par les sémiologues. Quelle fonction assument les référentiels au cours de

ces processus ? Et comment ces phénomènes structurent-ils les situations d’évaluation ?

Page 100: UN REFERENTIEL, POUR QUOI FAIRE

100

Nous apercevons ici l’intérêt de différencier ces référentiels du Référentiel, tel qu’il est conçu

par les sciences de l’éducation (cf. introduction). Le Référentiel peut englober plusieurs

référentiels qu’il convient de décoder. Par ailleurs, souvent, des référentiels implicites sont

mis en œuvre, qui ne sont pas pris en compte par le Référentiel : soit l’évaluateur considère

essentiel de les intégrer dans son jugement, soit, tout simplement, ils sont indispensables pour

donner du sens aux consignes du Référentiel, c'est-à-dire pour l’ajuster aux pratiques des

acteurs ou aux conditions spécifiques de la situation.

Quelques exemples pour illustrer ces différents niveaux de la problématique :

Microphénomènes : Qu’est-il possible d’observer dans un écrit ou un échange langagier ? Est-

il possible, à partir de ces observations, d’inférer des compétences, des conceptions, des

représentations ? Auquel cas, dans quelles conditions ?

Macrophénomènes : Quel est le sens de l’acte d’évaluation ? Pourquoi a-t-il de l’importance

pour les milieux professionnels ? Qu’est-ce qui est en jeu au cours de ces échanges ? Quel est

l’intérêt d’élaborer des Référentiels ?

Phénomènes de signification et de référenciation : Comment les référentiels guident-ils nos

raisonnements, nos échanges langagiers ? Comment un argument devient-il un critère ?

Comment construisons-nous les rapports entre le discours et les situations auxquelles il est

fait référence ? En fonction de ces contraintes, est-il possible d’harmoniser nos systèmes de

référence pour appréhender les phénomènes de communication qui ont lieu au cours des

interactions évaluatives ? Le cas échéant, comment ?

Ces différentes problématiques peuvent-elles être traitées empiriquement sans clarifier

les relations entre processus de la signification et de la référence ? Il y a toujours un risque

d’abstraire des conclusions d’une démarche empirique qui ne serait pas suffisamment fondée

sur des concepts qui signifient nos observations. L’intuition est certes indispensable au cours

de la recherche, mais elle peut aussi nous induire en erreur quand elle n’est pas alliée à une

démarche analytique qui précise l’articulation des phénomènes perçus (principe de la

phénoménologie). Inversement une approche conceptuelle qui n’est pas confrontée aux

exigences du labeur empirique peut-elle devenir opératoire ?47 L’étude d’un objet de

recherche aussi complexe, en raison du caractère abstrait du concept, a justifié à la fois une

approche plus globale, pour repositionner les phénomènes dans leur contexte, et une approche

analytique, pour les décortiquer afin de pouvoir les observer.

47 Ces deux critiques sont fréquemment formulées dans le domaine des sciences. On les retrouve, pour les premières, à travers les critiques de P. Bourdieu et son équipe (1968) à l’encontre de la sociologie traditionnelle, pour les secondes, dans celles de G. Mounin (1970) à l’encontre de L. Hjelmslev.

Page 101: UN REFERENTIEL, POUR QUOI FAIRE

101

3-2) L’articulation dialectique de la recherche :

C’est cette double approche, globale / systémique d’une part, analytique /

phénoménologique d’autre part, qui a induit la structuration en trois propos de chacune des

parties qui vont suivre, à savoir la revue de la littérature, la méthodologie et les expériences.

Ce découpage se décline comme suit : un premier propos qui pose le contexte de la recherche

et les diverses problématiques qui ont émergé dans chaque champ : celui des sciences de

l’éducation (chapitre 5), de l’analyse des discours (chapitre 8) et du secteur professionnel de

l’animation (chapitre 11). Puis le second et le troisième propos alternent 1° une démarche

analytique qui vise à approfondir notre connaissance des objets de recherche : référentiels,

critères et indicateurs (chapitre 7), unités du discours (chapitre 10) et 2° une démarche plus

globale pour offrir une aperception générale des systèmes et processus mis en jeu : les objets

de l’évaluation et la modélisation des référentiels implicites (chapitre 6), les structures de la

signification et de la référence (chapitre 9). On obtient ainsi trois types de propos :

1) Un cadre général où sont posés les problèmes en fonction des préoccupations pratiques ;

2) Une approche phénoménologique / analytique qui vise à décortiquer les phénomènes ;

3) Une approche globale / systémique qui modélise ces microphénomènes et offre ainsi un

cadre de référence à l’interprétation.

Dans la dernière partie, les deux expériences seront aussi introduites par une recherche

historique sur l’éducation populaire qui situe le contexte (chapitre 11) ; la première expérience

privilégie une approche analytique, inspirée de la docimologie (chapitre 12) ; la seconde

adopte une démarche plus globale d’immersion dans le milieu professionnel (chapitre 13).

On obtient ainsi un plan avec neufs chapitres, en sus des quatre de cette partie

épistémologique.

Problématisation des pratiques

Approche systémique / modélisante

Approche analytique / phénoménologique

Partie II : revue de la littérature

Ch. 5 : Problématiques sur les questions de l’évaluation

Ch. 6 : objets de l’évaluation et modélisation des référentiels

Ch. 7 : Référentiel, Référent, Référé, critère et indicateur

Partie III – B : Analyse des discours

Ch. 8 : Analyse des discours, analyse des contenus ; la question du sens

Ch. 9 : Les structures de la signification et de la référence : trois plans du discours ; trois dimensions de la signification

Ch. 10 : les unités du langage ; l’analyse de prédicats ; les structures propositionnelles

Partie IV : expériences

Ch. 11 : Approche historique des conceptions de l’éducation populaire

Ch. 13 : Etude des conceptions de l’évaluation d’un réseau professionnel

Ch. 12 : Le jugement des représentations langagières par des professionnels

Page 102: UN REFERENTIEL, POUR QUOI FAIRE

102

3-3) La définition des concepts :

Le concept de « Référentiel » est particulièrement difficile à appréhender, dans la

mesure où l’objet est complexe, par essence : système d’interactions multiples dont il apparaît

titanesque de vouloir recenser tous les éléments, agrégation de phénomènes si divers qu’il est

difficile d’en cerner les limites a priori. Une approche positiviste est donc apparue rapidement

inadaptée, du moins l’analyse des différentes composantes de cet objet sans en avoir une

vision globale. Les premières conceptualisations ont donc été intuitives et inductives, pour

cerner l’intérêt de l’objet de recherche.

Le chapitre 5 aborde le contexte des recherches en sciences de l’éducation sur

l’évaluation. La modélisation épistémologique, présentée dans les paragraphes précédents, a

servi de cadre de référence pour construire cette présentation : les aspects positivistes de

l’approche docimologique, ainsi que ceux des taxonomies qui s’inscrivent dans une démarche

fonctionnaliste ; la rupture phénoménologique qui s’opère vraiment avec les théories

institutionnalistes qui interrogent la position du chercheur, les travaux sur le projet de J.P.

Boutinet ou ceux de J.M. Barbier sur les processus d’évaluation ; l’ethnographie scolaire et

les approches sur le curriculum apportent alors une dimension plus globale, avec une

perspective constructiviste ; les travaux plus récents des didacticiens nous plongent dans des

problématiques cognitivistes. Ces différents paragraphes ouvrent ainsi la voie à certaines

questions fondamentales, en particulier sur la notion de « critère » (docimologie), sur la

« fonction » de l’évaluation, sur les différences entre « projet pédagogique » et « pédagogie

du projet », ou entre « curriculum formel », « réel » et « caché », et enfin sur les objets de

l’évaluation. Ces problèmes constitueront un cadre de référence pour la conceptualisation.

Le chapitre 6 traitera des objets-produits de l’évaluation, souvent évoqués dans les

Référentiels : compétences, savoir-faire, savoir-être. On abordera ainsi certains travaux qui

ont approfondi l’analyse de ces concepts. Les théories de la sociologie, en particulier

l’ethnométhodologie et la sociologie interactionniste, permettront de préciser nos analyses sur

ces objets et sur les jeux et enjeux qui sont intrinsèquement liés aux situations de

communication. Les concepts d’ « habitus » et de « représentation sociale » seront présentés

en relation avec les problématiques qui les ont fait émerger. Le concept de « compétence »

sera approfondi à travers les diverses acceptions qui l’ont spécifié ces dernières années. Ces

différents concepts seront ensuite repositionnés dans une modélisation de la construction du

sens, c'est-à-dire des rapports entre le monde des aperceptions sensibles et le monde des

concepts.

Page 103: UN REFERENTIEL, POUR QUOI FAIRE

103

Le chapitre 7 approfondit la réflexion sur l’objet lui même, à partir d’une approche

analytique. On partira des définitions du « Référentiel », proposées par les sciences de

l’éducation et les sciences politiques. Cette analyse a été l’occasion de poser quelques notions

essentielles sur l’objet, son intérêt pour les milieux professionnels de l’éducation et les

différentes façons de l’appréhender. Les notions de « Référé » et de « Référent » spécifient les

particularités des modalités d’approche de cet objet complexe. Les concepts « d’indicateur »

et de « critère » réifient cette contradiction essentielle de tout « système de référence »,

l’articulation entre les observations du monde sensible et les conceptions qui leur

communiquent de la signification.

3-4) L’analyse des discours :

La méthodologie spécifique à chaque expérience sera présentée lors de leur exposé, en

dernière partie, mais il a semblé important de clarifier les phénomènes observables au cours

des échanges langagiers, afin de préciser les interprétations qui en sont faites et le rapport

avec les problématiques qui se sont posées au cours de cette recherche. La partie

méthodologique présentera donc quelques connaissances et réflexions essentielles,

empruntées aux sciences du langage : analyse des contenus, analyse des discours, linguistique

et sémiologie. L’objectif ici n’est pas d’approfondir les problématiques propres à celles-ci,

bien qu’on ait été obligé parfois de les développer pour expliquer la démarche. Le choix d’une

méthodologie est en lien avec la conception des objets de recherche ; et le fait de choisir

l’analyse des discours postule implicitement que l’on privilégie une approche de la conception

des acteurs à partir de leur parole : interviews, questionnaires ouverts, appréciations écrites,

rapports. On montrera cependant, sur la fin de cette partie, que ce n’est pas tant les

conceptions qui sont traitées (celles-ci étant inaccessibles lors d’analyses ponctuelles) que la

façon dont les acteurs s’adaptent aux différentes situations : le fait qu’un nombre significatif

d’acteurs adoptent les mêmes comportements langagiers dans des situations données.

Dans le chapitre 8, seront abordées les différentes techniques d’analyse des contenus

et des discours qui ont émergé ces dernières décennies. La différence entre ces deux types

d’approche sera précisée, les premières s’inscrivant plutôt dans les recherches

psychosociologiques ou psycholinguistiques, les secondes approfondissant certaines

problématiques de la linguistique. La différenciation entre grammaire et sémiotique permettra

ensuite d’introduire la différence entre les plans du discours (expression / contenu / référent)

et de préciser la notion même de « contenu » comme espace de construction du sens.

Page 104: UN REFERENTIEL, POUR QUOI FAIRE

104

Le contenu, différent des représentations du monde sensible et des significations codifiées des

formes de l’expression, assume une position intermédiaire entre ces deux plans.

Le chapitre 9 approfondit, dans un premier temps, ces différentes dimensions du plan

du contenu, à partir des travaux de la psychologie. Dans un deuxième, à partir des travaux de

la linguistique et de la sémiotique, on aborde les principales structures du discours qui offrent

des orientations (des outils cadres) pour amorcer l’analyse des textes ou des énonciations.

Puis l’étude des dimensions de la signification renvoie vers l’analyse des processus qui

génèrent les effets de sens, que ce soit au niveau phonologique, sémantique, syntaxique ou

rhétorique.

Le chapitre 10 approfondit la connaissance des unités du discours. Pour produire une

analyse, on a besoin, au-delà des sémèmes (effets de sens produits sur le plan de

l’expression), de discerner les sèmes, c'est-à-dire les structures logiques signifiées sur le plan

du contenu. L’analyse nous conduit à différencier ces sèmes des schèmes de l’énonciation

(lois du discours, praxèmes), c'est-à-dire des façons d’utiliser le discours dans son contexte.

On précise ainsi la notion d’indicateur langagier, processus discursif qui apporte des

informations sur les schèmes qui sont mis en jeu. L’identification de ces indicateurs nous

permet d’analyser le discours par rapport à son contexte, et ainsi de préciser les notions de

positionnement, d’ancrage, de mode, de débrayage (projection dans un autre espace-temps).

Par ailleurs l’analyse des structures propositionnelles et des prédicats permet d’identifier la

notion d’argument, d’observer ses formes de construction, de les analyser en fonction des

thèmes et de la cohérence du discours. Ceci nous conduit à inférer la fonction des référentiels

(en tant que macrostructures) pour ordonner et finaliser les arguments produits au niveau des

relations entre propositions. Cette articulation arguments / référentiels caractérisent la

dimension rhétorique du discours. N’est-on pas ici au cœur du critère ? A partir de ces

observations, on pourra abstraire quelques conclusions, non seulement sur le rôle de ces

référentiels, mais aussi sur les contraintes interactionnelles et cognitives propres aux

situations d’évaluation, sur la fonction de la formation professionnelle (appropriation de ces

référentiels communs).

Les outils mis en place permettront, nous l’espérons, une analyse assez rigoureuse des

arguments et des catégories utilisés par les personnes interviewés. Réciproquement, ces

analyses aideront à préciser de nombreux phénomènes langagiers observés au cours de ces

expériences. Le langage, en tant que matériau, est un support à l’analyse des modes

d’adaptation des acteurs aux situations, mais l’analyse est aussi un moyen récursif de préciser

les formes d’expression langagières observables dans le discours.

Page 105: UN REFERENTIEL, POUR QUOI FAIRE

105

3-5) Les expériences proposées sur le Référentiel des milieux de l’animation :

Pour l’approche empirique, le chapitre d’introduction soulève quelques questions

autour des préoccupations et des problématiques socioprofessionnelles. Pour cela, on

s’appuiera sur un bref historique et quelques approches globales (chapitre 11). Ces questions,

très générales, ouvrent sur l’étude de microphénomènes, puis sur l’analyse de systèmes. La

première expérience repose sur un protocole expérimental, de tradition docimologique

(chapitre 12) ; la seconde sur une approche plus globale des conceptions de l’évaluation au

sein d’un réseau de professionnels (chapitre 13). La démarche de ces études a été inductive,

fondée sur un positionnement critique (paradoxe de la docimologie) ou fonctionnel (réponse à

une commande institutionnelle). Les hypothèses se sont précisées au fur et à mesure de

l’avancée des travaux et de la confrontation des données de l’expérience aux concepts de la

revue de la littérature.

1° La première expérience est un produit de la tradition positiviste des sciences de

l’éducation : la question de « l’évaluation » a été fortement dominée, au XXème siècle, par les

travaux de la docimologie, puis ceux sur les taxonomies. Le protocole d’expérience s’inspire

des problématiques soulevées par ces courants de pensée, ainsi que des méthodes mises en

œuvre par eux. Les théories de la pragmatique permettront d’affiner le protocole et d’apporter

certaines clefs à l’interprétation de la situation mise en scène. Par sa démarche (protocole

expérimental et statistique), cette recherche s’inscrit dans le paradigme positiviste de la

psychologie empirique et de la docimologie. Le principe est simple : faire juger des

productions écrites d’un public (stagiaires) par un autre public (professionnels) ; le traitement

statistique permet ensuite d’observer la congruence des réponses. L’analyse qualitative

approfondit la structure des arguments. L’objectif est de mettre à jour certains critères

implicites. L’hypothèse repose sur certains paradoxes de la docimologie : celle-ci s’est plutôt

attachée à montrer les causes des divergences de jugement, que les raisons des convergences.

Or, si l’évaluation ne repose que sur des processus arbitraires, il y a de fortes chances que les

formes actuelles auraient été abandonnées : l’idée est donc de faire ressortir les phénomènes

qui favorisaient la congruence des jugements. Si cette expérience est concluante, elle montre

aussi les limites de ce paradigme : les résultats sont réduits à l’observation de

microphénomènes. L’interprétation de ceux-ci n’est possible qu’en les situant dans un

système de référence plus large - les représentations des acteurs du monde socioprofessionnel

- pour donner du sens aux résultats.

Page 106: UN REFERENTIEL, POUR QUOI FAIRE

106

2° Pour la deuxième expérience, on a choisi de privilégier l’ancrage dans un réseau

d’animateurs professionnels. L’approche est globale et systémique, couplée avec une

immersion ethnographique. Le principe de base estde laisser les acteurs construire eux même

leurs objets d’étude et la collecte des données, puis de les accompagner dans leur démarche,

en particulier pour le traitement. Le questionnaire d’enquête est élaboré par quelques

membres du réseau, une commission chargée de la tâche. Le chercheur n’est pas intervenu

dans cette construction, si ce n’est pour conseiller de joindre, à la fin, une fiche signalétique

souhaitable pour le traitement des données. Il est ainsi possible d’observer aussi bien le

processus - la façon dont le questionnaire a été structuré - que les conceptions qui s’en

dégagent. Les référentiels implicites sont ainsi approchés progressivement, dans une

interaction entre le chercheur, qui traite les informations collectées, et les acteurs sociaux, qui

définissent les processus. Pour ce traitement, on fait appel à la statistique lexicale et à l’étude

des cooccurrences. Les conceptions sont ensuite analysées à partir des catégories tirées de

l’analyse du questionnaire : les réponses semblables revenant dans les mêmes questions ont

permis de regrouper les questions en trois catégories : 1) fonctions, 2) moyens / méthodes et 3)

objets / acteurs. Cette recherche met aussi en valeur la relation entre les conceptions de la

fonction, les modalités et les objets évalués, en bref le système de référence de ce milieu

professionnel. En croisant ces catégories avec la fiche signalétique, il nous est possible

d’inférer l’influence probable de certaines variables du système. L’objectif de cette étude est

de mettre en valeur le système de référence de ces professionnels, en particulier, les outils et

méthodes qu’ils utilisent et les conceptions qui les justifient. L’hypothèse qui s’en dégage

concerne la fonction importante de l’expérience et de la formation professionnelle dans le

façonnage des conceptions dominantes.

Ces deux expériences apportent des données pour étayer les problématiques de

l’introduction. Pourquoi les professionnels privilégient-ils une évaluation globale à une

observation de compétences spécifiques ? Pourquoi raisonnent-ils plus en termes de

positionnement que de savoir-faire ? Comment juge-t-on les compétences à être professionnel

à partir d’une soutenance d’un mémoire de stage, d’un projet ? Qu’est ce qui est en jeu ? Quel

rôle jouent les référentiels historiques (éducation populaire, éducation à l’environnement) ?

Autant de questions qui ne peuvent trouver quelques réponses que dans l’alternance d’une

approche analytique qui décortique les processus cognitifs, et d’une approche empirique qui

observe leur application systématique.

Page 107: UN REFERENTIEL, POUR QUOI FAIRE

107

2ème PARTIE

REVUE DE LA LITTERATURE ET CONTEXTE DE LA RECHERCHE

Déclinaison des axes de la recherche

en concepts / objets de recherche

Page 108: UN REFERENTIEL, POUR QUOI FAIRE

108

Il n’est jamais simple d’étudier un objet, dont on a produit, ou du moins induit,

l’existence. C’est cette relation ambigüe qui domine le champ qui nous concerne. Si ce

concept de Référentiel n’est plus, aujourd’hui, l’apanage des seules sciences de l’éducation,

son essor parmi les milieux professionnels a largement été induit par ce domaine de

recherche. Et c’est là une contradiction fondamentale des sciences de l’éducation vis-à-vis de

cet objet. Dans une telle situation, ne prend-on pas le risque de s’enfermer dans des vices

tautologiques, surtout si la confusion s’installe entre la position prescriptive du professionnel

qui exploite les connaissances issues des recherches pour formuler et organiser ses

propositions d’action, et la position descriptive du chercheur qui étudie la façon dont les

professionnels s’approprient ces idées ? Car, dans ce cas, le système normatif ne fait que

s’entretenir derrière des apparences scientifiques : les théoriciens de l’université prescrivent

des idées générales que les professionnels invoquent pour justifier leurs actions, sans jamais

qu’aucune réflexion critique ne soit construite sur la pertinence des unes et des autres, ni

aucune connaissance produite pour enrichir ces pratiques.

Pour éviter cet écueil, il est apparu important, dans un premier temps, de brosser le

contexte scientifique dans lequel les référentiels ont émergé, ainsi que les problématiques

soulevées par ces différents courants de recherche.

Page 109: UN REFERENTIEL, POUR QUOI FAIRE

109

Chapitre 5 :

Les problématiques autour de l’évaluation en sciences de l’éducation

Les sciences de l’éducation s’intéressent, depuis plusieurs décennies, à la question de

l’évaluation. Pour fonder ce champ de recherche, elles se sont appuyées, en France, sur les

travaux de la « psychologie de l’évaluation »48 (docimologie). Mais elles se sont aussi

construites, aux Etats-Unis, autour de la pédagogie par objectifs (taxonomies). L’ensemble de

ces travaux ont trouvé un écho auprès des institutionnels, dont le souci est de fiabiliser et de

valider le système de notation. Certains professionnels s’en sont inspirés pour affiner leurs

appréciations des productions d’élèves. Les Référentiels d’évaluation ont émergé de cette

dynamique. Mais cette façon d’entrer dans la problématique, sans envisager une approche

globale de l’évaluation, a conduit les sciences de l’éducation dans certaines contradictions.

Les auteurs à l’origine de la docimologie ou des taxonomies ont été les premiers à percevoir

celles-ci : ainsi B.S. Bloom a différencié, en 1971, les trois fonctions de l’évaluation

(diagnostique, formative et sommative), à partir des problématiques évoquées par M. Scriven

(1967). Cette discussion sera ensuite reprise par les auteurs francophones. De même, la

discussion sur les critères a été introduite par les docimologues (J.P. Caverni, G. Noizet, J.J.

Bonniol) avant d’être reprise par de nombreux auteurs.

C’est dans ce contexte que de nouvelles approches ont vu le jour : l’ethnographie

scolaire en Grande Bretagne ou l’ethnométhodologie aux USA et en France (A. Coulon) se

sont centrées sur le « parcours de vie » des acteurs, et sur les interactions entre eux, élèves,

enseignants, formateurs. Les travaux sur le curriculum sont un des produits de cette

dynamique (M. Young, J.C. Forquin, P. Perrenoud). La recherche sur les phénomènes

institutionnels (G. Lapassade, R. Lourau) a posé de nouvelles bases d’analyse pour les

formations. Les recherches sur le projet se sont aussi inscrites dans ce renouveau qui a offert

une part plus importante à l’approche phénoménologique et à l’étude des conduites (J.P.

Boutinet, J.M. Barbier). L’évaluation n’y est plus seulement conçue comme l’application d’un

barème et d’une note, mais comme un ensemble de processus de communication et de

formation. Enfin, les travaux des didacticiens ont introduit une nouvelle dimension, l’étude

systématique des processus cognitifs et des systèmes de représentations, mis en œuvre par les

acteurs.

48 Titre de l’ouvrage de G. Noizet et J.P. Caverni.

Page 110: UN REFERENTIEL, POUR QUOI FAIRE

110

Cette thèse s’appuie sur ces différents travaux : elle aborde les problématiques évoquées

par la docimologie - en particulier l’analyse des critères des examinateurs - et par les

taxonomies - en particulier la discussion sur la question de la « fonction ». Mais elle

s’enrichit, pour faire progresser celles-ci, des approches proposées par les courants

contemporains, en particulier l’étude des conduites et des interactions, des processus cognitifs

et des systèmes de représentations. C’est pour poser clairement ce cadre que l’on va aborder

ces problématiques dans l’introduction.

1) Psychologie de l’évaluation : la docimologie et la notion d’ancrage :

C’est à H. Piéron que nous devons l’essor de cette discipline scientifique, ainsi,

semblerait-il, que l’utilisation du terme docimologie (« dérivé du grec dokime qui veut dire

épreuve » (J.C. Parisot)) qu’il définit comme « l’étude systématique des examens ».

La première étude, en juin 1922, a porté sur le certificat d’études primaires.

La notoriété de ces travaux s’acquiert surtout en 1936, lors de la commission d’enquête

Carnégie : celle ci a soumis 100 copies à 5 correcteurs différents. On a enregistré des écarts de

notation, sur une même production, parfois très conséquents : écarts maximum de 13 points

en français, 12 en philosophie, 9 en mathématiques, etc. J.C. Parisot brosse le contexte social

à l’origine de ces travaux :

« L’institution des examens et concours fait partie en France des conquêtes post-révolutionnaires. La plupart des charges, et fonctions publiques étaient, sous l’Ancien Régime, des charges héréditaires – des offices. L’abrogation de ce système liant naissance et fonction a rendu nécessaire la mise en place d’un système de remplacement. C’est Napoléon qui, en 1808, a instauré les examens pour la délivrance des grades universitaires et les concours pour le recrutement ordinaire des fonctionnaires, d’où la perception majeure, qui ne s’est pas démentie tout au long du XIXème siècle, de voir la justice garantie aux examens et concours » (dans CEPEC ; 1987 : 45). Ces travaux, promus par H. Piéron (1963), ont ensuite été repris par plusieurs

chercheurs qui en étudièrent les causes. A partir des protocoles issus de la psychologie

expérimentale, la docimologie a ainsi approfondi la connaissance sur certains processus qui

induisent les écarts de notation. On citera, en particulier, les « effets d’ordre et de contraste »

(J.J. Bonniol ; 1972), la connaissance des notes antérieures (G. Noizet, J.P. Caverni ; 1978),

de l’origine sociale de l’élève (R. Weiss ; J.P. Pourtois), de son sexe (M.G. Spear)49.

49 P. Merle (1998) offre une synthèse de l’ensemble de ces travaux : « Chapitre II : les explications de l’incertitude de la notation » (1998 : 16 à 23).

Page 111: UN REFERENTIEL, POUR QUOI FAIRE

111

G. Noizet et de J.P. Caverni (1978) expliquent ces phénomènes par un besoin d’ancrage (au

sens de la psychologie de la perception) pour fonder le jugement d’appréciation. Ils mettent

ainsi en valeur la « recherche de la consonance cognitive » par les évaluateurs, c’est-à-dire les

« effets des informations concernant les performances antérieures, le statut scolaire, l’origine

socio-économique ou ethnique de l’élève » (1978 : 77 à 96). Ils évoquent aussi, certaines

contraintes cognitives, « lors du recueil de l’information, dans la copie à évaluer ». Et ils

proposent un modèle à fonction heuristique (1978 : 114 à 117), qui va induire une réflexion

sur les outils d’évaluation et les systèmes de référence. A partir de ces constats, J.J. Bonniol

(1983) a montré que « l’explication des critères » a une fonction positive « sur le

fonctionnement des mécanismes d’évaluation d’une production scolaire ». Enfin, bien que

J.M. Monteil ne s’identifie pas directement à ce courant méthodologique, ses travaux

apportent de nouvelles connaissances sur les processus cognitifs en œuvre au cours des

évaluations. En particulier, ses expériences sur les « attributions » et la « norme d’internalité »

(1990 : 45 à 48) montrent l’importance de ces procès en matière d’évaluation.

L’ensemble de ces protocoles expérimentaux ont un grand intérêt pour les

professionnels de l’éducation. Mais dès qu’il s’agit d’apporter des réponses aux questions

soulevées par ces travaux, la docimologie (dite alors prescriptive) s’avère assez impuissante et

controversée :

« Nous pensons que les techniques de standardisation sur spécification d’objectifs peuvent être utiles et amener des changements significatifs. Par contre, nous ne croyons guère, dans le contexte actuel, à l’efficacité des techniques de modération, qui ne constitueraient qu’un pis aller en évacuant le problème. Quant aux méthodes dites de centration des variables, elles nous paraissent relever de l’orthopédie statistique ou encore constituer des « systèmes perfectionnés pour continuer à mal faire les choses », comme l’écrit malicieusement G. De Landsheere. Au total, si la docimologie a eu le mérite d’alerter sur un problème majeur, elle nous laisse relativement démunies quant aux solutions » (J.C. Parisot dans CEPEC ; 1987 : 42 et 43)

Les divers systèmes de régulation mis en œuvre pour homogénéiser les notes sont

souvent contestés par les correcteurs ou les enseignants / formateurs : par exemple, des notes

globalement plus élevées dans une zone géographique que dans une autre signifient-elles

forcement que les correcteurs notent plus largement. Seule la correction multiple apparaît une

réponse valide aux problématiques soulevées par la docimologie. Mais, si on devait

l’appliquer rigoureusement, à partir des résultats statistiques, elle aurait un coût considérable.

« H. Laugier et D. Weinberg en avaient conclu que pour obtenir la « note vraie », il fallait recourir à la moyenne de 13 correcteurs en mathématiques, 78 en composition française et 127 en philosophie... Les aléas de la correction sont donc considérables et la recherche d’une « note vraie » quelque peu utopique » (P. Merle ; 1998 : 9).

Page 112: UN REFERENTIEL, POUR QUOI FAIRE

112

Par ailleurs, la double correction lors des épreuves orales (discussion entre correcteurs après

l’entretien avec le candidat) introduit de nouvelles problématiques en raison des régulations

qui s’opèrent inconsciemment entre les correcteurs (suivant le statut, l’expérience, l’aisance à

conceptualiser, etc.), ou pendant l’entretien qui est un jeu de communication à trois (candidat

+ correcteurs). Ainsi, si la docimologie a ouvert de nombreuses pistes de réflexion et a

sensibilisé les professionnels à de nombreux écueils auxquels il convient d’être vigilant

lorsqu’on est en situation d’évaluation (phénomènes « d’ordre et de contraste »,

« d’ancrage », « norme d’internalité », etc.), elle n’apporte guère de solutions globales aux

divergences des systèmes de notation.

En étudiant les processus cognitifs qui influencent les évaluateurs, la docimologie a

tout de même ouvert la réflexion sur les outils mis en œuvre.

« Mais la question des outils d’évaluation doit être posée dans une autre perspective, celle du fonctionnement cognitif de l’évaluateur. Trop souvent l’évaluation n’est envisagée que dans son terme : la notation. Mais ce qui intéresse fondamentalement une psychologie de l’évaluation, et donc un modèle de l’évaluateur, c’est le cheminement qui conduit à la notation. Autrement dit, il s’agit de décrire l’évaluation comme un processus et de préciser quelles sont les causes susceptibles de l’influencer. Parmi ces causes qui fourniront les caractéristiques observables du processus figure la nature des outils. En effet, selon que l’évaluateur utilise tel outil ou tel autre, le processus d’évaluation est susceptible de présenter des caractéristiques différentes » (J.P. Caverni, G. Noizet ; 1978 : 136).

Mais la docimologie se heurte, pour découvrir ce fonctionnement cognitif, à une difficulté

majeure :

« Un tel résultat signifierait que les évaluateurs utilisent l’échelle de notation d’abord comme un système verbal. Une conclusion de cette importance mérite, on en conviendra, d’être soumise à l’expérimentation » (J.P.Caverni, G. Noizet ; 1978 : 146). Cette problématique ne saurait donc progresser sans une analyse des procédures et des

formes de communication mises en jeu par les acteurs.

2) La pédagogie par objectifs, les taxonomies et la notion de fonction :

2-1) Les taxonomies :

La remise en question introduite par la docimologie, en particulier la contradiction

entre les principes républicains et les résultats statistiques, expliquent certainement l’essor du

courant taxonomique. On appelle « taxonomie », dans le milieu de l’éducation, une

classification rationnelle des objectifs à atteindre et des moyens à mettre en œuvre.

Page 113: UN REFERENTIEL, POUR QUOI FAIRE

113

« De quoi s’agit-il ? A l’origine, la taxonomie (ou taxinomie) ou la systématique « est la science des lois de classification des formes vivantes » (Robert)... Par extension, le mot taxonomie a désigné la science de la classification en général, puis le résultat même : la classification élaborée (la taxonomie zoologique, botanique...) La taxonomie se rapportant aux sciences humaines ne peut avoir la rigueur, la structure parfaitement arborescente des taxonomies relatives aux sciences naturelles. Beaucoup plus simplement, une taxonomie sera pour nous une classification opérée selon un ou plusieurs principes explicites » (V. et G. De Lansheere ; 1982 : 66). Ces recherches ont été introduites à l’initiative d’universitaires, mais du point de vue

des praticiens qu’ils étaient, en tant que professeurs et évaluateurs :

« L’idée de ce système de classification prit naissance à Boston en 1948 lors d’une simple réunion d’examinateurs de collège participant à un congrès de l’American Psychological Association. Les personnes présentes à cette réunion exprimèrent le désir que soient tracées les grandes lignes d’un plan théorique destiné à faciliter les communications entre les divers examinateurs. (…) Après de longues discussions, on convint qu’on ne pouvait mieux élaborer ce plan théorique que sur la base d’un système de classification des buts du processus pédagogique. En effet, ce sont les objectifs pédagogiques qui servent de base à la préparation des programmes et des questions d’examens, et qui constituent le point de départ de la plus grande partie de la recherche pédagogique. Cette réunion fut la première d’une série d’autres (…) Ce groupe a étudié les difficultés soulevées par l’organisation d’une classification. Il a étudié en outre toutes sortes de difficultés rencontrées lors des examens et dans la recherche pédagogique » (B.S. Bloom ; 1956/1969 : 6 et 7).

L’objectif est clairement formulé par les promoteurs de l’initiative :

« Notre but initial, dans l’élaboration d’une taxonomie des objectifs éducatifs, était de faciliter et d’améliorer les échanges de vues et de matériel entre les personnes chargés de préparer les examens ou intéressés par la recherche pédagogique et l’organisation des programmes scolaires. La taxonomie permettrait, par exemple, de préciser et de classer des termes ou expressions mal définis comme « pensée » ou « résolution des problèmes ». Dès lors, il serait facile, pour des établissements scolaires désireux de comparer les objectifs de leurs programmes respectifs, d’en établir les similitudes et les différences. Ils pourraient comparer et échanger examens et autres instruments de mesure et, par la même, mieux saisir la relation entre les expériences diverses d’apprentissage et l’évolution constatée chez l’étudiant » (Idem : 13).

Ces initiatives trouvent alors un écho avec les travaux sur la « pédagogie par objectifs » de R.

Tyler, qui faisait partie du groupe de recherche, mais aussi avec le modèle d’apprentissage de

Caroll (1963), « dont le postulat de base disait que l’élève réussissait un apprentissage

déterminé dans la mesure où il consacrait le temps qui lui était nécessaire pour apprendre la

tâche » (J.M. De Ketele ; 1993 : 64). Ces recherches, qui se sont développées aux USA, ont

été ensuite exportées vers le Québec, sous l’impulsion du Département des Programmes et des

Examens du ministère de l’Education (M. Lavallée, en préface de B.S. Bloom : 1956/1969 :

1), avant d’émigrer en Europe sous l’impulsion du ministère belge. Plusieurs chercheurs

belges ou du Nord de la France (V. et G. De Landsheere, J.M. De Ketele) ont alors travaillé

sur ces classifications d’objectifs.

Page 114: UN REFERENTIEL, POUR QUOI FAIRE

114

Ces travaux ont une visée très pragmatique : à partir d’une conception fonctionnaliste du rôle

social des individus, ces chercheurs vont surtout penser l’évaluation en termes d’« objectifs à

atteindre », de capacités, de savoir, savoir-faire ou savoir-être..., qui sont ensuite décomposés

en comportements observables ou en réponses attendues. Les taxonomies répondent à « ce

besoin de mise en ordre » d’une « activité éminemment complexe : on dépasse les contenus

pour ne retenir que les processus » (V. et G. De Landsheere ; 1982 : 65 et 66). Peut-être est-ce

la raison pour laquelle ce courant de pensée a rencontré un réel succès. La recherche s’est

ensuite orientée vers une un travail typologique, au service de la définition des objectifs. (V.

et G. De Landsheere ; 1982 : section III). Les taxonomies distinguaient 3 domaines (cognitif,

affectif et psychomoteur) et, dans le premier des trois, 6 niveaux qui s’intégraient, du plus

simple au plus complexe : connaissances, compréhension, application, analyse, synthèse,

évaluation (1956/1969). L’analyse factorielle a été utilisée dans le but d’interroger la

hiérarchie de ces objectifs, les connaissances en psychologie pour fonder les classifications.

L’exploitation de ces recherches s’est traduite, progressivement, par la mise en place

de « référentiels » pour guider les évaluateurs dans la construction de leurs appréciations.

Plusieurs critiques ont été adressées aux taxonomies :

« Hameline (1980) parle de « péché behavioriste » lorsqu’il critique l’exigence de formuler tous les objectifs en termes de comportements observables. De Ketele (1980) stigmatise la tentation du découpage de l’enseignement en micro-objectifs et parle de « pédagogie du saucissonnage ». Charlier (1989) et Charlier et Donnay (1991) mettent en évidence le caractère peu habituel de l’entrée par les objectifs pour les enseignants, qu’il existe d’autres points d’entrée aussi valables et que l’entrée par les objectifs requiert souvent un investissement peu compatible avec le contexte de la classe. Barbier (1985) met en évidence la structure pyramidale des rapports de pouvoir de ces modèles : de l’extérieur, les responsables opèrent des choix fondamentaux ; à l’enseignant incombe la confrontation avec l’élève et le jugement final ; l’élève subit le « jugement d’existence » de l’enseignant, particulièrement marqué quant il s’agit de savoir–être. » (J.M. De Ketele ; 1993 : 64 et 65)

G. Malglaive a précisé ces critiques, après avoir positionné ce courant de pensée par rapport à

la psychologie béhavioriste, et analysé les rapports ambigus entre les taxonomies et la

pédagogie par objectifs (B.S Bloom, R.F. Mager) :

« La taxonomie est un outil d’évaluation, et de là découle à notre avis bien des malentendus ultérieurs sur la question des objectifs. Comme il est difficile de penser que tout enseignement puisse viser autre chose que la maîtrise du savoir qu’il propose, les comportements qui permettront de s’assurer de cette maîtrise peuvent effectivement passer pour les « objectifs » de l’enseignement. Mais cette approche laisse intégralement dans l’ombre ce qu’est réellement la « maîtrise du savoir » (et le béhaviorisme ne pouvait guère apporter de réponse à cette question), comme l’est également celle de la nature des savoirs à maîtriser, si ce n’est qu’ils devront permettre la production des comportements requis parce que définis en terme d’objectifs au moment de l’évaluation. » (1990/1993 : 116)

Page 115: UN REFERENTIEL, POUR QUOI FAIRE

115

Deux critiques différentes peuvent être notées ici, la première concerne directement la

difficulté de traduire, par des comportements observables, les savoirs à évaluer ; la seconde

insiste plutôt sur la dérive d’une démarche qui avait pour vocation, à l’origine, de servir lors

des évaluations, vers une utilisation programmatique pour planifier formations et

enseignements. Par rapport à cette dernière, l’auteur cite E. Eisner qui a projeté, à partir du

programme d’une journée scolaire, le nombre d’objectifs à définir sur l’année :

« On obtient 4200 objectifs pour une année scolaire (…) et 25500 objectifs pour un cycle primaire (…). Le principe d’exhaustivité prévisionnelle touche ici au délire et l’on peut douter de ses effets sur la rationalité didactique et l’efficacité de l’apprentissage. » (Idem : 119)

Mais ce sont surtout les critiques sur la décomposition analytique des objets à évaluer en

comportements observables qui intéressent le plus notre problématique :

« Si l’on assimile, comme nous pensons qu’il est légitime de le faire, un comportement à une action, celle-ci peut se définir soit du point de vue des actes du dispositif assurant la transformation, soit du point de vue des états successifs que prend l’objet au cours de sa transformation. Mais une action ne peut guère être isolée : elle s’incorpore à un processus dont le découpage en étapes est fondé sur ces actes et états successifs, lorsqu’ils sont toutefois clairement identifiables. Lorsque ce découpage est possible il conduit à la définition d’une procédure. » (Idem : 119, 120)

Les comportements sont complexes à observer. Par ailleurs, le savoir qu’il est possible

d’évaluer à partir de ces observations est relatif :

« Les comportements humains ne sauraient donc se réduire à leurs apparences observables. Comme tout objet ou phénomène réel, ils doivent être construits par la pensée de l’observateur pour être compris. S’ils sont si difficiles à définir, que dire alors de leur niveau ? (…) La difficulté d’une action ne saurait être caractérisée en soi : elle dépend de l’acteur et de ses capacités. Ce qui est difficile et complexe pour le débutant ne l’est plus pour l’expert, si bien que de ce point de vue, tout cursus éducatif ne saurait commencer que par des objectifs de plus haut niveau » (Idem : 121) Pour prendre en compte ces critiques sur l’atomisation des enseignements / parcours

de formation et sur la relativité du savoir, J.M. De Ketele, en s’inspirant des travaux de la

systémique (et en particulier de la modélisation de Stufflebeam), propose une conception de

l’évaluation induite par une pédagogie de l’intégration :

« La pédagogie de l’intégration est une tentative pour lutter contre une pédagogie du « saucissonnage » habituellement pratiquée dans le cadre scolaire : l’école est souvent une juxtaposition de cubes les uns à côté des autres ou les uns au dessus des autres (...) La pédagogie de l’intégration dit au contraire que le tout n’est pas la somme des parties. Ce n’est pas parce qu’un élève réussit toutes les questions d’un test qu’il a « compris » (…) et qu’il sait utiliser ce qu’il a appris dans un contexte où il ne suffit pas de juxtaposer les acquis, mais de faire des choix et de nouveaux assemblages avec les objets des apprentissages antérieurs. C’est pourquoi nous avons immédiatement introduit les nouveaux concepts d’objectifs terminal ou intermédiaire d’intégration » (J.M. De Ketele ; 1993 : 70)

Page 116: UN REFERENTIEL, POUR QUOI FAIRE

116

Les référentiels ne sont pas figés une fois pour toutes, mais ils s’élaborent progressivement au

cours de la formation, à partir d’une analyse de son contexte, des processus et des produits.

« Au niveau de l’évaluation, il en résulte que l’évaluation certificative finale prend comme objet l’objectif terminal d’intégration, en prenant soin de se définir des critères et des indicateurs minimaux par rapport à des critères et indicateurs que nous pourrions qualifier de perfectionnement. En cours d’années, des évaluations bilans à visée formative porteront sur les objectifs intermédiaires d’intégration » (J.M De Ketele ; 1993 : 70).

L’objectif est d’intégrer progressivement les savoirs dans des ensembles de plus en plus

vastes, de plus en plus proches des « situations naturelles » :

« Un objectif d’intégration est une compétence qui, dans l’idéal, possède les caractéristiques suivantes :

- la compétence s’exerce sur une situation d’intégration, c’est à dire une situation complexe comprenant de l’information essentielle et de l’information parasite et mettant en jeu les apprentissages antérieurs; - la compétence est une activité complexe nécessitant l’intégration et non la juxtaposition de savoirs et savoir-faire antérieurs et aboutissant à un produit évaluable qui les intègre ; - la situation d’intégration est la plus proche possible d’une situation naturelle. Elle a une fonction sociale ; - l’objectif d’intégration fera appel à des savoir-être et des savoir-devenir orientés vers le développement de l’autonomie » (J.M. De Ketele et ass. ; 1988 : 100).

Mais, si ce modèle offre des pistes pour le professionnel - qui s’informe sur les connaissances

scientifiques pour construire un projet de formation -, il reste un modèle pédagogique et non

une étude sur la fonction des modèles pédagogiques utilisés par les formateurs : si les modèles

taxinomiques ont acquis un réel et rapide succès, on peut faire l’hypothèse que les raisons de

ce succès sont en rapport, soit avec des préoccupations sociales de l’époque, soit avec les

conditions de la pratique elle-même. Mais ces modèles idéalisés correspondent-ils aux

pratiques réelles ? (cf. la différence entre curriculum prescrit et réalisé ; pages 133 à 140). Un

évaluateur n’est-il pas contraint d’adapter les catégories de ces référentiels à son propre

système de pensée (ancrage), à la spécificité de la situation, à sa conception du métier et de sa

fonction sociale (cadre de référence) ? Toutes ces contraintes, issues de la nature même de

l’interaction, n’interviennent-elles pas plus dans « l’équation personnelle » de l’évaluateur,

pour induire son jugement, que les Référentiels mis au point pour orienter l’appréciation ? Les

travaux de P. Merle (1998) montrent, en particulier, que l’introduction de barème ne résout

pas le problème des écarts de notation, qui restent toujours aussi conséquents. Cela tient au

fait que certains professeurs sont plus indulgents, d’autres plus exigeants :

« Les écarts possibles de notation, produits par l’application la plus sévère et la plus indulgente du barème par les 12 correcteurs sont finalement de l’ordre de 7 à 8 points. Cet écart est voisin de celui constaté dès 1936 par la commission d’enquête Carnégie » (1998 : 13).

Page 117: UN REFERENTIEL, POUR QUOI FAIRE

117

Cet auteur en conclut :

« Finalement, la finesse d’un barème ne permet la précision de la notation que s’il existe une définition précise entre les différents correcteurs de ce qui est attendu exactement pour telle ou telle question, que celle-ci soit notée sur trois points ou sur un demi-point. Un tel constat indique qu’il ne faut pas attendre une grande efficacité de l’introduction d’un barème dans la correction d’une dissertation en dehors d’une socialisation longue des correcteurs à des exigences effectivement communes. La discussion sur un barème constitue évidemment une des modalités privilégiées de cette socialisation évaluative » (1998 : 12).

Certes, un Référentiel n’est pas seulement un barème de notation. Il est plus précis sur les

objets à observer et à évaluer. Mais cela change-t-il quelque chose à la problématique ? Les

évaluateurs procèdent-ils tous de la même façon pour s’approprier le Référentiel, interpréter

les consignes, analyser les situations, observer les phénomènes, etc. ? Cela est peu probable.

2-2) La notion de fonction ;

Le courant des taxonomies et la pédagogie par objectifs ont débouché sur un nouveau

champ d’études, alimenté par les milieux francophones, européens et québécois, sur les

fonctions de l’évaluation. La discussion sur celles-ci s’est élaborée à partir des interrogations

sur les modalités de la pratique éducative, ce qui explique certainement l’intérêt des milieux

professionnels pour ces débats. Lorsqu’ils produisent un ouvrage de synthèse sur leurs

taxonomies, B.S. Bloom, J.T. Hasting et G.F. Madaus, (1971), consacrent une section à

s’interroger sur l’utilisation de l’évaluation pour des décisions concernant l’instruction (Using

Evaluation for Instructional Decisions). A partir de la différence proposée par M. Scriven

(1967) entre évaluation sommative et évaluation formative, les auteurs développent les

différentes problématiques de l’évaluation sommative, puis ils précisent les informations à

collecter au cours de l’évaluation formative et l’intérêt de celle-ci en termes de feedback pour

les enseignants. Mais, entre ces deux chapitres, ils proposent de discuter d’un « troisième

type, l’évaluation diagnostique », à partir des modèles de Yates (1966) et surtout de Thelen

(1967) sur les groupements des élèves dans les classes en fonction des modes et niveaux

d’enseignement (classrooms grouping for teachability). La « fonction » de cette évaluation est

de « déterminer la présence ou l’absence de compétences pré-requises » et « le niveau

précédent de maîtrise des étudiants », et de « classer les étudiants suivant diverses

caractéristiques connues qu’on pense être reliées à divers modes d’instruction » (1971 : 91),

de façon à préciser les objectifs et orienter les étudiants en fonction des « stratégies

d’enseignement » des professeurs et des divers « curricula » (110-114).

Page 118: UN REFERENTIEL, POUR QUOI FAIRE

118

Les milieux universitaires européens se sont rapidement appropriés cette

problématique (L. Allal, J. Cardinet, P. Perrenoud : 1979/1989, colloque de mars 1978),

certainement en raison du contexte particulier d’une époque où la sélection scolaire était

fortement critiquée, mais en lui donnant souvent une nouvelle tonalité. En particulier, L. Allal

qualifie ces trois fonctions de façon différente : la « fonction pronostique », qui correspond,

en termes de pratiques d’évaluation, aux « décisions d’admission, de promotion,

d’orientation » et à une « communication à l’intérieur du système scolaire (avec d’autres

maîtres, des conseils, des autorités scolaires) » ; la « fonction sommative », aux « décisions de

certification intermédiaire ou finale » et à une « communication avec l’extérieur (parents

d’élèves, autres institutions) » ; la « fonction formative », aux « décisions d’adaptation

pédagogique » avec une « communication au sein de la classe (entre maîtres et élèves, entre

élèves) » (L. Allal ; 1991 : 12). Les deux premières fonctions (l’une en début, l’autre en fin

de cycle) correspondent à un mode de régulation où « les caractéristiques de l’élève » sont

évaluées en fonction des « exigences du système », pour la dernière (pendant une période de

formation), ce sont les « moyens de formation » qui sont adaptés aux caractéristiques de

l’élève (idem : 49). Elle différencie aussi l’évaluation rétroactive, interactive et proactive

(pages 25 et 26). Cette différenciation est aussi reprise par A. Jorro (2000/2006 : 91 et 92), qui

l’intègre dans une réflexion globale sur l’évaluation formative. J.M. De Ketele et X. Rogiers

(1996) préfèrent le terme de « certificatif », pour qualifier la première fonction, plus approprié

que celui de « sommatif », qui traduit plutôt un attribut de la forme ou des modalités que de la

fonction. J. Cardinet (1986 : 84) évoque les fonctions « d’orientation, de régulation et de

certification », pour ces évaluations nommées « prédictive, formative et sommative », situées

avant pendant et après le processus d’apprentissage.

La notion d’évaluation formatrice a ensuite été introduite pour la distinguer de

l’évaluation formative mise en œuvre par l’enseignant qui collecte des informations pour

ajuster son curriculum ou son programme : l’idée est que l’élève conduit lui-même sa propre

évaluation, à partir d’un système de référence que lui a communiqué l’enseignant. Ce dernier

invite ainsi l’apprenant à une réflexion sur la façon d’atteindre les objectifs de la formation :

pour le formateur, l’échange permet d’estimer les difficultés que l’apprenant rencontre à

conceptualiser l’objectif ; pour celui-ci, l’exercice est un moyen de réfléchir à sa façon

d’apprendre (apprendre à apprendre), processus cognitif nommé aussi remédiation. Ce serait

à G. Scallon qu’on devrait cette distinction, « à partir d’une recherche fondamentale menée à

Marseille » (M.T. Boyer, Y. Michel, J.C. Talon ; 1993 : 28, 29), auteur qui a introduit la

réflexion sur les fonctions de l’évaluation formative dans les milieux québécois (1988).

Page 119: UN REFERENTIEL, POUR QUOI FAIRE

119

Cette affirmation est tout de même à relativiser tant il est difficile de savoir comment émerge

un concept que les professionnels s’approprient rapidement. G. Meyer (1995 : 31), en

revanche, a fait le choix de ne pas différencier évaluation « formative » et « formatrice », car

« il n’existe pas d’évaluation formative qui ne soit pas formatrice de l’élève » :

« apprentissage et enseignement ne sont pas réductibles l’un à l’autre », mais les deux

processus sont complémentaires. Elle préfère aussi abandonner le terme de « sommatif », qui

« pénalise l’évaluation formative en la sous-entendant comme ponctuelle et partielle ». Elle

propose donc de différencier « une évaluation normative pour vérifier ce que chaque élève a

appris » et « une évaluation formative pour aider chaque élève à mieux apprendre » (1995 :

36). Mais le terme « normatif », à l’instar de celui de « sommatif », ne créée-t-il pas une

confusion entre la forme du processus d’évaluation et sa fonction ? L’auteur reprend d’ailleurs

la différenciation introduite par R. Tousignant (1982) entre une évaluation normative, « qui

est la comparaison de comportements d’un individu à ceux d’individus du même groupe », et

une évaluation critériée, « qui est la comparaison des comportements d’un individu à ceux qui

devraient être affichés » (1995 : 22). Mais cet auteur, en commentant L. Allal, n’explicite-t-il

pas la différence entre la forme des instruments et la fonction du processus (1995 : 28) ?

« L’évaluation formative et l’évaluation pronostique utilisent des instruments à référence critérielle, l’évaluation pronostique et l’évaluation sommative utilisent des instruments à référence normative ».

Si l’usage scolaire veut qu’il en soit ainsi, on peut tout de même faire remarquer qu’il ne

s’agit pas là d’une condition intrinsèque de ces fonctions : ne peut-il y avoir une évaluation

certificative qui est « critériée » (lors d’un recrutement, par exemple), et une évaluation

formative, qui est « normative », c'est-à-dire qui analyse la différence entre le curriculum réel

d’un individu et celui du reste du groupe (ou celui de la norme institutionnelle) ? Il semble

donc important de distinguer la question de la « forme » de l’instrument et celle de la

« fonction » qui place le problème sous un autre angle.

Une quatrième fonction a fait l’objet de discussions, « l’évaluation régulation » ou

fonction régulatrice. C’est la situation, conçue comme espace de communication, lieu de

médiation, qui remplit en lui-même la fonction d’évaluation. Dans un ouvrage de

vulgarisation, à destination des enseignants, M.T. Boyer, M. Michel et J.C. Talon, conseillers

pédagogiques de l’Education nationale, la définissent en la différenciant des modèles de

l’évaluation formatrice.

Page 120: UN REFERENTIEL, POUR QUOI FAIRE

120

« L’évaluation – régulation inclut, sans forcément en reprendre les outils, la démarche de l’évaluation formatrice et développe particulièrement la phase de transfert et les boucles de rétroaction ; elle insiste sur le rôle actif de l’apprenant permettant l’élaboration de l’instance de pilotage (phase d’autocorrection et régulation des apprentissages) et aussi sur la médiation de l’adulte et des pairs (…) Il s’agit de placer l’élève en situation d’apprentissage. Le maître organise, structure et propose des activités, des situations-problèmes (qui à l’évidence peuvent être motivées par la vie de la classe), mais la tache ne prend pas le pas sur l’apprentissage moteur déterminant d’une motivation profonde » (1993 : 30 et 35).

Cette définition semble cependant introduire une confusion entre la méthode d’apprentissage

et la fonction de l’évaluation : il est possible que, dans la pratique pédagogique, une

telle différence apparaisse artificielle, dans la mesure où l’évaluation se produit souvent

intuitivement au cours des processus d’apprentissage ordinaires, par observation de l’élève.

Mais l’introduction d’une fonction supplémentaire n’a d’intérêt que si elle apporte des

analyses sur des dimensions jusqu’alors négligées. Une autre définition nous est proposée par

le « Cahier des ASE » (Activités Socio-Educatives), document interne réalisé par un collectif

de militants des FRANCAS, mouvement d’éducation populaire. Ces auteurs opposent le

caractère collectif de « l’évaluation régulation », au caractère individuel des deux autres types

d’évaluation (« sommative » et « formative »).

« Le choix que nous faisons aux Francas d’utiliser le groupe comme support de formation et d’associer les stagiaires à la définition et à la mise en vie du projet rendent nécessaire la définition d’un moyen de contrôle efficace permettant de corriger le programme, mais aussi de faciliter la communication entre les formés comme entre les formateurs et les formés. Nous retrouvons en permanence des évaluations visant à apprécier le projet et son avancée et des évaluations plus centrées sur les conditions de sa mise en vie. Ce faisant, l’on peut dire que ces fonctions exercent une fonction de régulation, c’est-à-dire qu’elles veillent au maintien de la cohérence du projet de formation » (Cahier des ASE N°5 ; 1985 : 14).

On dira donc que cette nouvelle fonction se différencie surtout par son caractère interactif. Il y

a co-construction du système de référence sur lequel va se construire l’évaluation, l’objectif

étant de favoriser la motivation de l’apprenant et la construction de significations.

« L’évaluation suppose des situations de coproduction de « référant » d’évaluation, de co-évaluation, d’autoévaluation, de travail en groupe et / ou de relation de tutorat, situations conçues comme « facteur déclenchant » de l’apprentissage (conflit sociocognitif) et comme actions de régulation » (M.T. Boyer, Y. Michel, J.C. Talon ; 1993 : 37).

Notons cependant que, pour L. Allal, cette fonction de régulation est intrinsèque à tout

processus d’évaluation, qui a « pour but d’assurer l’articulation entre les caractéristiques des

personnes en formation, d’une part, et les caractéristiques du système de formation, d’autre

part » (L. Allal ; 1991 : 48 - cf. aussi page 26). Il n’y aurait pas lieu, dans ce cas, d’introduire

une nouvelle différenciation, mais plutôt de préciser l’articulation entre la « fonction », la

« forme » et les « modalités » (rétroactive, interactive et proactive) de l’évaluation.

Page 121: UN REFERENTIEL, POUR QUOI FAIRE

121

N’est-ce pas dans cette perspective que s’orientent les travaux d’A. Jorro (2000/ 2006), quand

elle interroge les gestes évaluatifs de l’enseignant ?

Les débats en sciences de l’éducation, sur cette problématique des fonctions de

l’évaluation, ont donc conduit à différencier trois fonctions principales : la première

certificative, dont l’objectif est de certifier des acquisitions, la deuxième formative,

accompagner l’apprenant dans son processus d’acquisition (soit en ajustant le dispositif de

formation, soit en induisant son questionnement), la troisième diagnostique, anticiper les

difficultés auxquelles celui-ci risque d’être confronté. La différence entre les notions de

« fonction », de « forme » et de « modalité » a aussi été mise en valeur, elle est récurrente

dans les débats. Si la « fonction » induit la prise en compte de l’objectif de l’évaluation, afin

de discerner aussi bien les éléments d’information à collecter que les processus à mettre en

œuvre pour les intégrer de façon pertinente, la « forme » quant à elle s’attache plus à la façon

de collecter ces informations et de les mettre en relation avec le système de référence (échelle

de notation, norme, critère) et les « modalités » différencie les moments et les modes de la

communication. L’analyse de la fonction induit la forme des outils, du moins la réflexion pour

le choix de ceux-ci : la fonction certificative (sommative) conduit plutôt à s’interroger sur le

caractère discriminant des situations et des exercices, sur la fiabilité des observations et sur la

validité des méthodes, alors que la fonction formative privilégie l’observation et l’analyse des

processus cognitifs mis en œuvre par les apprenants.

On notera, cependant, que ces recherches sont, la plupart du temps, prescriptives, et

plus précisément dans une démarche réflexive - soit analytique et dialectique (ajustement des

conceptions théoriques aux contraintes de la pratique), soit globale et systémique

(modélisation et observation empirique d’une partie du système, la plupart du temps, les

objets évalués ou les modalités de la mise en œuvre). Mais jamais aucune de ces recherches

n’a interrogé le concept de « fonction » en lui-même : est-il pertinent pour poser le

problème ? Et surtout, quel est le système de référence sur lequel repose sa validité ? La

notion de « fonction » a-t-elle la même signification dans les réflexions impulsées par B.S.

Bloom et ses associés, et évoquées ci-dessus, et dans la conception fonctionnaliste de L.

d’Hainaut. Cet auteur analyse les systèmes éducatifs de façon plus globale, à partir d’une

modélisation systémique.

« La régulation pédagogique est un processus qui vise à améliorer le fonctionnement et les résultats d’un système éducatif : par l’ajustement des actions aux finalités, par l’harmonisation de chaque partie et de chaque fonction du système avec l’ensemble et avec chacune des autres parties et des autres fonctions » (1981 : 11).

Page 122: UN REFERENTIEL, POUR QUOI FAIRE

122

La notion de « fonction » est alors plutôt utilisée pour qualifier le rapport de chaque partie

dans le fonctionnement du système. L’auteur évoque ainsi, pour l’évaluation, des fonctions de

« frontière », d’« interface » ou d’« information ». En s’appuyant sur les théories

fonctionnalistes, il distingue trois fonctions principales de ces systèmes éducatifs :

« T. Parsons considère que toute organisation formelle hiérarchique peut être divisée en trois niveaux qui peuvent être caractérisés par une fonction différente et ont des rapports hiérarchiques » (1981 : 26).

L. d’Hainaut identifie ainsi trois niveaux : technique ou pédagogique, administratif et

politique. Il précise, par ailleurs, qu’ « il s’agit bien d’une hiérarchie de fonctions et non d’une

hiérarchie d’organes ou de personnes » (1981 : 31). Mais cette proposition apparaît en

contradiction avec sa modélisation des curricula, où il décline ces trois niveaux fonctionnels

en objectifs de l’éducation (fins, buts, objectifs opérationnels), mais aussi en agents qui en

sont les promoteurs (hommes politiques, citoyens et groupes ; administrateurs, fonctionnaires,

inspecteurs ; enseignants). L’auteur rappelle alors son projet : proposer un « cadre conceptuel

pour l’action pédagogique », un « modèle d’action » « pour une action consciente et

organisée ». Il se positionne ainsi dans une perspective prescriptive :

« Notre propos n’est pas d’étudier comment s’élabore une politique éducative, bien que la question soit fort intéressante et n’ait pas encore reçu toute l’attention qu’elle mérite. Nous n’irons donc pas plus loin dans la recherche des déterminants de l’éducation et nous considérerons la politique éducative comme notre point de départ. Ce sera pour nous un fait et notre préoccupation sera de répondre à la question suivante : étant donné telle politique éducative que nous choisissons, que nous voulons promouvoir ou qu’on nous impose, comment la clarifier et la caractériser en vue de déterminer des objectifs pédagogiques cohérents avec cette politique ? » (1977/1985 : 44)

Cette approche globale des organisations conduit à une conception plus pragmatique

de l’évaluation, qui élargit le champ d’étude à toutes les fonctions, qui ont une fonction dans

le fonctionnement du système50. Les travaux de L. d’Hainaut s’inscrivent dans le

prolongement de la pédagogie de la maîtrise de R.W. Tyler51 (idem : 44) - à l’instar de ceux

de B.S. Bloom - c'est-à-dire dans une démarche prescriptive. Les destinataires des modèles

sont simplement différents, puisque, dans le premier cas, le modèle étudie des systèmes

globaux et s’adresse à des décideurs politiques (UNESCO, OCDE), alors que, dans la

réflexion sur les « fonctions de l’évaluation », présentée ci-dessus, ce sont des processus

d’apprentissage qui sont modélisés à l’attention d’enseignants, de formateurs, de pédagogues.

50 La répétition, ici volontaire, vise à montrer le caractère tautologique de cette notion de « fonction », si sa fonction dans la construction logique de l’argumentation n’est pas bien précisée (cf. ci-dessous). 51 Qui a, par ailleurs, participé au groupe de réflexion à l’origine des taxonomies.

Page 123: UN REFERENTIEL, POUR QUOI FAIRE

123

Il n’est donc pas surprenant que cette notion de « fonction » ait été, par la suite,

comprise et exploitée différemment selon les milieux professionnels destinataires : politique

ou pédagogique. Ainsi peut-on lire, dans un rapport de l’OCDE :

« L’évaluation remplit deux grandes fonctions, elles aussi difficiles à concilier : elle mesure la performance des apprenants pris individuellement, des établissements et du système dans son ensemble (fonction associée à l’attestation de compétence, à la transparence et au contrôle) ; elle est composante à part entière du processus d’apprentissage (par retour d’information, orientation, diagnostic des difficultés, définition des objectifs et motivations). Pour la première de ces fonctions, l’évaluation peut être dite externe dans la mesure où elle utilise, pour mesurer la performance, des critères externes au processus d’apprentissage. (…) Pour la seconde, l’évaluation peut être dite essentiellement interne, en ce sens que le résultat auquel elle parvient n’a de valeur que s’il est reconnu par l’apprenant (…) C’est donc la place de l’évaluation dans la globalité du système éducatif qui pose problème, pas uniquement son contenu et ses modalités. En matière d’évaluation, les vraies questions sont stratégiques et non pas techniques : il s’agit moins de trouver le test idéal que de décider de l’utilisation des résultats » (Ocde : 1993 : 20, 21).

Pour analyser les préoccupations professionnelles auxquelles répondent ces

modélisations prescriptives, il convient donc de préciser ce concept de « fonction » par

rapport à la construction de leur raisonnement logique. La « fonction » a-t-elle la même

fonction dans la philosophie d’E. Husserl (« fonction téléologique ») ou dans la sociologie

fonctionnaliste (« fonction sociale ») ? La fonction téléologique est un concept a priori, qui

permet de réfléchir au choix des informations à collecter, des observations à faire et des

processus cognitifs mis en œuvre pour les interpréter. La fonction sociale est un postulat de la

sociologie (« fonction latente ») pour interpréter certaines corrélations, cooccurrences ou

congruences de phénomènes. Elle se rapproche alors de l’acception mathématique, dont elle

est une forme d’application méthodologique. Dire « l’évaluation remplit une fonction » sous-

entend qu’on fasse référence à la seconde acception, mais cette expression s’avérerait

impropre pour parler de l’évaluation certificative, formative ou diagnostique, car rien ne

permet d’affirmer que ces fonctions existent socialement au-delà de leur valeur heuristique.

Dit autrement, les fonctions de l’évaluation ont un intérêt pour conduire les professionnels à

s’interroger sur les objets de l’évaluation et sur les processus mis en œuvre - pour certifier,

pour accompagner l’apprenant, pour diagnostiquer ses difficultés - mais, d’une façon

objective, on ne peut appréhender que les objets et les processus évoqués par eux. La

« fonction » n’est donc pas un objet de recherche, mais une catégorie dont il convient de

préciser la position dans la construction méthodologique.

Page 124: UN REFERENTIEL, POUR QUOI FAIRE

124

3) L’analyse et la pédagogie institutionnelles :

Le mouvement institutionnaliste, qui se structure dans les années soixante, réintroduit la

réflexion phénoménologique, dans le domaine de la pédagogie mais aussi dans l’analyse des

institutions sociales (avec la socianalyse). Certaines options, très impliquées, de ce courant de

pensée ont induit des critiques : il serait fastidieux de se replonger dans la totalité de ces

débats, mais il semble difficile d’en faire l’impasse dans la mesure où ils ont fait émerger des

questions de fond. Les scissions qui s’opèrent avec le mouvement Freinet en 1962, puis deux

ans plus tard au sein même de la « pédagogie institutionnelle », entre les pédagogues scolaires

et thérapeutes (F. Oury et A. Vasquez, J. Oury), et « l’orientation autogestionnaire et

socianalytique » (G. Lapassade, R. Lourau), ont fait surgir des questions sur le

positionnement du chercheur et les modalités de l’intervention pédagogique.

Tout d’abord le premier de ces deux courants : les nouveautés introduites par la pédagogie

institutionnelle (F. Oury, A. Vasquez, 1967) ne tiennent pas tant à l’originalité des

propositions pédagogiques : correspondance scolaire et extrascolaire, journal scolaire, sortie

enquête, conseil coopérative. On retrouve toutes les techniques de C. Freinet et des

pédagogues qui l’ont inspiré (1967/1997 : 199-204), les pratiques des autres mouvements

pédagogiques, américains (J. Dewey), soviétiques (Makarenko), espagnols (Ferrer), ou les

idées des mouvements de jeunesse français (CEMEA, Eclaireurs, Auberges de jeunesse).

L’originalité provient plutôt de la spécificité d’une démarche, qui a allié la réflexion sur ces

pratiques avec l’analyse de certains processus qui sont en jeu dans une classe, du moins à

l’école primaire (le découpage disciplinaire du collège se prêtant peu à l’expression de ces

phénomènes, à part les classes spécialisées). C’est l’introduction d’une psychologue dans une

classe (A. Vasquez), qui a permis de différencier et d’allier, d’une part, la réflexion du

praticien, ses interrogations, son expérience et ses observations avisées (F. Oury), d’autre

part, l’analyse des phénomènes psychologiques auprès du public, les deux s’enrichissant

mutuellement. Ainsi les auteurs font-ils référence autant à des considérations psychologiques,

en particulier sur les situations anxiogènes ou les phénomènes d’identification, qu’aux

expériences psychothérapeutiques52 et à la dynamique des groupes, qui s’est développée aux

USA sous l’influence de K. Lewin et de C. Rogers. On notera par ailleurs, les limites qu’ils

posent à l’introduction de la psychologie à l’école, et plus particulièrement à la psychanalyse

(1967/1997 : 233-241).

52 F. Oury est le frère de J. Oury, psychothérapeute.

Page 125: UN REFERENTIEL, POUR QUOI FAIRE

125

Mais ce qui nous intéresse surtout, dans cette approche, c’est la fonction que cette

pédagogie fait jouer à « l’institution », à partir d’une analyse, à la fois des interactions entre

individus, à la fois des représentations que les acteurs (enfants à l’école, mais aussi malades

en institutions psychothérapiques), ont de ces situations :

« Ces situations souvent anxiogènes – travail réel, limitations de temps et de pouvoir – débouchent naturellement sur des conflits qui, non résolus, interdisent à la fois l’activité commune et le développement affectif et intellectuel des participants. De là cette nécessité d’utiliser, outre des outils matériels et des techniques pédagogiques, des outils conceptuels et des institutions sociales internes capables de résoudre ces conflits par la facilitation permanente des échanges matériels affectifs et verbaux » (1967/1997 : 245).

Ces quelques lignes résument la fonction pédagogique, pour les auteurs, du « conseil de

coopérative », pratique pédagogique qui s’est plus ou moins développée à l’école primaire,

mais aussi, de façon conséquente, dans les formations d’adultes et dans les mouvements de

jeunesse et d’éducation populaire. Ils introduisent ainsi une définition de l’institution qui n’est

plus seulement conçue comme une entité organique abstraite et lointaine, mais qui s’ancrent

dans tous les actes de la vie quotidienne du groupe social.

« Qu’entendons-nous par « institutions » ? La simple règle qui permet d’utiliser le savon sans se quereller est déjà une institution. L’ensemble des règles qui déterminent « ce qui se fait et ne se fait pas » en tel lieu, à tel moment, ce que nous appelons « les lois de la classe », en sont une autre. Mais nous appelons aussi « institution » ce que nous instituons : la définition des lieux, des moments, des statuts de chacun suivant son niveau de comportement, c'est-à-dire ses possibilités, les fonctions (services, postes, responsabilités), les rôles (présidence, secrétariat), les diverses réunions (chefs d’équipe, classes de niveau…), les rites qui en assurent l’efficacité, etc. » (1967/1997 : 82).

En définissant ainsi l’institution comme l’ensemble des modalités relationnelles et des modes

de communication qui sont établis en groupe, ritualisés et qui ont force de loi, c'est-à-dire sont

acceptés par tous les membres de la communauté, les auteurs soulignent un des aspects

importants de l’éducation, l’apprentissage du savoir vivre en groupe. On pourrait invoquer

aussi les pédagogies de Neill ou de Makarenko (J. Houssaye et ass. ; 1994 et 1995), qui ont

aussi élaboré des propositions similaires de conseils des jeunes, pour leur apprendre à vivre

ensemble.

Le second courant allie aussi pédagogie et analyse institutionnelle, mais dans un mode

d’intervention socianalytique, fortement induit par les pratiques de dynamique de groupe (T.

Group) et la psychosociologie nord américaine (C. Rogers, K. Lewin). Ces auteurs (G.

Lapassade, R. Lourau, R. Hess, etc.) appréhendent l’ « institution » de façon sociologique -

ethnographique et ethnométhodologique plus exactement (G. Lapassade ; 1991).

Page 126: UN REFERENTIEL, POUR QUOI FAIRE

126

Pour eux, l’institution est un processus cyclique qui se décompose en trois moments : la

société instituée, le faire instituant et l’institutionnalisation. (R. Lourau ; 1978 : 68, 69).

« Toutes les règles, normes, coutumes, traditions, etc. que l’individu rencontre dans la société sont ce qui est institué et que peut étudier de façon objective le sociologue » (G. Lapassade : 1975 : 48) « L’institution, c’est le processus par lequel naissent des forces sociales instituantes qui finissent souvent par constituer des formes sociales juridiquement codées, fixées, instituées. L’ensemble du processus, c’est l’histoire, succession, interférences, mélange de forces contradictoires travaillant tantôt dans le sens de l’institutionnalisation, tantôt dans le sens de la des-institutionnalisation » (R. Lourau, 1978 : 64).

Pour R. Lourau, ces trois phases correspondent à « trois moments philosophiques » :

universalité (institué), particularité (instituant), singularité (institutionnalisation) (1978 : 69).

Cette conception de l’institution a été empruntée aux théories de C. Castoriadis qui a, le

premier, mis en valeur cette opposition entre la « société instituante » et la « société

instituée » (…) (G. Lapassade ; 1975 : 53, 54). Pour cet auteur,

« l’institution est un réseau symbolique, socialement sanctionné, où se combinent en proportions et en relations variables une composante fonctionnelle et une composante imaginaire » (C. Castoriadis, cité par J. Ardoino, L. Lourau ; 1994 : 120).

G. Lapassade résume cette idée :

« une société institue un ensemble organisé de rapports sociaux par un « faire instituant » qui prend appui sur « une situation donnée », sur des créations du passé encore « vivantes », sur le fait qu’il existe déjà une société instituée lorsque le nouveau faire instituant la trans-forme » (G. Lapassade ; 1975 : 53, 54).

Pour ces auteurs, l’institution n’est pas seulement un ensemble de pratiques sociales codées et

ritualisées, comme pour les sociologues (E. Durkheim, B. Malinowski), mais un processus

toujours en mouvement, d’institutionnalisation et de remise en question des formes instituées.

A travers les pratiques de dynamique de groupe, leur objectif d’« intervenant » a alors

consisté à éveiller la créativité des forces instituantes, à partir d’évènements qui déclenchent

une prise de conscience collective des processus qui sont en jeu dans la situation hic et nunc :

les « analyseurs ».

« On pourrait avancer une définition de l’analyse institutionnelle en disant qu’elle vise : la mise à jour, dans les groupes et formes sociales, de l’inconscient politique à partir des analyseurs institutionnels. Par là, l’analyse institutionnelle est à la fois analyse des institutions sociales et des analyseurs sociaux qui les révèlent. On proposera donc la définition suivante de l’analyseur : l’analyseur et une machine à décomposer, soit naturelle, soit construite à des fins d’expérimentation ou à des fins d’intervention » (G. Lapassade ; 1975 : 78).

Mais cette conception qui articule, de façon dialectique, un mode d’intervention prescriptif

avec une démarche d’analyse descriptive, n’est pas exempte d’ambiguïté. La scission au sein

du mouvement institutionnaliste n’en serait-elle d’ailleurs pas une des conséquences ?

Page 127: UN REFERENTIEL, POUR QUOI FAIRE

127

- On peut regretter qu’il n’y ait pas eu, à l’époque, d’instance de supervision pour exploiter

cette rupture comme un analyseur53 -. On propose, dans la suite, quelques éléments d’analyse

qui n’ont d’autre prétention que d’ouvrir le débat, et surtout d’introduire les hypothèses sur

lesquelles on a travaillé par la suite, au sujet des relations entre les actions éducatives et les

institutions sociales. La rupture entre ces deux mouvements n’est pas une division entre

théoriciens et praticiens, puisque les deux courants s’appuient sur l’analyse de leurs pratiques

pédagogiques. Elle n’est pas non plus la conséquence de références divergentes, les deux

courants fondant leurs pratiques sur les méthodes actives des pédagogies nouvelles et sur les

théories de la dynamique des groupes nord-américaine. Elle apparaît plus comme une

dissension entre militants de la pédagogie qu’une divergence conceptuelle. Si on se reporte

aux critiques formulées, à l’époque, par G. Lapassade, on constate qu’elles portent sur le fait

que les pédagogues scolaires privilégient les formes instituées de l’institution :

« Cette définition de l’institution est très légaliste. De ce fait, elle rejoint la grande tradition classique de l’institutionnalisme sociologique qui privilégie ce qui est déjà institué : l’ensemble des règles de fonctionnement d’un groupe, d’une organisation, d’une société » (G. Lapassade ; 1975 : 22) . « Cooper, Illich, Basaglia : voici de nouvelles formes, plus radicale, d’analyse institutionnelle. Mais cette fois, il n’y a plus de « technologie institutionnelle » : les « institutions » ne sont plus des outils thérapeutiques et pédagogiques. La différence entre le premier mouvement institutionnaliste (à l’hôpital, à l’école) et le second (antipsychiatrie, anti-école), c’est que dans le premier mouvement, on reste à l’intérieur d’un certain cadre institutionnel (la clinique ou l’école) tandis que dans le second (anglais-italien), on sort de ce cadre. Dans le premier (le mouvement institutionnaliste français), on attaque seulement les méthodes. Ainsi la pédagogie institutionnelle attaque l’école caserne ; mais elle maintient l’école, en changeant les institutions internes seulement. Dans la seconde approche institutionnaliste (celles des Anglo-Saxons), on s’attaque aux principes. Ce second mouvement est explicitement lié, dès 1967, au mouvement international de la contre-culture » (idem : 38).

Les psychosociologues privilégient l’émergence des forces instituantes. L’auteur fait

référence aux conceptions anti-institutionnelles qui ont accompagné certains mouvements de

contre-culture : lui-même s’orientera, quelques années plus tard, vers l’étude du Hip Hop. N’y

a-t-il pas alors simplement une raison de type sociologique, dans les conditions propres à

l’acte éducatif, qui expliquerait une telle divergence entre les deux courants, sans avoir

recours, pour l’expliquer, à des idéologies pédagogiques … ou politiques ? 54

53 Il y a là une limite de la socianalyse dans sa remise en cause de tout « institué ». Les pratiques analytiques ont besoin d’un collectif de « supervision », qui permet à l’analyste de prendre de la distance par rapport à sa propre subjectivité : d’une instance de « réflexivité », pourrait-on dire en reprenant le terme des ethnométhodologues. Or le choix du militantisme, et surtout de l’ « implication », ont conduit les socianalystes à négliger l’importance de cette phase de régulation : cette contradiction est analysée plus loin. 54 On pourrait observer ici une des conséquences de l’opposition entre « lecture pédagogique » et « lecture sociologique » des phénomènes éducatifs, mise en valeur par J.C. Forquin (1996 : 184), mais cette explication n’est que partiellement satisfaisante, dans la mesure où ces deux courants sont des pédagogues – intervenants.

Page 128: UN REFERENTIEL, POUR QUOI FAIRE

128

Quand on observe les publics respectifs de ces modes d’intervention, les pédagogues qui ont

pratiqué avec des enfants (ou des malades) sont dans le premier courant ; ceux, plus

influencés par la psychosociologie, qui ont pratiqué avec des étudiants, des groupes d’adultes

(voire parfois avec des adolescents), s’inscrivent dans le second courant. Or les « formes de

transmission », « constitutives de l’institution » (1975 : 29), sont-elles identiques aux périodes

de l’enfance et de la jeunesse ? Entre 7 et 11 ans, les enfants se socialisent, l’école est « un

lieu de découverte de la vie sociale », « les lois sont différentes de celles de la famille ». Ils

recherchent, à cet âge, à entrer dans la norme, à « être comme les autres » (R. Mucchielli ;

1963 : 93-103). L’apprentissage des normes sociales apparaît ainsi un phénomène intrinsèque

à la maturation psychologique de l’enfant à cette période de la vie. La jeunesse et l’université

sont, au contraire, des moments où les individus et les groupes affinitaires apprennent à se

faire une place dans la société, à devenir des forces instituantes.

La question qui se pose alors est de savoir si un individu, ou à plus forte raison un groupe,

peut devenir « force instituante » sans avoir participé, au préalable, à un apprentissage

collectif des formes instituées de la communication sociale ? Question qui renvoie à bien

d’autres, telle en particulier celle de l’apprentissage disciplinaire : par exemple, faut-il avoir

appris les techniques artistiques avant de pouvoir les dépasser et créer un nouveau style ? Ou

encore, a-t-on besoin de maîtriser la rigueur universitaire avant d’innover en matière de

recherche ? Etc. Certes, bien des créations et des innovations l’ont été par des personnalités

qui n’ont pas suivi les voies officielles et académiques, ou par des groupes qui se sont formés

en dehors des institutions. Mais, réciproquement, l’institutionnalisation ne se forme que dans

un processus de communication : cela signifie un minimum de règles communes reconnues

par toutes les parties en présence. Le meilleur exemple n’est-il pas la langue ?

« L’exemple le plus clair d’une institution à la fois extérieure et intérieure à l’individu est celui de la langue ; c’est un système de règles que l’individu trouve là, extérieur à lui et que les linguistes peuvent étudier objectivement. En même temps, la langue est aussi une instance intérieure au sujet qui est instituant par la parole. Cette dialectique de l’extérieur et de l’intérieur fonde les systèmes symboliques » (G. Lapassade ; 1975 : 61, 62).

A travers l’exemple de la langue, on perçoit bien la fonction instituante des institutions

éducatives : l’école, mais aussi la famille, les structures de socialisation, etc. L’apprentissage

des formes instituées de notre société n’est pas inné : c’est en s’intégrant dans les institutions

que l’enfant, à un âge où sa maturité psychologique le rend réceptif, intériorise ces règles

implicites, ces modes de communication, ces rituels sociaux. On conçoit alors la difficulté,

pour les professionnels qui se trouvent dans des institutions dont la fonction sociale est

l’apprentissage de cette vie en société, d’adhérer au discours radical des anti-institutionnels.

Page 129: UN REFERENTIEL, POUR QUOI FAIRE

129

Celui-ci, porteur d’une réalité sociale émergente - la contre-culture et la diversification des

systèmes de référence culturels (objet de recherche pour les psychosociologues français) -,

apparaît bien moins adapté au fonctionnement des institutions éducatives traditionnelles.

Cette rupture entre institutionnalistes pose une autre problématique, méthodologique

celle-ci : l’ « implication » du chercheur. Si cette implication a, pour objectif, de lever certains

obstacles épistémologiques (G. Lapassade ; 1991), n’en a-t-elle pas recréé d’autres ?

L’analyse institutionnelle a cherché à allier la psychosociologie d’intervention et

l’ethnographie scolaire / l’ethnométhodologie (1991 : 145-156) ; aussi la question de

l’implication se pose-t-elle de deux façons différentes selon qu’on aborde l’intervention ou

l’approche ethnologique. Analysons d’abord les points communs aux deux approches.

L’analyste (ou l’ethnologue) n’est pas « neutre », il investit la situation avec son propre

système de référence. Par ailleurs, en tant que participant au groupe, il est lui-même investi

d’un « rôle social » par les autres participants, c'est-à-dire d’une représentation de sa position

institutionnelle dans le groupe : formateur, expert, scientifique, « outsider » (étranger), etc.

Cette position est cependant différente dans le cadre de l’intervention et de la recherche

ethnographique. Dans la première :

« La règle de l’implication de l’animateur est une réalité constante des groupes de rencontre. Sur ce point, la technique est en rupture totale avec la règle de neutralité analytique issue de Freud, et pratiquée généralement dans les séminaires de dynamique de groupe, où le moniteur ne dit jamais ses sentiments sur la situation » (G. Lapassade ; 1975 : 127). Ainsi les institutionnalistes ont « remplacé, progressivement, le concept de contre-transfert institutionnel (emprunté, notamment, à F. Gantheret) par celui de l’implication. Le terme était déjà utilisé par les psychologues. Nous lui avons donné un sens qui le met en relation avec les appartenances et références des participants d’une formation, d’une intervention ; nous parlons en même temps des implications de « l’analyste ». Pourtant, il me semble que nous rencontrons des difficultés à avancer sur ce chemin. Cette définition de l’implication en termes d’appartenance et de références n’est pas suffisamment « implicante ». Elle constitue sans doute une rupture avec le dogme creux de la soi-disant neutralité analytique. Mais (…) elle est en retrait par rapport à l’implication des animateurs des groupes de rencontre et des groupes de transe » (Idem : 5 et 6).

Le terme de « transfert » exprime la façon dont les participants investissent l’animateur du

groupe, plus précisément la façon dont ils projettent leurs représentations sur la position

institutionnelle de celui-ci. Aussi, à partir de ce « transfert », est-il possible de conduire les

membres du groupe à analyser certains processus institutionnels : sur quoi repose cette

représentation du rôle de l’animateur ? Comment fonde-t-elle les rapports institués, etc. ? En

psychanalyse, le « contre transfert » est la réaction de l’analyste au transfert du patient, « la

composante de tous les vécus » qui « englobe toutes les réponses du psychanalyste envers le

psychanalysé » (P.F. Chanoit, F. Gantheret, cités par J. Ardoino, L. Lourau ; 1994 : 69). Dans

le cas présent, ce sont les réponses / réactions de l’animateur aux divers transferts du groupe.

Page 130: UN REFERENTIEL, POUR QUOI FAIRE

130

Le remplacement par le concept « d’implication » signifie alors un positionnement plus

participatif de l’animateur dans le groupe : l’analyste ne se borne pas à des « analyseurs

naturels » sur lesquels il s’appuie pour conduire l’analyse, il élabore des « analyseurs

construits », c'est-à-dire il provoque des situations pour faire émerger les discussions.

« La théorie des analyseurs sociaux concerne aussi l’intervenant-consultant. Nous avons en effet montré qu’une technique centrale est l’institution des analyseurs construits fonctionnant comme des provocateurs de parole sociale et des « simulateurs » de l’institution analysée. De plus l’analyse ainsi construite vise à découvrir des analyseurs institutionnels non construits, mais « naturels », ou mieux sociaux. On voit donc que cette théorie des analyseurs « naturels » ou au contraire « construits » est susceptible d’unifier l’ensemble théorique de la recherche active allant de l’analyse « consultante » à l’analyse « militante » pour reprendre ici une opposition qui, dans la pratique, est encore loin d’être surmontée » (G. Lapassade ; 1975 : 77, 78).

Sans entrer ici dans les débats déontologiques auxquels nous renvoie cette position, on notera

qu’ils concernent plus la pratique que la recherche, la modélisation prescriptive que la

descriptive. En raison des choix épistémologiques qu’on a argumentés dans la première partie,

on ne suivra donc pas l’auteur dans cette logique de l’intervention ; cela n’annihile pas pour

autant l’intérêt de leur approche institutionnelle pour analyser certains phénomènes sociaux.

La seconde façon d’approcher cette notion d’ « implication » introduit cette voie d’une

analyse institutionnelle distanciée de l’intervention analytique. C’est vers la fin de sa carrière

universitaire que G. Lapassade évoque l’ethnométhodologie et l’interactionnisme symbolique

(1991) et situe sa position de chercheur par rapport à ce courant microsociologique55. Il

analyse, en particulier, les différentes positions du chercheur qui adopte une « observation

participante » d’ethnologue, pour observer les groupes sociaux. Il reprend la typologie de

Adler et Adler (1987) qui différencient « l’observation participante périphérique » où le

chercheur participe, comme « membre », aux activités du groupe pour les découvrir de

l’intérieur, mais sans assumer un rôle central ; « l’observation participante active », le

chercheur adopte un statut au sein de l’institution qu’il étudie, par exemple celui de professeur

dans une école ; et « la participation complète » : le chercheur se convertit et adhère

entièrement au groupe, ou bien étudie de l’intérieur une institution à laquelle il participe

activement (1991 : 32-37). C’est par rapport à ces catégories d’observation participante que

l’auteur situe la question de l’implication. Il reprend le concept de « recherche action », pour

préciser sa proposition (1991 : 42-44 et 143-156).

55 Cela ne veut pas dire que cette influence ethnologique n’existait pas dans la première période de recherche de G. Lapassade qui fait référence à B. Malinovski ou à l’école de Chicago. Mais les théories, à proprement parler, ethnométhodologiques ou interactionnistes étaient peu diffusées en France avant la fin des années soixante dix, et cet auteur n’y fait pas référence dans ses premiers ouvrages.

Page 131: UN REFERENTIEL, POUR QUOI FAIRE

131

Mais cette nouvelle position n’est pas exempte de contradictions56, tout au moins

d’ambivalences fort bien analysées par l’auteur lui-même :

« Les typologies de l’observation participante avec ses divers degrés d’implication sont traversées par cette question permanente et qui n’a pas reçu encore, à ce jour, de réponses pleinement satisfaisantes : comment faire à la fois la part de l’implication dans la vie d’un groupe et d’une institution et la part du recul nécessaire, dit-on, si l’on veut rester un « chercheur » ? » (1991 : 40)

L’implication pose donc surtout une question largement abordée dans cette thèse, celle de la

différenciation entre la modélisation prescriptive du praticien et la modélisation descriptive du

chercheur, ainsi que la dialectique qui articule les deux. Elle est posée autrement plus loin :

« Alfred Schutz a montré lui aussi que dans l’attitude naturelle, l’homme au travail « suspend le doute » alors que la disposition à la recherche suppose au contraire le doute méthodique. Les enseignants doivent « suspendre le doute » pour agir, pour accomplir leur tâche d’enseignants » (G. Lapassade ; 1991 : 140).

Les propositions ethnométhodologiques offrent donc à l’analyse institutionnelle de

nouvelles perspectives pour étudier la complexité des phénomènes d’institutionnalisation, à la

fois des formes instituées et des dynamiques instituantes : l’interactionnisme symbolique

permet une approche sociologique des phénomènes de communication qui sera approfondie

dans la partie méthodologique. La conception de l’institution en est modifiée : elle n’est plus

conçue comme une structure extérieure aux individus qui leur imposerait des règles et des

normes, mais comme l’ensemble des codes de la communication, des pratiques rituelles, des

façons de faire, des coutumes, des habitudes, etc. institués au cours de l’histoire et intériorisés

par une communauté. Cette définition permet de préciser les hypothèses de travail : ces

formes instituées sont communiquées, de génération en génération, par les structures

institutionnelles que la société a élaborées pour éduquer la jeunesse : l’école, mais aussi la

famille, les modes de socialisation contemporains, la culture, les médias, la vie associative,

etc. Tout comme le langage qui fait partie de ces institutions, ces modes ont une fonction dans

la communication sociale (cf. partie sociologique). Il n’y a donc pas lieu de rejeter les

apprentissages collectifs que préconisent les pédagogues scolaires, du moins n’a-t-on aucune

raison de les négliger en tant que chercheur, dont la problématique n’est pas celle du militant.

56 Quand G. Lapassade évoque l’implication en 1975, il écrit : « dans ces livres, je m’implique (…) il est certainement plus difficile de le faire dans une pratique d’intervention. Et pourtant, si on ne le fait pas, on manque le but essentiel : la vérité. » (1975 : 6). Or, en commentant les théories de Carr et Kemmis sur la recherche action, en 1991, il précise les exigences que « devrait satisfaire toute science de l’éducation adéquate et cohérente : elle doit rejeter les notions positivistes de rationalité, d’objectivité et de vérité » (1991 : 150). Cette contradiction illustre un tournant, qu’il apparaît essentiel d’analyser pour percevoir les apports fondamentaux de l’ethnométhodologie à l’analyse institutionnelle, et la rupture avec les premières conceptions.

Page 132: UN REFERENTIEL, POUR QUOI FAIRE

132

Ce dernier s’interroge sur la priorité de son action, c'est-à-dire s’il faut plutôt œuvrer, au sein

des institutions, en innovant de nouvelles formes d’apprentissage des règles sociales

instituées, ou plutôt en marge de celles-ci pour favoriser l’émergence de nouvelles formes

instituantes. Le chercheur a, pour mission, d’identifier les processus (les formes instituées

aussi bien que les forces instituantes) et la façon dont ils structurent la société (la fonction

d’institutionnalisation), à charge pour le praticien d’exploiter cette connaissance pour

optimiser son action. Certes l’ethnométhodologie a montré en quoi ces postures sont

imbriquées et s’enrichissent réciproquement : le parti-pris de cette thèse (établir un parallèle

entre les préoccupations des professionnels et les problématiques de recherche) est aussi un

fruit de cette conception dialectique. Mais articuler ces deux types de modélisations

(descriptive et prescriptive) et ces deux postures (recherche et action) ne signifie pas les

confondre. Bien au contraire, l’approche phénoménologique est avant tout analytique. Et

analyser un phénomène, c’est étudier tous les aspects de celui-ci, c'est-à-dire tous les

moments de l’institution : le rôle des forces instituantes, mais aussi les formes instituées, et

les fonctions de l’institutionnalisation, c'est-à-dire la façon (le faire-action) dont l’institution

génère les modes de fonctionnement qui deviendront institués. Pour pouvoir observer les

phénomènes d’institutionnalisation, les trois moments de l’institution ont ainsi besoin d’être

réifiés : formes institutionnelles (ou structures), forces instituantes (ou acteurs) et fonctions

institutionnelles.

Par conséquent, on suivra l’analyse institutionnelle, quand elle nous invite à porter un

autre regard sur les institutions, c'est-à-dire à les analyser comme des représentations et des

conceptions qui se sont progressivement institutionnalisées sous l’impulsion de forces

instituantes. Cette façon de voir nous conduit à rechercher les acteurs sociaux moteurs, et la

façon dont ils ont œuvré pour faire accepter leurs représentations. Elle nous conduit aussi à

différencier les formes instituées, les procédures, les produits de l’évaluation, des forces qui

agissent pour se les approprier et les modeler d’une certaine façon en fonction de leurs

propres représentations. Les analyses de J.M. Barbier, sur la notion de « projet », vont dans ce

sens (pages 141 à 146).

Page 133: UN REFERENTIEL, POUR QUOI FAIRE

133

Mais on ne suivra pas cette proposition lorsque, rejetant le fonctionnalisme de B.

Malinowski ou d’E. Durkheim, elle revendique l’intervention auprès des forces instituantes au

détriment d’une recherche sur la signification que les acteurs du monde de l’éducation

accordent à l’apprentissage des formes instituées de notre société (« socialisation »)57. Le

chercheur ne se doit-il pas, avant tout, d’analyser les enjeux d’une situation, en l’occurrence

ici de comprendre ce qui motivent les pédagogues scolaires à promouvoir la réflexion sur les

« processus de socialisation », négligée par un système scolaire qui ne s’est préoccupé que de

certaines formes d’apprentissages (connaissances et compétences), au détriment d’autres tout

aussi essentielles, le savoir vivre en groupe. (cf. Par exemple, Qu’apprend-on à l’école ? Les

nouveaux programmes. Education nationale – 2002). Les recherches en sciences de

l’éducation ne sont pas neutres dans cet oubli : cette préoccupation a été négligée, jusqu’à ce

que P. Jackson (1968) évoque le « curriculum caché ». Ce terme de « caché » n’est-il pas,

d’ailleurs, significatif quant à la considération de cette fonction éducative dans la conception

traditionnelle de l’enseignement ? (cf. pages 133 à 140).

On étudiera donc les objets de l’évaluation, les procédures mises en œuvre, les façons

de faire, les habitudes, etc., mais en cherchant à les situer par rapport à la fonction (le faire-

intention) qu’ils remplissent pour les forces instituantes (les acteurs qui en ont fait la

promotion). Ainsi sera-t-on plus en mesure d’analyser les logiques intrinsèques de nos

institutions sociales.

4) Concepts de « projet » et de « curriculum » :

Face à l’atomisation analytique induite par les taxonomies et la pédagogie de la

maîtrise, divers courants de recherche se sont orientés vers des approches plus globales.

L’étude s’est alors centrée sur les processus de formation ou d’enseignement, autour de

certains concepts qui fédèrent des pratiques : le « projet » et le « curriculum » sont de ceux-là.

Leur extension à notre époque a certainement des raisons intrinsèques à l’évolution de la

société contemporaine, mais elle accompagne aussi, du moins dans le domaine de l’éducation,

l’émergence de champs professionnels et de problématiques nouvelles. Les façons

d’appréhender l’évaluation en sont nécessairement modifiées.

57 Même si on est conscient, par ailleurs, que toute remise en cause d’une conception disciplinaire dominante – et donc socialement instituée - dans une discipline (telle la sociologie et l’ethnologie du début du XXème siècle), induit souvent, dans un premier temps, une antithèse forte.

Page 134: UN REFERENTIEL, POUR QUOI FAIRE

134

4-1) Le concept de « curriculum » :

Le concept de « curriculum » a été formé, dans sa conception éducative

contemporaine, au début du XXème siècle, par J. Dewey : « the child and the curriculum »

(1902), reprise ensuite par F. Bobitt : « the curriculum » (1918). Le curriculum est conçu, par

ces auteurs, comme la préparation de la jeunesse à la vie adulte, ou encore comme l’ensemble

des expériences nécessaires au développement de l’élève. J. Dewey s’inscrivait alors dans un

courant de recherche qui alliait philosophes, ethnologues (G.H. Mead) et linguistes (E.

Sapir) : l’école de Chicago. Cette première conception du curriculum est largement fondée sur

les théories pragmatiques de l’époque (C.S. Pierce). 58

A. Muller analyse la complexité de la pensée de J. Dewey pour qui le curriculum n’est

pas une simple programmation de contenus d’enseignement, ni la succession des expériences

de l’élève, mais le processus d’interaction entre les deux :

« Le programme et l’enfant ne se différenciant pas par leur nature mais par la place qu’ils occupent dans un même processus, le premier aura alors pour double fonction d’interpréter et de guider l’expérience du second » (A. Muller ; 2006 : 105).

Les réflexions de J. Dewey enrichissent les débats de son époque sur le rôle des adultes par

rapport au développement psychologique de l’enfant :

« Pour Dewey, cette dynamique est soutenue par l’interaction de l’aspect logique et de l’aspect psychologique de l’expérience, expression qu’en première estimation, on pourrait traduire par interaction des savoirs organisés et des connaissances de l’enfant. » Mais « Dewey pensant systématiquement en termes de relations, on ne peut verser le psychologique du côté des connaissances de l’enfant et le logique du côté du savoir : l’aspect psychologique du savoir est le rapport du système enfant-connaissances-environnement au savoir et l’aspect logique est le rapport du système enseignant-savoirs-environnement aux connaissances de l’enfant » (A. Muller ; 2006 : 104).

Mais surtout, pour cette conception influencée par la conception pragmatique de l’école de

Chicago, c’est dans un univers de significations, de principes logiques, de rites fonctionnels,

etc., que s’inscrivent les apprentissages du jeune humain, qui cherche à s’y adapter. En

utilisant la métaphore de la carte et du voyage, l’auteur montre que les programmes d’étude

(curriculum) ont surtout pour fonction d’orienter l’expérience de l’enfant qui se réapproprie le

patrimoine culturel, plus que de prescrire des modes d’apprentissage.

58 On se réfère ici au document de cours d’Y. Cottavoz (UPMF Grenoble II) : « les grands courants qui ont orienté les recherches sur le curriculum ».

Page 135: UN REFERENTIEL, POUR QUOI FAIRE

135

« Ce que nous appelons une science ou une branche condense (…) pour l’avenir l’expérience passée sous la forme la plus profitable. C’est un capital qui peut produire immédiatement un intérêt. (…) Ainsi la mémoire bénéficie de ce que les faits sont groupés autour d’un principe commun, au lieu de n’être réunis qu’incidemment. Nous observons mieux quand nous savons d’avance que regarder et où regarder. Autre chose est de chercher une aiguille dans un tas de foin, autre chose de chercher un documentaire dans une bibliothèque bien organisée. Le raisonnement en profite également puisqu’il peut trouver la ligne générale, naturellement suivie par les idées, et qu’il n’a pas besoin de passer d’une association fortuite d’idées à une autre. (…) Les abstractions, les généralisations, les classifications logiques ont toutes une signification pragmatique, pratique, tournée vers l’avenir (…) Il s’ensuit qu’il est nécessaire de mettre les programmes d’étude en rapport avec l’expérience. Il faut revenir à l’expérience dont ils ne sont que des extraits. Il faut les traduire en termes psychologiques, en retrouvant, et en mettant en lumière les expériences personnelles, immédiates, qui ont été l’origine des sciences et qui leur donnent leur signification. Tout sujet ou branche d’étude a donc deux aspects : l’un pour le savant en tant que savant ; l’autre pour le pédagogue comme pédagogue » (J. Dewey ; 1962 : 107-109).

Dans les années 60 et 70, le concept de « curriculum » est repris outre-manche par des

travaux qui vont se centrer sur les contenus scolaires, les programmes et les cursus de

formation.

« Un curriculum scolaire, c’est tout d’abord un parcours éducationnel, un ensemble suivi d’expériences d’apprentissage effectuées par quelqu’un sous le contrôle d’une institution d’éducation formelle au cours d’une période donnée. Par extension, la notion désignera moins un parcours effectivement accompli qu’un parcours prescrit par une institution scolaire, c'est-à-dire un programme et un ensemble de programmes d’apprentissage organisé en cursus (...) Une théorie du curriculum, c’est une théorie de l’éducation considérée comme entreprise de transmission cognitive et culturelle (...). La sociologie du curriculum suppose qu’on adopte un point de vue plus conforme à ce qui fait la spécificité des institutions d’enseignement, à savoir le fait d’être par destination des lieux de transmission et d’acquisitions des connaissances, de capacités et d’habitus. Les processus interactionnels au sein de l’institution ne l’intéressent donc qu’en référence à cet enjeu éducationnel et culturel que constituent la structuration et la circulation du savoir » (J.C. Forquin ; 1984 : 213, 214).

La définition qui nous est ici proposée, introduit clairement la contradiction qui explique la

complexité de ce concept et la diversité des modes de recherche qui y ont fait référence : le

curriculum est à la fois un ensemble d’expériences d’un individu qui conduisent à un

apprentissage, ce que P. Perrenoud appelle aussi « une succession cohérente d’expériences

formatrices » (dans J. Houssaye ; 1993 : 67), et un parcours d’apprentissages organisés par

une institution. Les définitions insisteront alors plus, dans leur formulation, sur un

positionnement, soit centré sur l’organisation du parcours de formation, soit centré sur

l’apprenant ; dans tous les cas, ces deux dimensions sont présentes.

« En définitive, toutes les définitions renvoient à l’idée de plan et d’organisation. Lorsqu’on parle d’un curriculum, on parle d’une construction intellectuelle ou d’un artefact culturel (Pratt & Short, 1993) qui a le projet d’influer sur les processus d’enseignement-apprentissage qui se déroulent concrètement dans les classes » (F. Audigier, M. Crahay, J. Dolz ; 2006 : 10).

Page 136: UN REFERENTIEL, POUR QUOI FAIRE

136

« Nous rejoignons en partie la définition de Musgrave, pour lequel le curriculum est identifiable à la succession d’expériences formatrices délibérément aménagées par les organisations scolaires » (P. Perrenoud ; 1984 : 237).

A partir de cette contradiction fondamentale, P. Perrenoud différencie, en matière de

curriculum : « le formel, le réel et le caché ». Le curriculum formel ou prescrit est le

« parcours éducatif prévu par des textes », le réel ou réalisé celui « effectivement vécu par les

élèves ».

« Le curriculum formel est une image de la culture digne d’être transmise, avec le découpage, la codification, la mise en forme correspondant à cette intention didactique ; le curriculum réel est un ensemble d’expériences, de tâches, d’activités qui engendrent ou sont censés engendrer des apprentissages » (P. Perrenoud ; 1984 : 237). La différence des deux adjectifs, « formel » et « prescrit », tient à ce que cette

« programmation d’un parcours éducatif » s’inscrit dans les modes de fonctionnement

institutionnels (de l’administration, de l’école, ...), mais elle a aussi le statut d’une

« injonction faite aux acteurs » (prescription).

« La représentation de la culture scolaire n’est pas une image quelconque d’une culture donnée. C’est une représentation formulée, souvent mise par écrit, méthodique, structurée en fonction d’objectifs pragmatiques : informations des intéressés, planification de l’action didactique, division du travail pédagogique, contrôle du système d’enseignement des maîtres. Nous appellerons curriculum formel le résultat de cette mise en forme ; nous parlerons de curriculum prescrit parce qu’il spécifie ce qu’il faut enseigner ou faire apprendre » (P. Perrenoud ; 1984 : 110).

On discerne, derrière cette différence de qualification entre le curriculum formel et le prescrit,

deux problématiques distinctes : dans le premier cas, quelles sont les institutions scolaires ou

de formation qui cadrent les apprentissages, leur genèse, leur organisation, leurs modes de

fonctionnement, les priorités exprimées ou implicites, etc. ; dans le second cas, quelles sont

les prescriptions adressées aux acteurs du système scolaire et comment ceux-ci se les

approprient-ils pour les mettre en œuvre, problématique que posent aussi F. Audigier, M.

Crahay, J. Dolz quand ils différencient le « curriculum officiel » et le « curriculum

effectivement enseigné » (2006 : 17). Le curriculum formel ou prescrit peut être étudié à

partir des textes : textes législatifs, programmes et plans d’étude officiels, commentaires des

plans d’étude qui visent à en fixer l’interprétation, méthodologies, moyens d’enseignement

destinés aux élèves, modèles d’évaluation (P. Perrenoud ; 1984 : 111 et 112).

Page 137: UN REFERENTIEL, POUR QUOI FAIRE

137

Le curriculum réel ou réalisé est la succession des expériences qui conduisent à

l’apprentissage : si on cherche à savoir ce que l’individu « a appris au cours de son existence,

son curriculum de formation se confondra avec sa vie » (1993 : 67). L’étude du curriculum

réel passe donc par une observation directe des pratiques quotidiennes des acteurs,

enseignants comme élèves. On notera que l’analyse du curriculum réalisé (effectivement mis

en œuvre par les acteurs) correspond plutôt à la problématique de la prescription (l’écart avec

le curriculum prescrit), alors que l’observation du curriculum réel plutôt à celle du curriculum

formel (comme « structuration d’expériences formatrices ») : comment l’apprenant s’adapte-t-

il à ce curriculum formel pour construire ses propres apprentissages ?

Enfin le curriculum caché pose une autre problématique, celle des processus de

socialisation, qui s’opèrent dans le cadre de la formation, sans avoir été intentionnellement

prévus :

« Lorsque Dominicé (1990) parle de faces cachées de la formation, il met en évidence un aspect essentiel du curriculum caché : tout ce que la formation déclenche à l’insu du formateur, au-delà du temps, de l’espace, du contraint qu’il maîtrise » (P. Perrenoud, dans J. Houssaye ; 1993 : 70).

Mais l’auteur montre aussi toute la relativité de ce caractère « caché », ce qui n’est pas perçu

par les uns pouvant être tout à fait anticipé, voire pris en compte, par d’autres :

« Le caché n’est pas vraiment caché. Il est non dit, partiellement non pensé. Il relève de l’intuition, et de ce qu’il vaut mieux passer sous silence ou conserver dans le flou » (idem : 72) « L’identification du caché est largement tributaire de la définition du manifeste » (idem : 75).

La fonction de la sociologie n’est-elle pas justement de rendre manifeste ce qui est

intuitivement mis en œuvre, de façon non dite et non pensée ? Par conséquent, ce concept de

« curriculum caché » a surtout l’intérêt d’introduire la recherche vers certaines fonctions

latentes, remplies par les formations et la scolarisation, sans être pour autant approfondies ou

verbalisées.

« Dans l’usage un peu laxiste qui tend à se répandre, le curriculum caché désigne une action de l’école qui, sans être méconnue ou inavouable, est souvent présentée sous des dehors idéalistes et édulcorés (…) : contribuer à la socialisation des nouvelles générations, leur faire intérioriser l’ordre moral et social, l’existence et la légitimité des inégalités et des hiérarchies, la nécessité du travail et de l’effort, le respect de l’autorité et des institutions. Il est vrai que le curriculum moral (cf. Musgrave, 1978) de l’école tend de nos jours à être un peu « honteux » et que le discours tant politique que pédagogique peut être tenté de dissimuler sous des formules générales une action éducative plus intégratrice que libératrice. (…) Cette euphémisation du curriculum moral n’autorise pas à le considérer comme réellement caché (…). En dépit de sa formulation vague, cette partie du curriculum n’échappe pas complètement à la conscience des acteurs sociaux » (P. Perrenoud ; 1984 : 240, 241).

Page 138: UN REFERENTIEL, POUR QUOI FAIRE

138

Ce concept du « curriculum caché » est repris à P.W. Jackson (Life in Classrooms, 1968), qui

l’identifie « aux routines quotidiennes qui, dans le fonctionnement de la classe et de

l’établissement scolaire, font que les élèves apprennent (…) à vivre dans un environnement

surpeuplé, à être constamment jugés (…) ou encore à obéir » (Idem : 243). J. Eggleston a,

dans la foulée de cette conception, mis en valeur divers types d’apprentissage sociaux non

formalisés par les curricula officiels : vivre dans une foule, apprendre la patience, se prêter à

l’évaluation d’autrui, vivre dans une société hiérarchisée et stratifiée, influencer le rythme de

travail par diverses stratégies, fonctionner dans un groupe restreint : « en partager et en

utiliser les codes de communication » (Idem : 244). Toutes ces dimensions de la vie collective

dans les institutions scolaires offrent un aperçu des domaines à explorer, à partir du concept

de « curriculum caché », pour découvrir les apprentissages sociaux qui se construisent de la

sorte. P. Perrenoud s’appuie sur le concept d’« habitus » de P. Bourdieu (sur lequel on

reviendra dans la partie méthodologique), pour analyser ces phénomènes :

« L’apprentissage de la vie dans un groupe restreint et dans une organisation bureaucratique prépare aussi, au-delà de la scolarisation, à vivre et à fonctionner dans d’autres organisations (…). Ce qu’un adulte vit n’est pas la stricte reproduction de son expérience scolaire, mais cette expérience est en partie transposable à d’autre types de groupe et d’organisation. En ce sens, l’école prépare à la vie au moins autant à travers l’ habitus d’acteur social qu’elle forme qu’à travers les qualifications et les connaissances qu’elle permet d’acquérir » (P. Perrenoud ; 1984 : 248, 249).

Mais il montre aussi que ces modes de fonctionnement peuvent avoir une double facette :

l’enfant, qui se trouve immergé dans le système éducatif pendant une longue période de sa

vie, développe une intelligence pour s’adapter aux modalités institutionnelles de la vie

scolaire, et des stratégies pour en tirer le maximum de bénéfices au regard des critères

implicites de « l’excellence scolaire ». P. Perrenoud parle ainsi d’ « apprendre le métier

d’élève » :

« Assimiler le curriculum, c’est devenir l’indigène de l’organisation scolaire, devenir capable d’y tenir son rôle d’élève sans troubler l’ordre ni exiger une prise en charge particulière » (Idem : 251). « Ainsi réussir à l’école, c’est d’abord apprendre les règles du jeu » (Idem : 249).

Pour cet auteur, l’évaluation est donc un jeu d’adaptation réciproque entre les

protagonistes en présence. Celui-ci est induit par les contraintes de la situation et par les

représentations que les acteurs ont des demandes implicites des autres partenaires : parents,

collègues, administration, etc. - demandes parfois aussi explicites comme l’obligation de

noter -. En fait, c’est dans l’action au quotidien que se construit le jugement d’appréciation ;

les évaluations formelles ne font souvent que confirmer l’appréciation intuitive.

Page 139: UN REFERENTIEL, POUR QUOI FAIRE

139

Cela ne signifie pas que le jugement soit fondé sur aucune compétence, mais celui-ci n’est, la

plupart du temps, pas formalisé, dans la mesure où il se réfère seulement aux activités du

curriculum réalisé, et à la plus ou moins grande réussite par l’élève dans ces exercices. On

peut donc faire l’hypothèse que l’introduction d’un Référentiel ne changerait guère - du moins

dans les écoles primaires où l’auteur a fait ses observations - les modes d’évaluation des

enseignants, qui ne se fient pas tant, pour évaluer, au curriculum prescrit qu’au curriculum

réalisé, c'est-à-dire à leur propre pratique professionnelle. Cette hypothèse apparaît d’ailleurs

généralisable à toutes les situations d’évaluation, ainsi qu’on aura l’occasion d’y revenir en

analysant certains entretiens d’évaluateurs lors d’examens professionnels.

Le concept de curriculum, d’une part, allie donc une étude systématique des enjeux

institutionnels autour de la formulation des programmes, de la définition des filières, et de

l’organisation des plans d’études, et, d’autre part, une analyse de la façon dont les différents

acteurs (enseignants et élèves) s’adaptent à ce cadre institutionnel pour mettre en œuvre des

apprentissages pertinents au regard des situations et de leur représentation des rôles respectifs.

Pour lui donner plus de signification et de consistance, on s’intéressera ensuite aux méthodes

pour appréhender ces parcours de formation : les approches sociologiques des années soixante

(cf. J.C. Forquin ; 1997) ou celles des sciences de l’éducation du nos jours (cf. F. Audigier,

M. Crahay, J. Dolz ; 2006). Les études sur le curriculum formel ont été induites dans les

années 60 par les particularités du système scolaire britannique, très cloisonné et sélectif, (R.

Turner ; 1960 ; B. Bernstein ; 1967) ; elles ont été reprises dernièrement à travers des études

comparatives des curricula européens (A. Delhaxhe ; C. Coll et E. Martin ; A. Van Zanten).

Elles sont construites, la plupart du temps, à partir de données générales sur les populations,

de données comparatives sur les dispositifs et les contenus de programmes, et d’analyses

sociologiques à partir d’idéaux-types. Ce n’est pas le cas des études sur le curriculum réel qui

s’ancrent plus, ainsi que l’a noté P. Perrenoud, dans une approche anthropologique, le plus

souvent à partir de modes d’observation ethnographiques (H.S. Becker, B. Geer, R.C. Rist).

C’est en observant les modes de communication, les interactions entre protagonistes, les

conduites, les échanges langagiers, etc., qu’il est possible d’analyser la logique des processus

mis en œuvre par les acteurs. Bien entendu, l’observation participante en est une des

modalités empiriques, mais la discussion avec les acteurs et l’analyse de leurs conceptions est

souvent indispensable pour compléter ces observations au moment de l’interprétation. Nous

verrons, par ailleurs, dans la partie linguistique de la méthodologie, que les modes de

communication langagiers offrent de nombreux indices quand on parvient à en systématiser la

collecte.

Page 140: UN REFERENTIEL, POUR QUOI FAIRE

140

La complexité de l’étude du curriculum provient de cette double entrée, qui combine

une approche macrosociologique (certes wébérienne et non durkheimienne) des institutions,

des organisations et des macrostructures, avec une approche microsociologique des processus

à l’échelle de groupes restreints et de microstructures. Ces deux modes de recherche

s’enrichissent respectivement au niveau des résultats et des analyses qu’ils peuvent produire,

mais il est rare de les voir cohabiter dans les mêmes études, en raison de la complexité des

rapports de signification à établir entre les microphénomènes et le fonctionnement des

macrostructures. Cette contradiction constituera un nœud important de cette thèse, la

problématique étant similaire en ce qui concerne les Référentiels, fortement imbriqués dans

les curricula. Ainsi que l’a mis en valeur P. Perrenoud (1984), les objets réels de l’évaluation

sont fortement induits par les processus d’apprentissage. N’est-il pas logique, effectivement,

de porter l’évaluation sur les produits et processus qu’on cherche à apprendre aux élèves /

stagiaires ? La modélisation des curricula par L. d’Hainaut (1977/1985) illustre aussi cette

imbrication entre les objectifs pédagogiques et les critères de l’évaluation. Dans ce cas, les

problématiques du Référentiel formel et du réel, ne sont elles pas du même ordre que celles

entre un curriculum prescrit et réalisé, ou entre le formel et le réel ? On aura l’occasion de

revenir dans le chapitre suivant, sur la façon dont on a traité cette contradiction, en particulier

lors de l’expérience N°2.

Mais la notion de curriculum, du moins telle que l’a définie J. Dewey, repose aussi sur

une troisième dimension, qui lui est consubstantielle, et autour de laquelle J.C. Forquin

(1987/1996) a construit ses recherches : l’articulation entre l’école et la culture. Cette dernière

est définie, par cet auteur, comme une « œuvre collective et un bien collectif objectivable » :

« Essentiellement, un patrimoine de connaissance et de compétences, d’institutions, de valeurs et de symboles, constitué au fil des générations et caractéristique d’une communauté humaine particulière » (J.C. Forquin ; 1987/1996 : 10).

L’acte éducatif n’est pas un acte isolé, il s’inscrit dans un environnement culturel qui lui

donne du sens : « la culture est le contenu substantiel de l’éducation, sa source et sa

justification ultime » (Idem : 12). L’école n’a pas de finalité en soi, ses actions puisent leur

signification dans le contexte culturel qui leur sert de cadre de référence :

« Toute réflexion sur l’éducation peut ainsi partir de l’idée selon laquelle ce qui justifie fondamentalement et toujours l’entreprise éducative, c’est la responsabilité d’avoir à transmettre et à perpétuer l’expérience humaine considérée comme culture, c'est-à-dire non pas comme la somme brute (…) de tout ce qui a pu être réellement vécu, pensé, produit par les hommes depuis le commencement des âges, mais comme ce qui, au fil des âges, a pu accéder à une existence « publique », virtuellement communicable et mémorable, ne se cristallisant dans des savoirs cumulatifs contrôlables, dans des systèmes de symboles intelligibles, dans des outillages perfectibles, dans des œuvres admirables » (J.C. Forquin ; 1987/1996 : 12).

Page 141: UN REFERENTIEL, POUR QUOI FAIRE

141

Par conséquent, l’éducation est sélective : elle privilégie certains savoirs qu’elle communique,

tant dans leur contenu, dans leur forme (le processus) que dans leur raison (la signification de

l’apprentissage, son exploitation, son utilité, etc.). La question de l’appréciation, qui est au

fondement de l’acte d’évaluation, s’inscrit donc au cœur même de l’acte éducatif, dans sa

façon implicite de sélectionner les savoirs, considérés pertinents à communiquer et

indispensables pour l’adaptation à la vie sociale actuelle.

« Ce qui s’enseigne, c’est donc moins en fait la culture que cette part ou cette image idéalisée de la culture qui fait l’objet d’une approbation sociale et constitue en quelque sorte la « version autorisée », la face légitime. Mais, à l’intérieur même de ce qui est tenu pour légitime, c'est-à-dire dans la culture considérée comme patrimoine intellectuel et spirituel méritant d’être préservé et transmis, il est de fait également que l’éducation scolaire ne réussit jamais à incorporer dans ses programmes et ses cursus qu’un spectre étroit de savoirs, de compétences de formes d’expression, de mythes et de symboles socialement mobilisateurs. Qu’est ce donc qui, dans les contenus vivants de la culture, dans les significations qui ont un pouvoir actuellement d’interpeller nos pensées et de régler nos existences, peut être considéré comme ayant une « valeur éducative » ou une pertinence sociale suffisantes pour justifier les dépenses de toutes natures que suppose un enseignement systématique et soutenu par l’Etat ? » (J.C. Forquin ; 1987/1996 : 15).

La diversité de ces idéaux culturels, et des processus de communication de ce patrimoine, est

certainement un objet plein de richesses pour les sociologues et les historiens de l’éducation,

mais l’auteur s’interroge aussi sur la possibilité des « constantes » ou des « sortes

d’universaux », « tâche qui revient incontestablement aux philosophes de l’éducation ».

La notion de « curriculum » s’articule donc autour de trois dimensions, qui en font

toute sa complexité : un curriculum formel et prescrit, élaboré par des instances dirigeantes de

la société (du moins légitimes pour prescrire et formaliser), un curriculum réel tel qu’il se

construit sur le terrain, dans les interactions entre les acteurs, et un patrimoine culturel, objet

et enjeu des deux autres pôles. Cette façon de poser le problème a bien des similitudes avec

celles du triangle didactique, bien qu’elle introduise des dimensions sociologiques que

n’approfondissent guère les didacticiens. En revanche, elle se différencie nettement de

l’approche curriculaire, fonctionnaliste et prescriptive, de L. d’Hainaut et de ses trois niveaux

(politiques, administratifs et pédagogiques), modélisation élaborée pour étudier des modes de

régulation pédagogique (cf. paragraphe ci dessus sur la « fonction »). Dans ce type de

modélisation décisionnelle, le curriculum est réduit à une construction rationnelle des

formations en fonction des objectifs fixés par les institutions, puis des méthodes adoptées

pour les atteindre et les évaluer. Mais ne rétablit-on pas ainsi une conception normalisatrice et

standardisée de la formation et de l’enseignement, au détriment de l’analyse des différences

de représentations entre les acteurs de la situation éducative ?

Page 142: UN REFERENTIEL, POUR QUOI FAIRE

142

Cette conception fonctionnaliste est, par ailleurs, décrite par J.C. Forquin :

« Aux yeux des sociologues fonctionnalistes, le rôle de sélection des élites et d’allocation des statuts sociaux que joue l’école dans les sociétés méritocratiques modernes n’est pas moins important que le rôle d’initiation et d’intégration sociale des individus. Ces sociétés se trouvent confrontées cependant à un dilemme caractéristique : comment assurer cette sélection des plus « méritants » ou des plus talentueux tout en maintenant aux yeux des masses l’acceptabilité de l’ordre social ? L’idéologie de l’égalité des chances constitue à coup sûr l’une des meilleures réponses que l’on puisse apporter à cette question, puisqu’en persuadant les individus d’entrer dans une compétition dont les règles sont présumées équitables, elle favorise la mobilisation générale des énergies tout en limitant le ressentiment de ceux qui échouent » (JC. Forquin ; 1997 : 14).

A l’opposé de cette conception fonctionnaliste, la modélisation du curriculum par les

sociologues britanniques, par J.C. Forquin ou par P. Perrenoud, est une approche descriptive :

les trois pôles traduisent non seulement des problématiques particulières, mais aussi des

objets de recherche et des méthodes différentes : macrosociologiques, microsociologiques et

historico-philosophiques. C’est la combinaison des trois qui nous permet d’entrer au cœur du

système curriculaire, d’étudier vraiment ce qui est en jeu lors des interactions entre les

différents acteurs. On reviendra sur ces questions dans le paragraphe sur le « triangle

didactique ».

4-2) Le concept de « projet », « projet pédagogique » et « pédagogie du

projet » :

La dynamique pédagogique qui s’est construite, en France, autour de la notion de

projet est significative des questionnements qui traversent les milieux de l’éducation depuis

les années 1970. L’intérêt qu’on y porte ici est surtout guidé par les réflexions qu’elle a

suscitées autour des questions d’évaluation. Pour bien analyser ces phénomènes, on

différenciera, dans un premier temps, la « pédagogie du projet » du « projet pédagogique ».

J.P. Boutinet fait remarquer, au sujet de ce « retournement de langage », qu’il est du même

ordre que ceux « qu’a connus la pédagogie par les objectifs confondue avec les objectifs

pédagogiques » (1990/1999 : 215) :

« Ce retournement de langage qui transforme le projet pédagogique en pédagogie du projet est pour nous l’occasion d’opérer une distinction instructive entre la description opératoire d’une intention, consignée dans l’un ou l’autre des projets éducatif, pédagogique ou d’établissement, et la référence à une méthodologie basée sur le projet : la pédagogie du ou par le projet (Kilpatrick, 1918 et 1926) (…) Un telle implication doit nous permettre de distinguer utilement le projet-objet du projet-méthode (Le Grain, 1980, Boutinet, 1988). Le premier renvoie entre autres, au projet pédagogique, le second à la pédagogie du projet. Cette dernière se veut mise effective en projet » (1990/1999 : 216).

Page 143: UN REFERENTIEL, POUR QUOI FAIRE

143

J.P. Boutinet différencie clairement le projet « objet », qu’il est possible d’étudier

objectivement et de modéliser cognitivement, et la méthode pédagogique, qui s’inscrit dans

une démarche prescriptive.

« Nous pouvons maintenant apercevoir les liens d’imbrication entre l’approche descriptive et l’approche méthodologique du projet : d’un côté, la pédagogie du projet engendre par le fait même un projet à situer à l’un ou l’autre des trois niveaux descriptifs ; d’une autre côté, ces derniers peuvent très bien se développer en l’absence, voire même à l’encontre d’une pédagogie du projet (…) On mesure donc ici en quoi la mise en projet implique une interdépendance entre l’objet et la méthode » (1990/1999 : 216).

Paradoxalement, il dénie le même statut au retournement précédent qu’il a évoqué,

entre les objectifs pédagogiques, qui sont pourtant bien des « objets », et la pédagogie par

objectifs, qui est bien une proposition prescriptive - position qui s’explique certainement par

son parti-pris favorable à la pédagogie du projet qu’il exprime dans sa préface de l’ouvrage de

J. Vassileff : « Du projet-objet au projet-méthode : destinée d’un concept nomade ».

Mais, par là même, ne risque-t-on pas de passer à côté d’un certain nombre de

phénomènes importants ? Comment s’est opéré ce retournement de langage ? Comment est-

on passé de l’un à l’autre ? Et l’appropriation de ces nouveaux concepts par le plus grand

nombre n’est-il pas à l’origine de ces dérivations langagières ? Car la « pédagogie du projet »

est bien antérieure à la généralisation massive des « projets pédagogiques » ; il en est de

même de la « pédagogie par objectifs » et de la généralisation des « objectifs pédagogiques ».

C’est bien la « pédagogie méthode » qui crée les « objets pédagogiques » et non l’inverse. On

peut faire alors l’hypothèse que l’appropriation de ces derniers par le plus grand nombre

« dénature l’esprit des pionniers » d’origine, du moins généralise une exploitation très

diversifiée des objets-produits en fonction des acteurs et des contextes. Et c’est précisément

ce phénomène qui nous intéresse : c’est par son analyse que nous découvrirons les enjeux

sociaux qui se profilent derrière ces généralisations pédagogiques, et la façon dont ils se

propagent en fonction des contextes qui conditionnent leur évolution conceptuelle.

Si nous observons la pédagogie de projet, telle qu’elle nous est proposée par le

GRAIN ou par J. Vassileff (1991), on peut déjà répondre en partie à la première question sur

le « retournement du langage ». L’ouvrage pédagogique s’affirme dans une rupture :

- une rupture par rapport aux réponses apportées aux situations sociales : « réponse

refuge », « réponse tampon », « réponse sélection », « réponse occupation » (J. Vassileff ;

1991 : 14-18) ;

- ou une rupture par rapport aux propositions antérieures :

Page 144: UN REFERENTIEL, POUR QUOI FAIRE

144

« La démarche d’adaptation consiste, pour un individu, à se conformer à un ensemble de valeurs (…) La pédagogie de l’adaptation consiste donc à amener d’une manière plus ou moins directive les formés (…) La pédagogie du projet prend le contre pied de ce modèle (…) » (J. Vassileff ; 1991 : 32) (N.B : souligné par l’auteur lui-même).

Il définit ainsi un nouveau cadre : « concept d’authenticité, (…) de propriété de l’espace

temps formation, (…) de droit pédagogique (…) » (37-40), puis il définit des principes

méthodologiques : « La confiance, l’implication institutionnelle, l’implication affective,

l’implication pédagogique » (41-45) et, enfin, les fonction des formateurs : « fonction de mise

en situation (…), fonction d’aide et de soutien, fonction d’accompagnement des projets » (60-

64) et la façon de gérer diverses situations : « rapports formateurs-formés, rapports entre

formés, rôle du groupe, la gestion des contraintes » (65-68). Ainsi passe-t-on d’une rupture, à

la définition de nouveaux concepts-cadres et principes, puis aux fonctions et façons de faire

qui réifient la démarche. Le concept objet est ainsi créé, représenté serait-il plus exact de

dire : avec la pédagogie du projet, c’est le concept de projet pédagogique qui est réifié.

Définir l’ouvrage pédagogique à partir de sa démarche prescriptive ne signifie pas que

celui-ci ait une propension au dogmatisme. Bien au contraire, il analyse les contraintes, les

situations, le public et ses réactions, etc. ; mais la spécificité de ces analyses, surtout dans les

parties fonctionnelles et opératoires, c’est qu’elles nous conduisent à chaque fois, par une

sorte d’alternance dialectique, à des prescriptions à partir des constats réalisés, qui adoptent

différentes formes de modalisations :

« il convient donc de renvoyer la responsabilité (…) il serait hautement souhaitable (…) Pour lever l’obstacle, il faudrait soit que les personnes (…) comme en ce qui concerne la distanciation institutionnelle, l’attitude d’implication affective doit être présente (…) Les formateurs sont donc tenus, dès le début, d’expliciter (…) C’est là qu’intervient la nécessaire explicitation de la pédagogie du projet (…) les formateurs ne manqueront pas d’en faire l’analyse (…) il ya donc lieu de chercher ailleurs l’explication (…) les formateurs doivent donc observer (…) les formateurs prennent ici un rôle de propositions directes (…), il y a donc lieu d’organiser une division du travail, etc. » (42-64).

Le propos n’est donc pas de rejeter l’approche pédagogique, ni la fonction créative et

dynamique qu’assument ces professionnels, « médiateurs » de nouveaux concepts. J.

Vassileff est un formateur reconnu et son ouvrage est très accessible et bien structuré, ce qui

en a facilité l’analyse. Mais la fonction de la recherche est-elle de prôner un retour à

l’orthodoxie pédagogique ou d’analyser la fonction dynamique de ces pédagogues, et la façon

dont les milieux professionnels s’approprient les nouveaux concepts, en les vidant toujours

d’une partie de leur substance ? Qu’est-ce qui est en jeu au cours de ces processus de

vulgarisation ?

Page 145: UN REFERENTIEL, POUR QUOI FAIRE

145

D’ailleurs, si J. Vassileff s’inscrit dans la démarche prescriptive du pédagogue, J.P.

Boutinet (1990 et 1993) est, lui, dans la démarche descriptive du chercheur lorsqu’il étudie la

notion de projet. Il analyse le contexte de son émergence (1993 : 20 à 35), depuis son

apparition dans le domaine de l’architecture, au Quattrocento, jusqu’à son essor au XXème

siècle, avec le développement de la société industrielle : projet architectural, projet de société,

projets philosophique et existentiels, projets techniques, puis projets systémiques et locaux

qui deviennent plus complexes et individualisés. Dans les années 1970, on passe ainsi « à une

société post industrielle » : se dessine alors un « troisième modèle culturel… la culture à

projet », « qui se superpose aux deux précédents », la « culture à sujet » et la « culture à

objet ». Pour cet auteur,

« L’attention portée au projet est devenue ces derniers siècles, de plus en plus prégnante, exprimant en cela une sorte de volontarisme soucieux de tout maitriser, de tout orienter ou réorienter » (1993 : 20).

Il précise cette idée dans la préface de la cinquième édition de son « anthropologie du projet »

(1990/1999), avant de lister les « dérives pathologiques » de ce qu’il nomme « l’acharnement

projectif » :

« Ce que nous nommons aujourd’hui « cultures à projet » traduit donc cette mentalité de notre société postindustrielle soucieuse de fonder sa légitimité dans l’ébauche de ses propres initiatives (…) à une époque où cette légitimité n’est plus octroyée ; ainsi se déploie sous nos yeux, en tout sens, une profusion de conduites anticipatrices qui avoisinent l’acharnement projectif ; un tel acharnement, nous le rencontrons spécialement chez ces nouveaux professionnels que sont les conseillers à projet » (1990/1999 : 2).

J.M. Barbier se distancie aussi de l’approche prescriptive, pour analyser les processus

cognitifs mis en œuvre par les acteurs, dans l’élaboration et la réalisation des projets. Ces

travaux sont contemporains à ceux de J.P. Boutinet. Mais son approche historique s’est plus

focalisée sur l’apparition de ce concept dans les milieux de l’éducation (1991 : 142-149).

Il discerne un premier temps où le « travail de représentation afférent à une action » a été

« centré sur le produit » et « dominé par le couple objectifs-évaluation du produit ». Cette

phase correspond aux taxonomies et à la pédagogie par objectifs, mais aussi à cette « tentative

de rationalisation de l’évaluation des individus que constitue la docimologie » (1991 : 142).

Hypothèse est faite par l’auteur que ce premier mouvement correspond à une « rationalisation

de l’organisation du travail et des activités, de type taylorien ». Dans le second temps, ce

travail de représentation, plus impliquant pour les acteurs, « est centré sur les processus et sur

l’articulation de ces actions avec les contextes » (1991 : 146). C’est cette nouvelle dynamique

qui est plus spécifiquement porteuse de la démarche de projet dans les milieux de l’éducation.

Page 146: UN REFERENTIEL, POUR QUOI FAIRE

146

Elle se caractérise

« par une attention portée aux rôles et fonctions joués par les partenaires du travail pédagogique, ce qui conduit à faire de l’explication des objectifs un instrument de communication entre ceux-ci ou encore à envisager une participation directe des formés à la définition des objectifs (...) à faire des objectifs un outil de gestion de l’implication des acteurs » (1991 : 146).

Ainsi l’évolution des pratiques pédagogiques autour de cette notion de projet va induire une

modification des conceptions de l’évaluation, « par une attention portée aux processus

d’apprentissage », ainsi qu’au vécu, aux expériences et aux désirs des formés. Ce mouvement

va aussi induire une réorientation des recherches vers l’analyse des processus cognitifs qui

sont mis en jeu par les acteurs au cours des interactions éducatives. N’est-ce pas ainsi qu’il

nous faut percevoir le sens des travaux de J.M. Barbier, qui s’attache à étudier la complexité

de ces processus, dans le cadre d’une approche systémique ?

On ne développera pas ici les différents modèles du projet que nous proposent J.P.

Boutinet et J.M Barbier. La question est plutôt : comment les processus d’évaluation

s’intègrent à la démarche de projet ?

Pour J.P. Boutinet, « la validation de projets élaborés » apparait comme un objet

important de l’évaluation :

« elle va permettre de conférer au projet élaboré une reconnaissance sociale opérée par telle ou telle instance environnementale au sein de laquelle évolue l’acteur. Cette reconnaissance sociale constituera en même temps une socialisation de l’imaginaire exprimé par le projet ; elle ne peut intervenir que si le projet est suffisamment explicité et donc communicable » (1993 : 104). L’auteur présente ensuite différents critères59 qui s’inscrivent dans cette démarche de

validation : trois principales qualités (cohérence, consistance, pertinence), auxquelles il

rajoute trois critères plus spécifiquement liés à la phase de réalisation (efficacité, efficience,

conformité des résultats vis-à-vis des objectifs) et deux critères relatifs à certaines dérives

(effets pervers inhérent au jeu des acteurs, difficulté d’adaptation aux circonstances) (1993 :

104, 105). Par ailleurs, l’auteur nous propose une approche structurale des projets pour les

analyser, et par là même, réifier les critères - du moins observer certains éléments du projet

qui pourront être pris en compte lors de l’évaluation : « la situation problème et son mode

d’appropriation », « les acteurs en présence et leur positionnement », « le mode

d’explicitation des buts et visées », « les motifs invoqués », « stratégies et moyens utilisés »,

« résultats projetés, résultats obtenus », « les effets non voulus du projet » (1990/1999 : 267-

273).

Page 147: UN REFERENTIEL, POUR QUOI FAIRE

147

L’approche de J.M. Barbier se distingue par une approche plus poussée, et complexe,

des processus cognitifs mis en jeu aux différentes étapes du projet. L’auteur récupère des

travaux antérieurs sur l’évaluation (1977 et 1985), comme cadre de référence pour analyser

certains modes opératoires. Ainsi les concepts de « Référent » et de « Référé » structurent son

approche méthodologique de la phase d’évaluation. Dans la démarche de projet, le Référé est

« l’image du réel » : « image de la situation initiale de la réalité à transformer (…), image des

réalités susceptibles d’entrer comme moyen du processus de transformation (…), image du

processus de transformation lui-même et de ses résultats (…), image enfin de la nouvelle

situation résultant de la mise en œuvre des résultats de l’action » (1991 : 95).

« La notion de référé, prise au sens large, peut donc être utilisée non seulement pour désigner l’image du réel permettant de produire un jugement de valeur sur ce réel, mais plus généralement les différentes images du réel susceptibles de jouer un rôle fonctionnel aux différentes étapes du procès de conduite des actions » (1991 : 96).

Le Référent est « l’image du désirable », « image d’un état ou d’un processus jugé désirable,

souhaitable » : « objectifs généraux qui provoquent le recours à l’action (…), objectifs

spécifiques (…) avec l’image des ressources disponibles, (…) image de la situation

susceptible de résulter de la mise en œuvre », etc.

« La notion de référent (…) peut être utilisée non seulement pour désigner l’image du souhaitable permettant de produire un jugement de valeur, mais plus généralement les différentes images du souhaitable susceptibles de jouer un rôle fonctionnel aux différentes étapes du procès de conduite des actions » (1991 : 100).

JM. Barbier réintroduit ainsi, dans l’analyse des processus à l’œuvre au cours des démarches

de projet, les composantes affectives qui sont les moteurs de l’action. Le Référent devient le

« lieu de mentalisation et d’objectivation de ces affects ». Analyser le Référent, c’est

découvrir les mobiles à l’origine de ces processus.

Or on constate que cette part du Référent est de plus en plus négligée, au fur et à

mesure que se développe l’outil référentiel. (On aura l’occasion de revenir sur ce constat dans

le chapitre 6). La notion de Référentiel, qui trouve une proposition pédagogique construite et

accessible dans l’ouvrage de B. Porcher et C. Letemplier (1992), n’est-elle pas en train de

subir la même dérive langagière que le « projet » et les « objectifs », au fur et à mesure que se

généralisent les systèmes de validation par compétence ? Les Référentiels deviennent des

listes de compétences à vérifier, avec les modes opératoires pour en permettre l’observation.

59 Notons que J.P. Boutinet ne différencie guère indicateur et critère, concepts qu’il utilise indistinctement (1990/1999 : 266).

Page 148: UN REFERENTIEL, POUR QUOI FAIRE

148

Le Référent fait rarement l’objet de discussions dans les régulations qui précèdent ou

succèdent les épreuves d’examens. Or pour construire de la signification à partir de l’acte qui

exprime l’appréciation, les acteurs (aussi bien l’évaluateur que l’évalué) ont besoin d’intégrer

cet acte (ou l’interaction mise scène) dans une conception plus globale qui définit ce qui est

en jeu. Cette signification partagée n’est pas, sans arrêt, à reconstruire lors de chaque acte

d’évaluation : elle est définie à partir de cadres de référence communs qui ont été institués. On

aboutit ainsi à l’hypothèse que le Référentiel est une forme d’institutionnalisation des

démarches projectives (des méthodes, des procédures, des façons de faire, etc. inhérentes à

des projets sociaux), qui fixe(nt) des cadres de référence pour interpréter les situations

d’évaluation, hypothèse qui sera en grande partie traitée lors de l’expérience N°2 (cf. Ch. 13).

Les recherches sur le projet nous intéressent donc à deux titres : dans le discernement

qu’elles apportent entre les approches prescriptive et descriptive, mais aussi en raison de

l’approche systémique avec laquelle elles appréhendent la phase d’évaluation, qu’elles

intègrent dans une conception plus globale des démarches projectives.

5) Les concepts de la didactique :

La didactique est une discipline scientifique, dont les origines sont plus ou moins

lointaines, selon qu’on privilégie la naissance du concept - que L. Cornu et A. Vergnioux

(1992 : 19) font remonter à Comenius et sa Didactica magna (1632) - ou l’essor des

recherches dans ce domaine dans les années quatre-vingt, avec le développement de

nombreux concepts opératoires adaptés à la praxis des enseignants. La didactique, ou plus

exactement les didactiques, concernerait « l’art ou la manière d’enseigner les notions propres

à chaque discipline, et même certaines difficultés propres à un domaine dans une discipline »

(1992 :10) :

« il s’agit non seulement d’enseigner les termes exacts, mais aussi de pouvoir les expliquer, d’en donner l’équivalent en des formulations ou des paragraphes, des images parfois, des explications, des illustrations, des exercices justes : présentations, chemins, interprétations provisoires, compréhensibles à qui ne les maîtrise pas encore et sans trahison au regard des concepts savants » (L. Cornu et A. Vergnioux ; 1992 : 15).

Selon les objets d’étude des auteurs, la définition s’est précisée :

« Notre projet est donc simple, à la limite évident, même s’il s’avère original dans le contexte de l’éducation et de la culture actuelles. Il consiste à tenter de mieux connaitre ceux qui apprennent (…) et parallèlement à rechercher les paramètres pertinents qui facilitent leur apprentissage » (A. Giordan, G. de Vecchi ; 1987/1994 : 8).

Page 149: UN REFERENTIEL, POUR QUOI FAIRE

149

Mais on ne s’intéresse pas tant, ici, aux débats qui ont accompagné l’essor de ce courant de

pensée, plutôt aux différents concepts (et conceptions) qu’il a introduit au sein des sciences de

l’éducation. On en retiendra quatre, qui ont apporté de nouvelles dimensions sur les questions

d’évaluation : le « contrat didactique », la « transposition didactique », la « conception » et le

« triangle didactique ».

5-1) La transposition et le contrat didactiques :

Le projet d’Y Chevallard, qui l’a conduit à définir précisément ce concept, caractérise

bien la dynamique des recherches en didactique :

« Le concept de transposition didactique, par cela seulement qu’il renvoie au passage du savoir savant au savoir enseigné, donc à l’éventuelle, à l’obligatoire distance qui les sépare témoigne de ce questionnement nécessaire, en même temps qu’il en est l’outil premier » (1985 : 13).

L’auteur différencie ainsi le « savoir savant », du « savoir à enseigner » (« le savoir-

initialement-désigné-comme-devant-être-enseigné ») et du « savoir enseigné » (« le savoir-tel-

qu’il-est-enseigné ») (1985 : 14). On dira alors que « le travail qui, d’un objet de savoir à

enseigner fait un objet d’enseignement est appelé transposition didactique » (idem : 39). Ces

travaux concernent les recherches sur l’évaluation à deux titres : tout d’abord, ces études

conduisent à discerner les « objets de savoir », et par là-même les processus, dont certains

implicites, mis en œuvre par les enseignants. Ainsi sur les mathématiques :

« A propos des objets de savoir que sont les notions mathématiques, l’enseignant attend que l’élève sache (éventuellement) : - donner la signification (ou retracer la construction) - donner les propriétés (« principales »), les démontrer - reconnaitre un certain nombre d’occasions d’emploi, etc. » (idem : 51).

Il différencie ainsi les notions mathématiques, objets « d’une évaluation directe », des notions

para-mathématiques, procédures ou méthodes qui « doivent être apprises (ou plutôt connues)

mais qui ne sont pas enseignées » (idem : 51), et des notions proto-mathématiques, « qui se

situent à un niveau d’implication plus profond (pour l’enseignant, pour l’élève). Ce caractère

d’implicite s’exprime dans le contrat didactique, par le fait qu’elles « vont de soi » – sauf

précisément lorsqu’il y a difficulté proto-mathématique et rupture de contrat » (idem : 55). Il

existe donc des objets d’évaluation qui sont explicites (les notions mathématiques), alors que

les autres sont implicites, et font partie soit d’une manipulation pertinente et valide de ces

notions (para-mathématiques), soit d’une capacité à les utiliser et à les adapter aux situations

(proto-mathématiques).

Page 150: UN REFERENTIEL, POUR QUOI FAIRE

150

Mais, surtout, ces recherches ont forgé un concept nouveau, la « noosphère » :

« Là se trouvent tous ceux qui, aux avant poste du fonctionnement didactique, s’affrontent aux problèmes qui naissent de la rencontre entre la société et ses exigences ; là se développent les conflits, là se mènent les négociations, là mûrissent les solutions. Toute une activité ordinaire s’y déploit , en dehors des périodes de crises (où elle s’accentue), sous forme de doctrines proposées, défendues et discutées, de productions et de débats d’idées – sur ce qui pourrait être changé et sur ce qu’il convient de faire. Bref, on est ici dans la sphère où l’on pense – selon les modalités, parfois fort différentes, le fonctionnement didactique. Pour cela, j’ai avancé pour elle le nom parodique de noosphère » (1985 : 23).

Pour cet auteur, il existe donc un espace de réflexion entre le système d’enseignement et son

environnement social : les parents, les instances politiques, les savants de la discipline. On

retrouve ici la notion de « réflexivité » des ethnométhodologues, sur laquelle on reviendra

dans la partie sociologique.

La notion de « contrat didactique » nous est présentée par G. Brousseau comme un ensemble

de phénomènes qui dérivent de cette notion de transposition didactique :

« Des phénomènes liés au contrôle de la transposition didactique ont pu être mis en évidence dans des cadres très différents : le même phénomène peut régir l’intimité d’une leçon particulière ou concerner tout une communauté pendant des générations. Identifier ces phénomènes revient à construire un « modèle » des protagonistes en présence, des relations et des contraintes qui les lient et à montrer que le jeu des contraintes produit bien des effets et le déroulement observés » (G. Brousseau ; 1998/2004 : 52).

G. Brousseau part ainsi de l’observation de certaines interactions entre enseignant et élèves,

pour définir les modes de relations qui s’établissent dans une classe : par exemple, l’effet

« Topaze » (nom inspiré de la pièce de théâtre de M. Pagnol) : « la réponse que doit donner

l’élève est déterminée à l’avance, le maître choisit les questions auxquelles cette réponse peut

être donnée » (1998/2004 : 52) ; ou encore, l’effet Jourdain, « ainsi nommé par référence à la

scène du bourgeois Gentilhomme » : « le professeur, pour éviter le débat de connaissance

avec l’élève et éventuellement le constat d’échec, admet de reconnaître l’indice d’une

connaissance savante dans les comportements ou dans les réponses de l’élève, bien qu’elles

soient en fait motivées par des causes et des significations banales » (Idem : 53). Il se crée

donc, entre l’élève et le professeur, une sorte de contrat implicite, d’attente réciproque de l’un

et de l’autre :

« Ainsi, dans toutes les situations didactiques, le professeur tente de faire savoir à l’élève ce qu’il veut qu’il fasse. Théoriquement, le passage de l’information et de la consigne du professeur à la réponse attendue, devrait exiger de la part de l’élève, la mise en œuvre de la connaissance visée, qu’elle soit en cours d’apprentissage ou déjà connue. Nous savons que le seul moyen de faire des mathématiques, c’est de chercher et de résoudre certains problèmes spécifiques et, à ce propos, de poser de nouvelles questions. Le maître doit donc effectuer, non la communication d’une connaissance, mais la dévolution du bon problème (…).

Page 151: UN REFERENTIEL, POUR QUOI FAIRE

151

- Le professeur est supposé créer les conditions suffisantes pour l’appropriation des connaissances, et il doit « reconnaître » cette appropriation quand elle se produit.

- L’élève est supposé pouvoir satisfaire ces conditions. - La relation didactique doit « continuer » coûte que coûte. - Le professeur assure donc que les acquisitions nouvelles et les conditions nouvelles donnent à

l’élève la possibilité de l’acquisition. Si cette acquisition en se produit pas, s’ouvre un procès à l’élève qui n’a pas fait ce que l’on est en droit d’attendre de lui mais aussi un procès au maître qui n’a pas fait ce à quoi il est tenu (implicitement) » (G. Brousseau ; 1998/2004 : 61).

L’auteur analyse ainsi les contraintes auxquelles sont confrontés les enseignants pour

favoriser l’apprentissage par les élèves des notions mathématiques ; en particulier, il évoque

l’articulation entre les situations didactiques, où l’apprentissage est encadré par les règles

implicites du contrat didactique, et les situations adidactiques ainsi définies :

« L’élève n’aura véritablement acquis cette connaissance que lorsqu’il sera capable de la mettre en œuvre de lui-même dans des situations qu’il rencontrera en dehors de tout contexte d’enseignement et en l’absence de toute indication intentionnelle. Une telle situation est appelée situation adidactique » (G. Brousseau ; 1998/2004 : 59).

Mais, y compris pour ce déplacement de l’apprentissage vers des situations adidactiques, les

règles du contrat ne sont pas pour autant rompues :

« L’élève ne peut pas résoudre d’emblée n’importe quelle situation adidactique, le maître lui en ménage donc qui sont à sa portée. Ces situations adidactiques aménagées à des fins didactiques déterminent la connaissance enseignée à un moment donné. (…) Cette situation ou ce problème choisi par l’enseignant est une partie essentielle de la situation plus vaste suivante : le maître cherche à faire dévolution à l’élève d’une situation adidactique qui provoque chez lui l’interaction la plus indépendante et le plus féconde possible. Pour cela, il communique ou s’abstient de communiquer, selon le cas, des informations, des questions, des méthodes d’apprentissage, des heuristiques, etc. L’enseignant est donc impliqué dans un jeu avec le système des interactions de l’élève avec les problèmes qu’il lui pose. Ce jeu ou cette situation est la situation didactique » (G. Brousseau ; 1998/2004 : 60).

L’auteur envisage ainsi l’enseignement comme une « dévolution à l’élève de la responsabilité

de l’usage et de la construction du savoir ». Ce parti pris lui permet de « repérer certains

phénomènes » ; par ailleurs, « modéliser cette dévolution comme la négociation d’un contrat

permet de les expliquer en grande partie et d’en prévoir d’autres » ; enfin, cette position fait

émerger des paradoxes qu’il se propose d’approfondir (idem : 72). En particulier, il analyse

- les « injonctions paradoxales » du contrat didactique : que faut-il montrer à l’élève ? Que

faut-il lui laisser chercher par lui-même ?

- les paradoxes de l’adaptation des situations didactiques au niveau de compréhension des

élèves : la communication du savoir est souvent approximative, voire parfois

momentanément et « en partie, fausse ou inadéquate ».

Page 152: UN REFERENTIEL, POUR QUOI FAIRE

152

- l’équilibre instable entre l’apprentissage par adaptation, nécessaire à l’appropriation du

savoir par l’élève, et la communication, du moins la signification, des activités qui ont

acquis un statut culturel : le rôle de l’enseignant(e) est ici essentiel pour orienter les

découvertes de l’élève, et donner à celles-ci le statut institutionnel de Savoir.

On reviendra sur ces questions au paragraphe c.

5-2) La conception :

Les travaux d’A. Giordan et G. de Vecchi ont introduit une nouvelle conception, fort

utile pour la recherche en éducation, et qui a fait émerger de nouvelles représentations du

« savoir ». Si ce dernier n’est pas immédiatement notre objet de recherche, il n’en demeure

pas moins que la notion de Référentiel n’est réifiée qu’à travers les objets d’évaluation et la

façon dont ils sont observés par les examinateurs, et les phénomènes de « représentation » ont

une fonction dans ces processus (cf. ch.7, & 3-1).

Pour ces auteurs, l’enfant qui apprend n’est pas une « table rase » qu’il s’agit de

remplir par du savoir, il a déjà des représentations de l’objet que l’enseignant lui fait

découvrir. Après avoir abordé cette notion de « représentation » et son histoire, ils préfèrent

lui substituer celle de « conception », plus précise :

« A ce terme de « représentation », nous préférons, pour des raisons de clarté, celui de « conception » ou de « construct ». Le premier met l’accent sur le fait qu’il s’agit, à un premier niveau, d’un ensemble d’idées coordonnées et d’images cohérentes, explicatives, utilisées par les apprenants pour raisonner face à des situations-problèmes, mais surtout il met en évidence l’idée que cet ensemble traduit une structure mentale sous jacente responsable de ces manifestations contextuelles. Quant au second, il met en valeur l’idée, essentielle à nos yeux, d’élément moteur entrant dans la construction d’un savoir, et permettant même les transformations nécessaires » (A. Giordan, G. de Vecchi ; 1987/1994 : 79).

La conception est alors définie comme une

« activité de conceptualisation lorsqu’un objet ou lorsque les éléments d’une série d’objets se trouvent exprimés, figurés et traduits sous la forme d’un nouvel ensemble d’éléments et qu’une correspondance directe est réalisée entre les éléments de départ et la structure qui lui a donné du sens, à savoir le réseau sémantique (…). Par conception, nous entendons un processus personnel par lequel un apprenant structure au fur et à mesure les connaissances qu’il intègre (…). La conception, telle que nous la reconnaissons, est donc non pas le produit mais d’abord le processus d’une activité de construction mentale du réel. Cette élaboration s’effectue bien sur à partir des informations que l’apprenant reçoit par l’intermédiaire de ses sens, mais aussi des relations qu’il entretient avec autrui, individus ou groupes, au cours de son histoire, et qui demeurent gravés dans la mémoire. Mais ces informations sont codées, organisées, catégorisées dans un système cognitif global et cohérent, par rapport à ses préoccupations et aux usages qu’il en fait. Tout à la fois, les conceptions antérieures filtrent, trient, et élaborent les informations reçues, et en retour, peuvent parfois être complétées, limitées ou transformées, ce qui donne naissance à de nouvelles conceptions » (idem : 84 – 86)

Page 153: UN REFERENTIEL, POUR QUOI FAIRE

153

Mais la conception n’est pas seulement un réseau de relations sémantiques qui donnent

du sens à des éléments signifiants, elle est aussi un processus cognitif qui consiste à coder et

organiser ces éléments dans un système global. Pour ces auteurs, la conception est donc

l’articulation entre un problème, « sorte de moteur de l’activité intellectuelle », un cadre de

référence, « les autres représentations sur lesquelles l’apprenant s’appuie pour produire ses

conceptions », des opérations mentales, un réseau sémantique et des signifiants. « Conception

= f (P.C.O.R.S.) » (Idem : 87). Le projet des auteurs se précise puisqu’il s’agit de prendre en

compte et de découvrir le cadre de référence des apprenants dans le but d’observer la façon

dont ils opèrent et ils problématisent pour donner du sens à leurs propres expériences ou aux

dires échangés avec les autres (l’enseignant, mais aussi ses pairs, sa famille, le milieu

professionnel, etc.), c'est-à-dire la façon dont ils construisent leur système de référence pour

appréhender le réel.

Ainsi la notion de savoir, très générale, et la notion de connaissance, cèdent le pas à

celle de « conception », beaucoup plus précise, et surtout beaucoup plus dynamique. Pour

l’enseignant, la question n’est pas d’évaluer si l’apprenant a « acquis une connaissance »,

mais d’observer, et d’analyser, s’il a construit une conception suffisamment élaborée pour

appréhender de façon correcte (valide et pertinente) certains phénomènes. L’apprenant n’est

pas une banque de données, un ordinateur qui enregistre, mais un être vivant en interaction

avec son environnement, et la connaissance est un ensemble de conceptions (d’éléments

codés et organisés) pour s’adapter à celui-ci.

5-3) Le triangle didactique :

Le modèle du « triangle didactique » a permis à cette discipline de poser les premières

problématiques de recherche :

« Aborder les questionnements d’enseignement et d’apprentissage en termes de didactiques, cela voulait dire que la transmission de connaissances était un phénomène complexe, admettant de nombreuses médiations et qu’il fallait toujours tenir ensemble les trois pôles, du maître, du savoir et de l’élève, mais sans réduire l’analyse à l’un d’entre eux. (…) Les trois domaines d’investigation de la didactique : si ces trois « pôles » définissent un triangle, la didactique va s’intéresser principalement aux trois côtés de ce triangle, aux relations entre les pôles. La relation élève / savoir (…) la didactique pose que les élèves ne sont pas des boîtes vides, mais participent à la construction de leurs apprentissages sur la base de savoirs antérieurs diffus, extrascolaires. La relation enseignant / savoir : le savoir à enseigner est défini par les programmes, les instructions (…). L’enseignant intègre ces données dans sa démarche (…), il a à décontextualiser » ces savoirs pour les « recontextualiser » en fonction du niveau de la classe, de ses choix méthodologiques, de ses objectifs spécifiques. La relation enseignant / élève : c’est le domaine de la relation pédagogique, ou plus strictement du « contrat didactique » (...) » (L. Cornu, A Vergnioux ; 1992 : 42-44).

Page 154: UN REFERENTIEL, POUR QUOI FAIRE

154

Ce schéma servira de cadre de référence à des auteurs comme Y. Chevallard (1985 : 12 et 22),

G. Brousseau ou Vergnaud. Mais il sera aussi repris aussi par d’autres auteurs. Ainsi, à la

même époque, J. Houssaye (1988/1992) utilise le modèle du « triangle pédagogique », pour

aborder, à partir d’une démarche plus inspirée de la phénoménologie et de l’ethnographie,

l’analyse des processus d’enseignement (relation enseignant / savoir), d’apprentissage

(relation élève / savoir) et de formation (relation enseignant / élève), ainsi que leur articulation

(1988/1992 : 41). Il développe ainsi un regard critique sur les pédagogies utilisées, en

particulier sur les pédagogies traditionnelles et la pédagogie par objectifs, sur les pédagogies

institutionnelles et non directives, et sur les méthodes actives et les pédagogies introduites par

Freinet, Montessori, etc. L. Talbot s’inspire du modèle de J. Houssaye (2009 : 36, 37 et 61,

62), mais son triangle symbolise alors plus des modes pédagogiques mis en œuvre dans les

classes que des processus :

« Suivant ce modèle quatre macro-variables sont à prendre en compte quand on veut décrire, comprendre et expliquer ce qu’il se passe dans une classe : - le contexte dans lequel se déroulent les situations d’enseignement et d’apprentissage - ce que nous pouvons appeler la dimension didactique que nous caractérisons ici comme étant

le rapport du maître au contenu d’enseignement - la pédagogie qui intéresse plutôt aux relations entre l’enseignant et les élèves - et enfin l’apprentissage qui correspond au lien que construit l’élève avec le savoir en jeu »

1- contexte Savoir 2- Didactique 3-Apprentissage Enseignant Elève

4- Pédagogie

Pour cet auteur, « enseigner, c’est créer des conditions matérielles, temporelles,

cognitives, affectives, relationnelles, sociales, susceptibles de permettre aux élèves

d’apprendre » (2009 : 13 et 37). Une définition qui permet de situer le sens de ce schéma, qui

fait implicitement référence à la didactique et à la pédagogie pour favoriser l’apprentissage de

l’élève : l’interaction entre l’apprentissage et l’enseignement est abordée dans les pages

précédentes (34 à 36). Mais dans ce cas, le schéma n’a plus le même sens, ni la même

fonction que le triangle pédagogique de J. Houssaye. Sa fonction consiste à mettre en valeur

les variables à observer (et les modalités d’observation) au cours de ces interactions, c’est-à-

dire « les objets de l’évaluation » (titre du chapitre 3 : pages 53 à 81).

Citons brièvement les variables proposées par l’auteur :

« 1 – Le contexte : le maître inspecté, l’école, lieux des séquences, les élèves, l’organisation matérielle de la classe, le matériel et les supports utilisés, les relations avec les familles, le travail en équipe pédagogique, la pertinence et l’exploitation des actions particulières, la pertinence des actions menés par les intervenants extérieurs, l’atmosphère, la vie de la classe.

Page 155: UN REFERENTIEL, POUR QUOI FAIRE

155

2 – La didactique : les objectifs, la définition des activités et des contenus, la préparation de la classe, la mobilisation des moyens, le choix des moyens, des démarches, le choix des exercices, du contenu, des activités. 3 – La pédagogie : le comportement, les registres de la communication, la dynamique de l’activité scolaire, la répartition des initiatives entre l’enseignant et les élèves, la conduite des séquences, la gestion de l’hétérogénéité, différenciation pédagogique, l’évaluation des élèves, le regroupement des élèves, les réactions des élèves, les interactions. 4 – L’apprentissage : les formes d’apprentissage, les tâches effectives des élèves, les activités des élèves » (2009 : 61-65).

Il y aurait certainement beaucoup de précisions à solliciter pour comprendre toutes les

ouvertures de ce modèle. Tout d’abord, l’évaluation n’a-t-elle sa place qu’en pédagogie ? Par

ailleurs, de quoi parle-t-on : des observations sur lesquelles porte l’évaluation, des actions de

l’enseignant / de l’apprenant ou des catégories utilisées pour traiter les observations ? Enfin

les éléments du contexte ont-ils le même statut que les autres éléments collectés ? N’ont-ils

pas plutôt pour fonction de donner du sens aux autres informations, de les « situer dans leur

contexte ». Mais ce modèle a tout de même plusieurs intérêts. Tout d’abord, il émane de

pratiques professionnelles : « le second exemple est celui que nous utilisions en tant qu’IEN

lors des inspections des professeurs des écoles dans une perspectives d’évaluation-conseil »

(2009 : 60). Ensuite, il différencie, a priori et de façon intuitive, les trois principaux objets

d’évaluation les plus souvent évoqués dans les taxonomies du milieu scolaire : 260 - savoirs, 3

- savoirs-être et 4 - savoirs-faire (ou les trois C : 2 - connaissances, 3 - comportements, 4 -

compétences). Enfin, si on analyse les termes proposés (en particulier ceux qui ont le suffixe

« tion » - qui traduit des termes d’« action » -, différents des autres substantifs qui traduisent

plutôt des produits observables, ou dans certains cas, des catégories qui ont un caractère plus

générique), on obtient une typologie de ces objets d’évaluation à trois niveaux :

- les produits qu’il est possible d’observer, in situ : 2 - activités programmées et contenus de

l’enseignement, 3 – comportements 4 – activités des élèves (écrits, travaux, activité

cognitive, langagière, motrice, etc.)61 ;

- les actions des participants de la situation, qui orientent l’évaluateur vers les observations

pertinentes 2 – définition, préparation, mobilisation, choix des enseignements, 3 -

répartition, conduite, gestion, différenciation, évaluation, regroupement, interactions et

réactions des élèves, 4 – tâches effectives (logique de l’organisation, qualité des contenus,

exploitation des corrections…) ;

60 La numérotation (2, 3 et 4) fait ici référence aux trois catégories de L. Talbot. Il en est de même par la suite. 61 On a repris entre parenthèse certaines « modalités » pour observer ces « macro-variables » - pour reprendre les expressions de l’auteur - décrites dans son tableau (pages 61 à 65), quand ces précisions s’avéraient utiles pour traiter l’information.

Page 156: UN REFERENTIEL, POUR QUOI FAIRE

156

- les catégories de traitement des informations : 2 - objectifs, 3 - dynamiques de l’activité et

registres de la communication, 4 - formes d’apprentissage.

On retrouve ici une structure analogue à celle proposée par Y. Chevallard entre

notions mathématiques, para-mathématiques et proto-mathématiques, isomorphisme62 qui a le

mérite d’attirer notre attention sur trois niveaux différents de ces objets : les produits

observables, les processus (procédures et ethnométhodes) dont il est possible d’inférer la

structure logique à partir de l’observation des premiers, et enfin les cadres de référence plus

profonds qui régissent les interactions et déterminent leur signification pour les acteurs. Ces

derniers s’expriment souvent sous forme de concepts abstraits (catégories), qui n’ont de

signification qu’en rapport avec ces produits et processus qu’ils intègrent dans des ensembles

conceptuels plus généraux. Ce troisième niveau des objets, qui n’existe qu’à travers les autres

(produits et processus logiques), mais qui leur donne aussi une cohérence d’ensemble en

rapport avec des conceptions plus globales, on les appelle, dans le domaine de l’évaluation,

des « critères ». Dans le modèle qui nous est proposé par L. Talbot, pour l’évaluation des

objets de type pédagogique, les critères seraient donc les « dynamiques de l’activité » et les

« registres de la communication », qui sont réifiés par l’observation des comportements

d’acteurs, mais aussi par les processus logiques qui les lient entre eux : « répartition, conduite,

gestion, différenciation, regroupement, interactions et réactions des élèves ».

On différencierait ainsi trois catégories d’objets de savoir, communiqués lors des

interactions éducatives : des objets didactiques, des apprentissages et des modes

pédagogiques.

Ces objets peuvent s’observer à travers :

- certaines productions des enseignants (conceptions des Savoir), par exemple par l’analyse

des modes de transposition didactique ;

- certaines productions des élèves (compétences), par l’analyse de leurs logiques

conceptuelles et des modes opératoires qu’ils mettent en œuvre ;

- certains codes relationnels entre l’ (ou les) enseignant(s)/formateur(s) et les

élèves/stagiaires : le contrat didactique est un cadre d’analyse possible, mais il ne

constitue certainement pas le seul enjeu de ces relations.

62 On limite ici l’exploitation des analogies à la mise en valeur d’isomorphismes structuraux sur des objets dont la similitude est identifiable, tant au niveau des champs d’application que du positionnement de l’acteur / observateur : c’est d’ailleurs en analysant l’un et l’autre qu’il est possible d’inférer les fondements structuraux de cet isomorphisme.

Page 157: UN REFERENTIEL, POUR QUOI FAIRE

157

Ces éléments observables, on les nommera « produits », bien que ce terme soit

quelque peu restrictif pour tous les qualifier. Ces produits sont constitués des productions qui

sont le résultat des actions (objets fabriqués, outils mis en place, tableaux, exercices, etc.),

mais on l’utilisera aussi pour nommer certains codes relationnels, attitudes positionnelles

(postures, tons de la voix, occupation de l’espace, etc.) ou aménagements des espaces, etc.,

qui expriment des choix pédagogiques, mis en valeur par certains protocoles qui utilisent la

vidéo ou certaines méthodes d’observation participante. Ces produits n’ont pas de

signification en eux-mêmes, ils n’en acquièrent qu’à partir du moment où ils s’inscrivent aussi

dans des processus : enseignement, apprentissage et formation (J. Houssaye ; 1988/1992).

L’étude des objets de l’évaluation ne peut donc se réduire à une étude systématique des

produits (à l’instar des taxonomies). Pour interpréter le choix de ceux-ci par les acteurs en

situation d’évaluer une formation ou un enseignement, on a besoin de percevoir la fonction

qui leur est attribuée par eux dans les processus. Or cette fonction, il ne s’agit pas de la

supputer, ni à plus forte raison de l’inférer à partir des seuls éléments observables - qui n’ont

pas de valeurs intrinsèques -, car, dans ce cas, le chercheur projetterait ses propres schémas de

pensée et son propre raisonnement cognitif sur la situation. Par conséquent, pour la découvrir,

on devra partir d’une analyse du discours des acteurs qui utilisent ces produits et les inscrivent

dans certains processus. Ces derniers n’ont donc de signification qu’à partir du moment où ils

sont intégrés dans un réseau conceptuel, un cadre de référence qui fournit les catégories pour

interpréter les observations : ce sont elles qu’on nomme « critères ». Ce troisième niveau

d’analyse, on l’a donc qualifiée de « Référent », pour reprendre un concept qui a fait l’objet

de plusieurs travaux en sciences de l’éducation. Ces questions seront approfondies au chapitre

suivant (Ch. 7).

Par conséquent, on obtient une première modélisation des objets de l’évaluation, dans

le milieu professionnel de la formation et de l’enseignement, avec une différenciation

structurée en trois niveaux : les produits, les processus et le cadre de référence. Les produits

offrent des éléments directement observables, les processus ne sont compréhensibles qu’à

partir de l’analyse des conceptions des acteurs (en particulier l’analyse de leurs discours), le

cadre de référence induit une analyse plus globale des systèmes de formation et d’évaluation.

Page 158: UN REFERENTIEL, POUR QUOI FAIRE

158

5-4) Synthèse sur l’intérêt de ces travaux pour analyser les processus

d’évaluation :

Les trois premières notions qu’on a évoquées (contrat, transposition et conception)

introduisent donc une rupture dans notre façon de nous représenter le processus de

l’évaluation. Il n’y a pas d’un côté l’enseignant qui sait, de l’autre l’apprenant qui apprend ce

que l’enseignant sait ; puis l’évaluation par l’enseignant de ce qu’a appris l’apprenant.

L’évaluation est la confrontation de représentations et de conceptions : celles de l’apprenant et

de l’enseignant, relation majeure qui institue le contrat didactique ; mais aussi celles du savoir

savant, de la famille…, qui vont influencer, par l’intermédiaire de la noosphère, les modalités

pédagogique de l’apprentissage, et donc, de ce fait, les formes de l’évaluation et le sens qui

lui est donnée par les uns et les autres. On peut alors penser que les Référentiels d’évaluation,

en particulier les cadres de référence qui vont induire l’interprétation des situations, sont

influencés voire déterminés par ces modes de relations et par la signification que les acteurs

sociaux donnent à ces actes. En d’autres termes, il apparaît de moins en moins pertinent

d’étudier les objets de l’évaluation, et le Référentiel des acteurs, sans les situer dans le

contexte interactif qui leur donne du sens.

Un retour sur le triangle didactique introduit une nouvelle réflexion. Les différentes

recherches ci-dessus évoquées ont enrichi ce modèle d’origine, qui a une valeur plus

heuristique qu’explicative. Le contrat didactique permet d’appréhender les jeux

interactionnels qui s’instituent entre les élèves et l’enseignant, la transposition didactique

s’intéresse plutôt à la façon dont l’enseignant s’approprie le « savoir savant » pour en faire un

objet d’enseignement, la conception enfin modifie la perception que nous avons des

apprentissages de l’élève et de la façon dont il s’approprie le savoir. Mais il est intéressant

aussi d’analyser comment ce modèle du triangle a pu induire des recherches dans d’autres

domaines, soit de façon parallèle à la même époque (J. Houssaye, 1992), soit à partir d’une

réappropriation par les milieux professionnels (L. Talbot, 2009). A partir de ces deux

approches, la démarche analytique du chercheur et le modèle pragmatique du professionnel

(un modèle qui s’est fondé sur les réflexions scientifiques de l’époque et sur leur adaptation à

la pratique professionnelle), on dégage une nouvelle structure pour analyser les objets

d’évaluation des milieux de l’éducation et de la formation.

Page 159: UN REFERENTIEL, POUR QUOI FAIRE

159

6) Sur la question du savoir et de l’institution :

La modèle du triangle didactique a aussi soulevé des critiques, en particulier celle de L.

Cornu et A. Vergnioux :

« Le triangle est un dessin symbolique, dont sont particulièrement friandes des représentations totalisantes, et souvent obscurantistes de l’univers. En ce sens, ce n’est absolument pas un concept, mais l’utilisation par des discours globalisants d’une figure géométrique qui permet de visualiser un équilibre entre des « forces » antagonistes dont la définition et la contradiction ne sont pas explicitées ni critiquées, mais dogmatiquement imposées dans la même image. Comme concept, l’idée d’un fonctionnement triangulaire est pensée dans la psychanalyse. Le troisième « pôle » figure le rôle du père : cette instance de la loi et du langage vient « sauver » la relation duelle mère/enfant d’une stagnation fusionnelle. On imaginera que l’idée de triangle est utilisée par analogie avec ce dernier emploi : mais alors, il faut être précis dans l’usage du modèle. Or il est clair que le savoir n’est pas un troisième pôle parce qu’il n’est pas un troisième rôle. Le troisième rôle qui empêche l’enseignant et « l’apprenant » de tomber dans une relation duelle et aliénante pour les deux, c’est sans aucun doute l’institution. Le troisième pôle « localise » les représentants de la règle commune de l’obligation scolaire, par laquelle chacun peut exercer une tâche définie, délimitée dans l’institution, et entrer en relation de parole. Leur relation a un cadre commun qui les sépare et les situe symboliquement et socialement. L’institution renvoie à des contextes sociaux et des décisions politiques qui lui donnent un dehors, qui mettent l’école en perspective dans une société » (1992 : 120).

Cette position pose ici plusieurs questions qu’on préfèrera différencier, pour éviter des

confusions.

6-1) Sur la fonction du modèle :

Toute schématisation vise à fournir une image de certains phénomènes qu’on se

propose d’étudier : « visualiser un équilibre entre des « forces » antagonistes », nous disent,

dans cette situation particulière, les deux auteurs. Cette vision est globalisante, c’est bien

l’intérêt d’une modélisation. Elle peut donc rapidement glisser vers des « représentations

totalisantes et obscurantistes », pour reprendre les termes ici proposés, si sa fonction

heuristique est oubliée au détriment de la clarification explicative et descriptive (c'est-à-dire si

le schéma est conçu comme une modélisation cognitive de la réalité et non une façon de poser

a priori le problème). Mais ceci vaut pour tous les modèles, et pas seulement les schémas

triangulaires. Ils ont, pour fonction, de poser un cadre pour l’étude de l’objet, c’est bien dans

cette perspective que nous est présenté le « triangle didactique » dans le même ouvrage,

quelques pages plus tôt (cf. ci-dessus).

Page 160: UN REFERENTIEL, POUR QUOI FAIRE

160

Ainsi le modèle du triangle didactique a-t-il induit certains axes de travail. Il conserve

aussi une vertu propédeutique pour présenter la dynamique à l’origine de ces travaux, dans

des ouvrages à destination des néophytes. Enfin la valeur heuristique de ce modèle ne se

limite pas à un seul champ d’étude et à un seul mode d’investigation. Certes il est légitime

que les didacticiens le critiquent au fur et à mesure de l’évolution de leurs travaux pour se

distancier de ces intuitions originaires. Mais faut-il pour autant condamner un outil qui a fait

ses preuves ? Il convient seulement de lui conserver sa place : il a une fonction heuristique et

non descriptive, il est un point de départ et non une explication des phénomènes.

6-2) Sur la fonction symbolique de l’institution :

C’est une autre problématique complexe qui est ici soulevée. J. Houssaye (1982/1992 :

108-132) l’évoque aussi dans son approche des processus de formation (relation professeur /

élève). Cette articulation entre la psychanalyse et le concept d’institution a été un objet de

réflexion / d’étude pour la « pédagogie institutionnelle » et l’analyse institutionnelle

(socianalyse) (pages 123 à 131). Mais si celles-ci ont apporté beaucoup d’éléments de

réflexion sur la place symbolique de l’institution dans l’acte éducatif, les rapports de

signification avec les modèles de la psychanalyse restent, pour le moins, diffus et surtout

globaux. Or la distanciation avec la relation fusionnelle de la petite enfance - puis l’évolution

dans l’enfance et l’adolescence – sont, pour le moins, des phénomènes complexes. Les

travaux de J. Lacan (1966) et de D.W. Winnicott (1971) ont enrichi les conceptions initiales

de la psychanalyse et ont fait émerger une autre part de cette complexité. Tout d’abord, c’est

l’introduction de l’Autre, qui induit la distanciation, et pas seulement le Père : l’Autre dans la

mesure où la Mère fait une place à cet Autre dans ses relations. Certes cet Autre est souvent le

Père dans nos sociétés patriarcales : peut-être est-ce en ce sens qu’il convient d’entendre que

la famille est la première institution de la société. Mais les ethnologues ont aussi montré que,

dans certaines cultures, cela peut être l’oncle, ou la famille de la mère.

Les propositions de D.W. Winnicott ont introduit une autre dimension :

« Un phénomène subjectif se développe chez le bébé, phénomène que nous appelons le sein de la mère. La mère place le sein réel juste là où l’enfant est prêt à le créer, et au bon moment. Par conséquent, dès la naissance, l’être humain est confronté au problème de la relation entre ce qui est objectivement perçu et ce qui est subjectivement perçu (…). L’adaptation de la mère aux besoins du petit enfant, quand la mère est suffisamment bonne, donne à celui-ci l’illusion qu’une réalité extérieure existe, qui correspond à sa propre capacité de créer. En d’autres termes, il y a chevauchement entre l’apport de la mère et ce que l’enfant peut percevoir. Pour l’observateur, l’enfant perçoit ce que la mère lui présente effectivement » (1971/75 : 21, 22).

Page 161: UN REFERENTIEL, POUR QUOI FAIRE

161

Cette illusion est génératrice de création pour l’enfant : elle est toute puissance, puisque la

mère répond instantanément, dans les premiers temps du moins, à l’appel de l’enfant. C’est

lorsque la mère rompt avec cette spontanéité, et ne répond plus immédiatement aux

sollicitations du bébé, que celui-ci se tourne vers un autre Objet, l’Objet transitionnel, premier

pas vers l’extérieur, vers l’objectivité. Le mode de découverte buccal se construit ainsi comme

un processus important de découverte de l’univers, dans la primo-enfance. La nourriture elle-

même va acquérir une dimension plus objective, lorsque du sein, l’enfant passe à la nourriture

solide, avec ou sans la transition du biberon.

« En relation avec l’objet transitionnel, le petit enfant passe du contrôle omnipotent (magique) au contrôle par la manipulation (comportant l’érotisme musculaire et le plaisir de coordination) » (1971/1975 : 18).

Mais cette découverte proprioceptive de l’univers est aussi contrariée par les interdits (par

exemple, tout n’est pas bon à porter à la bouche) et progressivement l’enfant va devoir trouver

des activités sublimatoires, socialement autorisées, pour découvrir l’univers, une découverte

qui, à l’origine, est essentiellement proprioceptive et sensori-motricienne63. Un « espace

potentiel », où se côtoient fantasmes, jeux, créativité et illusions, se forme ainsi, à partir de

cette « aire intermédiaire (…), allouée à l’enfant, qui se situe entre la créativité primaire et la

perception objective basée sur l’épreuve de la réalité » (D.W. Winnicott ; 1971/1975 : 21). Par

conséquent, pour parvenir à l’objectivité, l’enfant doit différencier ce qui provient de la mère

et de l’extérieur, mais aussi il doit distinguer progressivement l’Autre et l’Objet, car le mode

relationnel avec le premier est l’affect, avec le second la manipulation. On aperçoit ici en quoi

ce chemin qui conduit de ces distanciations / dissociations primaires jusqu’à la formation des

institutions sociales, d’une part, et de la connaissance objective, d’autre part, est long et

complexe, l’ « espace potentiel » se constituant comme pôle fondamental, aire intermédiaire

dont nous avons besoin, toute notre vie, pour créer, rêver, imaginer, découvrir notre être, le

sens de notre vie, etc.64 Outre qu’il y a là une réalité fort complexe où l’espace de recherche

est loin d’être épuisé, on aperçoit aussi en quoi la position de L. Cornu et A. Vergnioux est

trop tranchée sur cette question et il est difficile de la suivre.

63 La découverte proprioceptive construit des schèmes, à force de répétition, qui s’articulent avec les autres schèmes (auditifs et visuels), coordination sensorimotrice qui a été étudiée par J. Piaget (1945/1994), et qui conduit progressivement à la construction des images mentales, des représentations de l’univers et du langage. 64 Dans cette thèse, le choix a été fait de ne pas développer les questions psychologiques, afin de ne pas alourdir la démarche qui s’ancre surtout, en raison de l’objet, dans une approche sociolinguistique. Les investigations et les connaissances de la psychologie sont souvent à l’origine de certains postulats ou fondements théoriques, qui seront, dans ce cas, simplement évoqués.

Page 162: UN REFERENTIEL, POUR QUOI FAIRE

162

L’institutionnalisation des rapports à partir de ces rapports primaires n’est qu’un

aspect de la problématique, et la relation à l’Objet / à l’objectivité, donc à la connaissance et

au savoir, constitue une autre dimension de celle-ci. La schématisation triangulaire peut donc

s’avérer un modèle pertinent, dont la valeur heuristique est toujours potentielle.

6-3) Sur la relation entre l’institution et le savoir :

L. Cornu et A. Vergnioux abordent ici un autre champ de réflexion. Mais le concept

d’institution a-t-il la même signification pour tous les auteurs ? Pour Y. Chevallard, par

exemple, l’institution est une réalité externe, qui agit par l’intermédiaire de ces agents sur les

processus d’enseignement :

« Un savoir donné S se retrouve en divers types d’institutions I, qui sont pour lui, en termes d’écologie des savoirs, autant d’habitats différents. Or à considérer ces habitats, on aperçoit immédiatement que le savoir considéré vient régulièrement y occuper des niches bien distinctes (…) L’institution I peut avoir, vis-à-vis de S, une problématique d’utilisation. C’est ainsi que l’ingénieur, par exemple, et bien sûr tout « utilisateur » au sens usuel du terme, manipule des mathématiques (…) L’institution I peut avoir aussi, vis-à-vis de S, une problématique d’enseignement (on parlera encore, lorsqu’il n’y a pas d’ambiguïté, de problématique didactique). Dans ce cas, les agents de I manipulent S en l’enseignant ; ou plus exactement pour l’enseigner. Enfin, l’institution I peut avoir, vis-à-vis de S une problématique de production. Ses agents manipulent S pour produire du savoir S (…) D’où proviennent les savoirs présents en une institution donnée ? Ont-ils été créés sur place, c’est que, presque à tout coup, on a affaire à une institution de production de savoir (…) dans le cas des institutions utilisatrices, il n’en va pas ainsi : les savoirs présents y sont clairement exogènes. Ils y vivent à travers les agents de l’institution, qui ont dû s’y former afin d’y conformer leurs gestes. Ceux-là devront continuer leur formation, se former à de nouveaux savoirs, former d’autres qu’eux-mêmes » (Y. Chevallard ; 1991 : 210, 211, 213). Pour l’analyse institutionnelle, au contraire, elle est un processus interne, qui structure

et fige certains rapports sociaux, y compris les rapports au savoir, la construction du savoir et

l’appropriation du savoir. Le savoir est une forme institutionnalisée de représentations et de

conceptions, aussi bien dans ses procédures d’utilisation que dans ses dynamiques de

construction et ses modes de transmission. G. Brousseau l’exprime d’ailleurs fort clairement

lorsqu’il différencie savoir et connaissance :

« La distinction entre un savoir et une connaissance tient d’abord à leur statut culturel : un savoir est une connaissance institutionnalisée, le passage d’un statut à l’autre implique toutefois des transformations qui les différencient et qui s’expliquent en partie par les relations didactiques qui se nouent à leur propos » (G. Brousseau ; 1998/2004 : 100).

Page 163: UN REFERENTIEL, POUR QUOI FAIRE

163

G. Brousseau montre aussi l’enjeu de ces rapports institutionnels, du point de vue de la

pratique, au niveau de l’enseignement :

« Les deux types de jeux principaux du maître sont la dévolution que nous avons déjà présentée, et l’institutionnalisation. Dans la dévolution le maître met l’élève en situation adidactique ou pseudo-adidactique. Dans l’institutionnalisation, il définit les rapports que peuvent avoir les comportements ou les productions « libres » de l’élève avec le savoir culturel ou scientifique et avec le projet didactique : il donne une lecture de ces activités et leur donne un statut » (G. Brousseau ; 1998/2004 : 92). « Cette institutionnalisation est en fait une transformation complète de la situation. Choisir certaines questions parmi celles que l’on sait résoudre, les placer au cœur d’une problématique (…), les relier à d’autres questions et à d’autres savoirs, constitue finalement l’essentiel de l’activité scientifique. Ce travail culturel et historique diffère totalement de ce qui semblait devoir être laissé à la charge de l’élève et il revient à l’enseignant. Il n’est donc pas le résultat d’une adaptation de l’élève » (G. Brousseau ; 1998/2004 : 77).

Cette conception du savoir, en tant que connaissances instituées, s’inscrit dans la

problématique de la dimension culturelle du curriculum, développée par J.C. Forquin :

« La culture n’est pas seulement un ensemble de contraintes dans lequel s’inscrit nécessairement tout projet pédagogique (…), elle est aussi ce qui constitue l’objet même de l’enseignement, son contenu substantiel et sa justification ultime. Enseigner suppose de vouloir faire accéder quelqu’un à un degré ou à une forme de développement intellectuel et personnel que l’on considère comme souhaitable. Cela ne peut se faire sans prendre appui sur des contenus, sans prélever dans la totalité de la culture au sens objectif du terme, la culture en tant que monde humainement construit, monde des institutions et des signes dans lequel baigne dès l’origine tout individu humain (…), certains éléments que l’on considère comme plus essentiels, ou plus intimement appropriés à ce projet. Eduquer, enseigner, c’est mettre quelqu’un en présence de certains éléments de culture afin qu’il s’en nourrisse (….), qu’il construise son identité intellectuelle et personnelle en fonction d’eux. Or un tel projet repose nécessairement, à un moment ou à un autre, sur une conception sélective et normative de la culture » (1996 : 187).

Dans l’ensemble des contenus culturels, l’éducateur sélectionne ceux qu’il décide de

communiquer. Ce choix, il ne le réalise pas seul, il le fait dans un contexte institutionnel, fait

de contraintes et de prescriptions (curriculum formel), mais aussi d’un ensemble de valeurs

qui sont intériorisées par lui, et plus globalement par tous les acteurs de l’éducation.

« Phénoménologiquement, le concept d’éducation est en effet inséparable du concept de valeur, d’un ordre, d’un échelle des valeurs. Comme le souligne le philosophe Richard Peters (1965, 1966) (…), entrainer quelqu’un à réciter des inepties, à mentir, à pratiquer la torture, c’est effectivement lui apprendre quelque chose, mais ce ne peut être considéré comme faisant partie de l’éducation. » (J.C. Forquin ; 1996 : 183, 184). Le savoir savant a besoin, pour se construire, de cette communication d’une génération

à une autre, et celle-ci induit, de fait, une sélection des connaissances jugées pertinentes et

valides ? La notion même de savoir savant n’est-elle pas alors intrinsèquement liée aux

phénomènes d’institutionnalisation qui ont créé notre système d’enseignement ?

Page 164: UN REFERENTIEL, POUR QUOI FAIRE

164

E. Durkheim (1938/1969), dans son cours sur l’histoire de l’enseignement français

(1904/05), a bien mis en valeur les conditions sociales qui ont conduit les universités à se

structurer au moyen âge, ainsi que les enjeux corporatistes et les problèmes d’organisation qui

en ont défini les formes institutionnelles, aux différentes époques, avec les jeux de

reconnaissance sociale qui les accompagnaient. Ces luttes pour la reconnaissance sont

toujours d’actualité :

« Avec la sociologie britannique du curriculum, on est loin de l’acte de foi imposé par Chevallard (1985/1991), postulant un savoir préexistant aux transactions humaines et doté d’un déterminisme propre. Dans la perspective interactionniste, les savoirs scolaires sont, ainsi que toute manifestation culturelle, des constructions sociales, conventionnelles par essence. Ainsi Musgrove (1968) souligne la nature fondamentalement construite de tout curriculum : étudiant la nature des transactions sociales inhérentes à l’élaboration d’un curriculum, il conçoit les matières scolaires comme des microcosmes culturels, ou communautés sociales structurées autour d’une discipline, entretenant avec d’autres des liens de compétition et de coopération pour défendre leurs frontières » (M. Crahay, A. Forget dans F. Audigier, M. Crahay, J. Dolz ; 2006 : 67).

M. Crahay et A. Forget ont montré en particulier la façon dont le concept de « compétence » a

fait l’objet d’enjeux socio-institutionnels, d’abord au sein du monde de l’entreprise, de

l’Europe, et enfin du ministère de l’éducation belge, avant d’envahir le monde de l’éducation,

et la recherche scientifique. On peut ainsi faire l’hypothèse que le savoir savant n’a été ainsi

qu’une suite de phénomènes d’institutionnalisation des connaissances reconnues dignes d’être

enseignées, dans un premier temps dans des cercles assez fermés - voire sous forme mystique

ou sacralisée -, puis à partir du moyen âge dans des universités, progressivement dans les

collèges, et avec la révolution française et le XIXème siècle, à travers le système

d’enseignement que nous connaissons. L’analyse des rapports entre institutions, proposée par

Y. Chevallard, ainsi que sa définition de la noosphère, n’en sont pas moins pertinentes, mais il

n’y a pas pour autant des institutions où le savoir est endogène, d’autres où il est exogène. Les

institutions sont imbriquées les unes dans les autres et si le savoir savant apparait antérieur à

son enseignement, c’est en raison des conditions historiques qui ont conduit à sa

généralisation. Le développement des mathématiques semble, à ce titre, assez typique.

Les différentes disciplines des mathématiques ne sont pas nées sans lien avec le terrain

de leurs applications. Elles se sont progressivement se sont progressivement structurées : que

ce soit l’arithmétique ou la géométrie, ne se sont-elles pas développées dans l’antiquité, au fur

et à mesure de la sédentarisation agricole, de l’essor des grandes concentrations urbaines, de

la croissance des échanges commerciaux, etc. ? Nous manquons, certes, d’éléments sur

l’organisation sociale de ces époques et sur les modes de relations entre les castes qui

possédaient le Savoir (mages, druides, scribes, etc.) et les autres composantes de la société.

Page 165: UN REFERENTIEL, POUR QUOI FAIRE

165

La transmission du Savoir d’une génération à l’autre y apparaît surtout orale et réservée à une

caste de privilégiés. Mais le phénomène d’institutionnalisation qui a conduit, sous l’empire

arabe, à l’universalisation de ce Savoir, et à l’essor de l’algèbre65, est mieux appréhendé de

nos jours et fort bien décrit par G. Ifrah (1981/1994). D’abord le contexte particulier, en

termes d’organisation sociale :

« Lorsque les nomades convertis à l’Islam sortirent du désert pour conquérir cet immense territoire, ils vivaient essentiellement du commerce des épices, des drogues, des fards et des parfums. Ils possédaient alors à peine l’écriture et manipulaient une arithmétique rudimentaire. (…) Aussi (…) n’eurent-ils guère au début les moyens intellectuels de leurs désirs de conquête, car il fallait bien pouvoir gérer et rendre compte des immenses revenus que les impôts et la capitation allaient bientôt faire affluer au centre de vaste empire » (T. 2 : 201).

C’est ainsi que, « grâce à l’action de généreux souverains mécènes », Bagdad est devenue, à

cette époque, « le foyer intellectuel le plus vivace d’Orient », le berceau de la « science

arabe ». « L’effort scientifique qui produisit toute l’originalité de cette culture a mobilisé tous

les peuples conquis, influencés ou même simplement touchés par l’Islam. » (Idem : 203 et

204)… Contexte particulier qui a conduit, selon l’auteur, à notre conception universelle de la

science :

« Or, ce sont justement ces caractéristiques qui expliquent que les savant arabes et musulmans aient été les premiers de l’histoire à conférer à la science ce caractère universel qui nous semble, de nos jours, lui appartenir essentiellement. Avant et encore au début de l’Islam, il y avait en effet une science grecque, une science persane, une science indienne, une science chinoise, etc. ; des sciences qui, malgré la parenté de leurs préoccupations essentielles, conservaient chacune sa spécificité propre et sa manière singulière de traiter les problèmes, tout en demeurant tributaires de certaines contingences politiques, philosophiques, mystiques, voire magiques ou divinatoires. Autrement dit, avant l’Islam, il n’existait pas, comme à l’heure actuelle, une science universelle qui eût poursuivi son dessein, impassiblement au dessus des contingences de toutes natures et au-delà de toutes les frontières possibles » (T. 2 : 209).

Ainsi le Savoir mathématique s’est progressivement institutionnalisé, aussi bien dans ses

conceptions, que ses procédures, ses logiques internes et ses rapports avec la société civile.

Mais quand l’Occident s’est réapproprié cette science, il l’a fait à travers ses propres

institutions religieuses, les logiques internes entre elles et la société civile, la fonction qu’elles

occupaient dans la vie citadine ou rurale, etc. Le point de vue de G. Ifrah est donc à

relativiser. La conception universelle de la science que nous connaissons aujourd’hui, n’est

pas seulement le fruit de la science arabe, qui l’a certainement débarrassée de son ésotérisme

et de son mysticisme, mais aussi le produit des modes d’appropriation de ce savoir par les

institutions et les réseaux universitaires et de sa généralisation par les institutions scolaires.

65 Le terme d’ « algèbre » provient de l’arabe : « al-jabr, « contrainte, réduction » dans le titre d’un ouvrage de Al Khawarizmi » (P. Robert ; 1979 : 48) et (G.A. Bertrand ; 2007 : 19).

Page 166: UN REFERENTIEL, POUR QUOI FAIRE

166

Une connaissance ne devient universelle qu’à partir du moment où elle est reconnue légitime

et acceptée par tous. Or, pendant longtemps, les mathématiques n’auront qu’une place

secondaire dans l’enseignement, ainsi que nous l’explique E. Durkheim dans son histoire de

la pédagogie :

« Toutes les connaissances humaines étaient réparties en sept branches ou sept disciplines fondamentales : ce sont les septem artes liberales dont le nom sert de titre aux grands ouvrages de Cassiodore. Cette division en sept remonte aux derniers temps de l’Antiquité classique. (…) Mais au Moyen âge, elle n’est plus la conception passagère d’une individualité isolée ; elle devient une véritable institution. Pendant des siècles, elle va rester à la base de l’enseignement. (…) Cependant les sept arts n’étaient pas tous mis sur le même plan (…) Il y avait d’abord trois disciplines, la grammaire, la rhétorique et la dialectique qui formait ce que l’on appelait le trivium. (…) Pour désigner les quatre arts que ne comprend pas le trivium, on se servit de l’expression de quadrivium. Le quadrivium comprenait la géométrie, l’arithmétique, l’astronomie et la musique. Ces deux cycles ne se distinguaient pas seulement par le nombre des disciplines qu’ils comprenaient. Il y avait entre la nature des disciplines de l’un et la nature des disciplines qui constituaient l’autre une différence profonde. Le trivium avait pour objet d’enseigner à l’esprit l’esprit lui-même, c’est à dire les lois auxquelles il se doit soumettre pour penser et s’exprimer droitement. Tel est, en effet, le but de la grammaire, de la rhétorique et de la dialectique. Ce triple enseignement est tout à fait formel. Il porte uniquement sur les formes générales du raisonnement, abstraction faite de leur applications aux choses, ou bien ce qui est plus formel encore que le pensée, à savoir le langage. Aussi les arts du trivium étaient-ils aussi appelé artes sermonicinales ou logica. Au contraire le quadrivium était un ensemble de connaissances relatives aux choses. Son rôle était de faire connaître les réalités extérieures et leurs lois, lois des nombres, lois de l’espace, lois des astres, lois des sons. Aussi les arts qu’il comprenait étaient-ils appelés artes reales ou physica. Trivium et quadrivium étaient donc orientés en deux sens différents : l’un vers l’homme, vers l’esprit, l’autre vers les choses, vers le monde. L’un avait pour fonction de former l’intelligence de manière générale, de lui donner sa forme normale, son attitude normale ; l’autre avait pour but de la meubler de la nourrir » (E. Durkheim ; 1938/1969 : 57-59).

Le sociologue insiste sur les conditions particulières qui ont conduit la religion chrétienne à

privilégier trois premières formes d’enseignement - c'est-à-dire la formation rigoureuse de

l’esprit -, sur les autres arts qui n’avaient, pour seule fonction, que la « nourriture de l’âme ».

Mais ce qui nous importe ici, c’est surtout d’analyser en quoi ces pratiques

traditionnelles ont conduit à la formation de nos raisonnements logiques modernes, pour

mettre en exergue le produit de l’articulation entre les deux cultures, orientale et occidentale.

Comment les critères de validité de nos disciplines scientifiques se sont-ils constitués, au-delà

des conceptions philosophiques, sur des modalités opératoires implicites qui se sont formées

au cours des siècles ? L’histoire de la grammaire nous en offre un aperçu typique.

La première grammaire digne de ce nom serait celle de la littérature védique :

« Avec l’Inde ancienne, on rencontre probablement la première réflexion manifeste que des hommes aient conduite sur leur langage ; et surtout la première description d’une langue en tant que telle » (G. Mounin : 1967/1996 : 66).

Page 167: UN REFERENTIEL, POUR QUOI FAIRE

167

Mais, à cette époque, ces pratiques avaient, une origine théologique, ou du moins une

signification sacrée :

« Il s’agissait, pour les grammairiens hindous d’assurer la conservation de la langue sacrée, langue des dieux, langue parfaite (sanskrit = parfait) » (G. Mounin : 1967/1996 : 68). La grammaire hindoue s’est donc surtout attachée à une « analyse du mot en

monème » (idem : 72), c'est-à-dire sous forme d’un inventaire de syllabes. Sa découverte a

attiré l’attention des grammairiens modernes sur la « notion de racine, et par voie de

conséquence, celles d’affixes, flexions, désinences », qui sera « le point de départ de

l’étymologie scientifique » (idem : 72). Mais c’est surtout avec les grecs que s’élaborent « une

classification formelle et fonctionnelle des mots » (idem : 93). Si on peut dire que « c’est

Aristote qui jette les bases d’une analyse syntaxique » (idem : 94), les définitions sont alors

« incertaines » et « sémantiques » : le nom et le verbe sont déterminés en fonction de leur sens

et non de leur position fonctionnelle dans la phrase. C’est avec l’école d’Alexandrie, à

l’époque Ptoléméenne (les trois derniers siècles avant notre ère), que l’analyse de la phrase se

précise en « huit parties du discours, article, nom, verbe, participe, adverbe, proposition,

conjonction » (idem : 94). L’apport essentiel des romains fut de transmettre ce patrimoine.

Le moyen âge n’apporte pas beaucoup de nouveauté, si ce n’est cette façon de se

réapproprier les grammaires latine et grecque. Ainsi que le formule clairement G. Mounin :

« Le moyen âge a beaucoup réfléchi sur le langage, mais en fonction de la logique qui connait alors un développement remarquable. La scolastique se préoccupe essentiellement des rapports entre langage et pensée » (G. Mounin : 1967/1996 : 68). Après en avoir précisé le contexte, E. Durkheim nous précise aussi les vertus

propédeutiques de cet enseignement de la grammaire, qui « constitue, s’il est bien entendu, un

excellent, un irremplaçable instrument de culture logique » (1938/1969 : 70).

« La grammaire d’Alcuin, par exemple, n’est nullement un simple recueil de recettes grammaticales ; mais elle affecte manifestement une allure scientifique. Dès le début, l’auteur rattache le mot à l’idée et la grammaire à la logique » (E. Durkheim ; 1938/1969 : 71) « Il ne s’agissait pas d’apprendre des règles, mais de les expliquer et de les systématiser logiquement. Définitions, classification, explication peuvent aujourd’hui nous surprendre par leur excès de simplicité et de naïveté, ou bien encore par leur obscurité ; elle n’en témoigne pas moins du but poursuivi. (…) Ce n’est plus un enseignement verbal ; c’est une première forme de culture logique » (Idem : 72).

Ainsi, l’étude de la grammaire conduit à une réflexion sur le langage : elle est un regard sur le

langage par le langage. Elle a permis ainsi de développer une analyse de plus en plus

abstraite.

Page 168: UN REFERENTIEL, POUR QUOI FAIRE

168

« Tout s’explique sans peine une fois qu’on a compris que la réflexion du Moyen Age a commencé à s’appliquer aux choses de la grammaire et que, d’un autre côté, la grammaire était un acheminement à d’autres questions. Car, en quelques sommes, le problème scolastique peut, en quelques sortes, s’énoncer en termes grammaticaux et se formuler ainsi : que signifient les mots qui expriment les idées abstraites et générales ? Le substantif, comme son nom l’indique, correspond-il à des substances ? Alors aux substantifs abstraits et généraux correspondent aussi des substances abstraites et générales. (…) Ainsi, à propos de simples classifications grammaticales, on était tout naturellement amenés à se poser des problèmes d’ontologie » (E. Durkheim ; 1938/1969 : 73).

Cela s’est traduit, en particulier, par le débat entre les « réalistes » et les « nominalistes » :

« Pour les réalistes, issues de Platon et saint Augustin, les mots sont des manifestations concrètes des Idées, il y a un rapport intrinsèque entre l’idée et le mot. Pour les nominalistes qui procèdent d’Aristote (et de Saint Thomas plus tard), les idées n’ont de réalité que dans l’esprit des hommes, les mots ne sont pas les choses, ni les germes des choses, mais ne sont que des noms ; et les noms ne sont tels que par convention » (G. Mounin : 1967/1996 : 118).

Mais ce débat n’est pas né à cette époque, il a suivi toute l’histoire de la grammaire,

puisqu’on le voit surgir à l’époque de l’Inde classique (Idem : 73), s’amplifier à l’époque

grecque (Idem : 97), ressurgir au moyen âge (E. Durkheim ; 1938/1969 : 72, 73 - G. Mounin :

ci-dessus), puis se structurer en disciplines scientifiques différentes à l’ère moderne de la

grammaire comparée : l’étymologie d’une part, la grammaire structuraliste d’autre part.

Ce qui nous intéresse ici, ce n’est pas d’entrer dans ces débats qui sont insolubles, puisque

intrinsèques aux rapports entre le langage et les référents du discours, mais d’identifier le lien

qui s’est ainsi établi, le plus souvent intuitivement, entre les analyses grammaticales et celles

de la logique. Ainsi que l’a souligné E. Durkheim, ce n’est pas un hasard si les écoles de

grammaire étaient l’antichambre des universités, et si les collèges, par la suite, ont surtout axé

leur pédagogie sur l’étude des grammaires grecques et latines. La dialectique, à l’époque de la

scolastique, puis la rhétorique, à l’époque de la renaissance, c'est-à-dire les deux autres

disciplines de la logique, se sont donc reconstruites – et formalisées - à partir de cette

propédeutique méthodologique de la grammaire. Ainsi, à la période scolastique (dialectique),

à travers l’expositio, qui « se bornait à mettre en relief les raisonnements de l’auteur

expliqué » et la méthode des quaestiones, qui « était une sorte de dispute », « véritable

discussion » au cours de laquelle le maître « mettait aux prises les opinions contraires, les

confrontait, les opposait » (E. Durkheim : 1938/1969 : 165), la grammaire était mise au

service de l’analyse de la pensée et de la construction de l’argumentaire :

« une petite place était réservé à la grammaire. Mais beaucoup plus encore qu’à l’époque carolingienne, la grammaire était alors entendue comme une science étroitement parente de la logique » (E. Durkheim ; 1938/1969 : 161).

Page 169: UN REFERENTIEL, POUR QUOI FAIRE

169

Les disputes dialectiques et les exposés sur la pensée des auteurs interrogeaient ainsi les

règles formelles de la logique, prélude à la construction de la méthode.

« Pour les dialecticiens du Moyen Age, l’homme était chose plus simple encore, puisqu’il était réduit à la raison raisonnante, c'est-à-dire à un petit nombre de concepts très généraux, de formes vides, susceptibles de s’appliquer à toute espèce de matière indistinctement : concept de substance et d’attribut, d’essence et d’accident, de genre et de propriété, etc. » (E. Durkheim ; 1938/1969 : 321).

Avec la rhétorique, c’est un « nouveau genre d’exercice » qui apparaît, « l’exercice de style et

la composition écrite » (Idem : 229) :

« Au formalisme grammatical de l’époque carolingienne, au formalisme dialectique de la scolastique, succède maintenant un formalisme d’un genre nouveau : c’est le formalisme littéraire » (E. Durkheim ; 1938/1969 : 234).

A partir du développement des collèges jésuites, ce nouveau mode d’enseignement s’est

généralisé. Les exercices grammaticaux n’y étaient plus une propédeutique à l’analyse

formelle, mais un apprentissage dont l’objectif était de former à la façon de s’exprimer :

« des esprits polis, cultivés, sensibles aux charmes du beau langage, aux joies délicates que l’on goûte dans le commerce des beaux esprits, et capable d’y tenir eux-mêmes un rôle honorable » (E. Durkheim ; 1938/1969 : 262).

C’est cette conception de la grammaire qui a prédominé, en France, en raison de la forte

implantation des collèges jésuites et des méthodes des Frères des écoles chrétiennes.

L’important ici, pour notre propos, n’est pas de reprendre ces recherches historiques

auxquelles le lecteur a la possibilité de se reporter. Mais on aperçoit (de façon très typique

dans un premier temps) la façon dont les méthodes d’enseignement que nous pratiquons

intuitivement se sont progressivement instituées au cours des âges. Les institutions scolaires

sont le résultat de processus historiques complexes. Les formes d’enseignement adoptées de

nos jours ont été souvent :

- soit des choix politiques à l’issue de luttes d’influence - par exemple, entre l’université et

les jésuites, ou entre ceux-ci et les jansénistes de Port Royal (E. Durkheim :1938/1969 :

261-317), ou encore entre le « mode simultané » des Frères des écoles chrétiennes et le

« mode mutuel » ou monitoring system, à l’époque de Guizot (C. Lelièvre ; 1990 : 71-76),

- soit des actions volontaristes pour répondre à des conditions sociales particulières - par

exemple, la création des manuels scolaires à la même époque (C. Lelièvre ; 1990 : 77-80),

- soit encore des phénomènes de modes qui se sont généralisés : par exemple, P. Haeberli

et F. Audigier analysent les « pratiques des conseils de classe », qui se sont multipliées

et concernent aujourd’hui plus de la moitié des écoles primaires de Genève.

Page 170: UN REFERENTIEL, POUR QUOI FAIRE

170

Pourtant aucune référence n’existe « dans les objectifs d’apprentissage, texte officiel de

l’école primaire genevoise »66 (dans F. Audigier, M. Crahay, J. Dolz ; 2006 : 173).

On aperçoit surtout la façon dont l’institutionnalisation des modalités d’enseignement

intervient dans l’émergence de nouvelles conceptions du Savoir. Les modes qui ont induit

l’émergence de ces nouveaux savoirs et les formes d’enseignement qui ont conduit à leur

généralisation sont donc deux formes instituées sans lesquelles le Savoir savant n’aurait pu se

développer, perdurer dans le temps, et acquérir cette reconnaissance universelle qui lui est

intrinsèque. La valeur sociale des conceptions savantes est difficile à interpréter si on

l’analyse indépendamment des modalités de leur communication et de leur diffusion.

L’institutionnalisation ne concerne pas seulement les contenus à communiquer, mais aussi la

façon de les communiquer aux jeunes générations, et la signification de cette action éducative.

Les conceptions modernes sont les héritières de ces pratiques instituées au moyen-âge.

Que ce soit le « discours de la méthode » de R. Descartes, l’analyse des catégories de

l’entendement et la « critique de la raison pure » d’E. Kant ou la dialectique de l’histoire de

G.W.F. Hegel, (pour ne citer que quelques grands auteurs de la philosophie), toutes ces

conceptions ont eu recours, pour se construire, aux concepts et aux modes de formalisation

qui se sont structurées avec l’étude de la grammaire, les pratiques de la scolastique et les

dissertations de la rhétorique. Certes les méthodes pour conduire rationnellement la pensée

émergent bien avant le XVIème et XVIIème siècle. La maïeutique remonte à l’antiquité,

l’herméneutique est certainement encore plus ancestrale. Mais la méthode analytique moderne

se distingue de ces pratiques anciennes par son formalisme, ses catégories pour penser

l’univers, sa conception critique et dialectique, etc. Quand, à la Renaissance, le courant

encyclopédique a émergé (Rabelais, Erasme, Alberti, De Vinci…), puis, s’est affirmé face à

l’humanisme idéaliste, les rapports fonctionnels se sont multipliés entre les concepts de la

logique et les algorithmes mathématiques. Certaines notions de la logica sont transférées dans

les sciences de la nature, à l’instar de celle de « fonction ». D’autres au contraire ont évolué

des mathématiques vers la logique. Ainsi, le concept de « fonction » puise ses premières

significations dans le droit universitaire, ainsi que l’illustre sa première acception, au début du

XVI ème siècle : ce que « fonct » les personnes pour jouer leur rôle dans la société.

66 Il convient, tout de même, de noter le travail réalisé par les institutions scolaires genevoises, en particulier les « diverses négociations entre l’autorité scolaire, l’association professionnelle, les formateurs, et les chercheurs » (P. Perrenoud ; 1999 : 15) qui ont abouti, en 1996, à la mise en circulation d’un Référentiel des « compétences reconnues comme prioritaires dans la formation continue des enseignants » (Idem : 22) : la compétence N°9,

Page 171: UN REFERENTIEL, POUR QUOI FAIRE

171

Avec l’essor des sciences de la nature, le terme est utilisé, dans le courant du XVIème siècle

pour qualifier « l’ensemble des propriétés actives concourant à un même but chez un être

vivant » (Petit Robert). On le retrouve en ce sens, en 1580, dans Les Essais de Montaigne.

C’est à la fin du XVIIème siècle qu’il acquiert son acception mathématique, à partir des

travaux sur le calcul différentiel, et des intuitions de génie, de G.W. Leibniz (1682-

1713/1995). A l’inverse, certains concepts mathématiques ont envahi l’univers de la logique.

Celui d’ « algorithme » est, à ce titre, significatif : ce terme est une déformation d’« Al

Khawarizmi », nom de ce grand mathématicien, « auteur d’un algèbre qui introduisit en

Europe au IXème siècle la numération décimale » (A. Lalande ; 1926/1972 : 35). A l’origine, le

terme qualifie donc ce système de numération, puis l’ensemble des règles de calcul

applicables à ce système, puis une succession de règles et d’opérations mathématiques (en

particulier à la suite des travaux de B. Pascal). A partir du moment où il signifie une

succession d’opérations logiques dans un raisonnement (constructions grammaticales, suite

d’énoncés ou de procédures, etc.), à l’instar des définitions des sciences politiques (P. Muller,

pages 304 à 309) ou de l’automatisme et de l’intelligence artificielle, il s’introduit dans le

champ de la logique.

Peut-être, d’ailleurs, n’est-ce pas un hasard si la formation de cette rigueur

méthodologique moderne et cette nouvelle façon de penser le monde a été surtout portée par

la philosophie allemande (G.W. Leibniz, E. Kant, G.W.F. Hegel, E. Husserl, etc.). Alors que

les pays protestants, en particulier allemands, se sont ouverts à l’esprit encyclopédique dès le

XVIII ème siècle ce qui s’est traduit par la création des « premières écoles secondaires, où

l’enseignement des réalités, des choses et des sciences qui enseignent les choses, prit la place

de l’enseignement purement littéraire » (Idem : 330), la résistance catholique, en particulier

des jésuites, a été puissante en France et il faut attendre le second empire (1863/66), avec les

réformes de Victor Duruy, pour que soit institué un enseignement scientifique et technique

dans les lycées et collèges (« enseignement secondaire spécial ») (C. Lelièvre ; 1990 : 146)67.

A partir de cette construction typique, on en arrive donc à formuler une hypothèse sur les

critères de scientificité : au-delà des conceptions qui en sont une forme d’expression, ceux-ci

sont fondés sur l’institutionnalisation de pratiques sociales qui sont le support de leur

diffusion. Ces premiers constats ont orienté la façon d’appréhender la recherche.

« affronter les devoirs et les dilemmes éthiques de la profession » fait référence à ces pratiques (Idem : 143, 144). 67 Des « cours spéciaux » sur les sciences et langues vivantes sont introduits dans les collèges dès 1829.

Page 172: UN REFERENTIEL, POUR QUOI FAIRE

172

Si les critères sur lesquels sont fondés, plus ou moins consciemment, les appréciations

portées sur les productions intellectuelles sont un condensat culturel68 de la logica et de la

physica, c’est à partir de l’utilisation des modalités méthodologiques de l’une et de l’autre

qu’il convient de les identifier. On exploitera donc les modalités de la logique et certaines

procédures algorithmiques - de façon récursive, ou du moins rétroactive - pour interroger le

discours et les outils des acteurs. Au fur et à mesure de la recherche, certaines disciplines se

sont donc avérées incontournables, que ce soit l’analyse des discours avec ses trois

dimensions69 ou les approches statistiques et l’observation systématique de la sociologie.

Cette articulation sera progressivement précisée, tout au long de cette thèse, il semble surtout

important ici de poser les fondements des relations logiques entre les objets d’étude et les

catégories de la recherche, en particulier pour certains concepts, tels ceux de « critère » et d’

« algorithme », qui ont ce double statut70. Cette rigueur nous permet, à la fois, de définir plus

précisément les objets de la recherche et leurs modalités d’observation, (par exemple, les

concepts de Référent et de Référé, proposés par J.M. Barbier, ou ceux de critère et

d’indicateur), à la fois d’utiliser plus fonctionnellement les catégories (par exemple, fonction

et algorithme), à la fois d’approfondir notre réflexion sur l’articulation entre les deux. On en

vient alors à s’interroger sur cette dichotomie entre le Référent et le Référé : représente-t-elle

une réalité essentielle du phénomène d’évaluation (au sens du positivisme) ou reflète-t-elle la

différence entre une approche logique de l’objet, qui se réifie dans le « critère », et une

approche algorithmique, qui s’incarne dans l’ « indicateur » (phénoménologie) ? Ces deux

positions se confortent cependant ici, dans la mesure où il s’agit d’un objet de pensée, d’un

processus cognitif. Si on peut appréhender celui-ci de deux façons (fonctionnelle et

algorithmique), il est possible d’en déduire que l’objet lui-même - le processus tel qu’il se

présente à nous dans la pensée - est composé de ces deux facettes. Le critère s’étudie ainsi à

partir de l’analyse des discours, l’indicateur par une observation systématique des procédures

algorithmiques du traitement des données. Cette question sera approfondie au chapitre 7.

68 Au sens de cette troisième dimension du curriculum mise en valeur par les travaux de J.C. Forquin. 69 Il serait certainement intéressant, par rétroaction, d’analyser dans quelle mesure les trois disciplines du trivium sont-elles l’expression de ces trois dimensions du discours – ou vice versa, en quoi les modalités pratiques de ces disciplines ont-elles induit la formation de ces trois dimensions ? Ces relations apparaissent assez évidentes pour la dimension syntaxique et l’étude grammaticale, mais il y aurait lieu de l’approfondir entre la dialectique et la dimension sémantique, ainsi qu’entre la rhétorique (et plus globalement l’encyclopédie) et la dimension pragmatique. Certains points sont évoqués au cours de cette thèse, en particulier pour la sémantique / dialectique les débats fondamentaux entre nominalistes et réalistes, ou pour la dimension pragmatique, les notions de compétence rhétorique et de compétence encyclopédique (partie III). Mais il n’est pas possible ici d’approfondir cette recherche fondamentale. 70 Cette problématique a été soulevée dans la partie épistémologique, il s’agit seulement ici de revenir sur cette articulation avec les objets de recherche (chapitre 6) et la construction de la méthodologie (partie III).

Page 173: UN REFERENTIEL, POUR QUOI FAIRE

173

Dans l’immédiat, la discussion ci-dessus précise l’hypothèse qui s’est progressivement

dégagée et qui sert maintenant de fil directeur à cette thèse. Le Savoir savant est, lui aussi,

Institution et ses relations avec le reste de la société sont le fruit de longues mutations qui ont

produit une vie sociale de plus en plus complexe. Chaque institution sociale a ses propres

logiques qui se sont forgées à travers son histoire. Mais ces institutions ne sont pas isolées,

d’autres institutions se greffent sur elles : par exemple, les services de l’état, les producteurs

économiques et leurs instances représentatives. L’articulation entre ces institutions créée des

espaces, des lieux de discussions, d’échanges, de formalisation, pour favoriser l’adaptation

des unes aux autres. C’est dans ce cadre que se forme la noosphère, qui développe ses propres

institutions parmi les institutions. Ainsi, la spécialisation du travail et la diversification des

groupements sociaux, conduisent au développement de nouvelles structures sociales. N’est-il

pas pertinent, dans ce cas, de considérer les institutions comme des formes stabilisées de

relations sociales, que les groupes sociaux adoptent, à un moment de leur histoire, pour

conserver leur patrimoine culturel, fruit des découvertes d’une époque ? Nous avons vu

comment certaines institutions scolaires se sont constituées puis instituées. Mais cela ne

répond que partiellement à la question de la transmission du patrimoine culturel. Pour

reprendre la problématique telle qu’elle a été posée par E. Panofsky, comment la société

génère-t-elle, puis transfère-t-elle d’une génération à une autre, ces « forces formatrices

d’habitudes » ou encore « habitudes mentales », que P. Bourdieu a nommé « habitus » - (P.

Bourdieu, J.C. Chamboredon, J.C. Passeron ; 1968 : 253-256)71 ? La formation des jeunes

générations, et plus généralement toutes les éducations, ont une fonction de reproduction des

institutions, c’est-à-dire des relations établies, garantes d’une stabilité sociale. Mais elles

auraient aussi une importance pour la préservation, voire la conservation culturelle : les

conceptions sont une façon de condenser, sous forme langagière, le sens (l’esprit) des

procédures inventées à une époque, réappropriées par de nombreux membres de la société,

puis communiquées de génération en génération. Les conceptions logiques sont ainsi

l’expression formelle de modes opératoires qui se sont imposés à un moment de l’histoire.

Elles ne sont pas une simple connaissance à apprendre, elles ne sont pas non plus des dogmes

qui régentent les modes de fonctionnement des groupes sociaux, elles représentent

l’institutionnalisation de savoirs qui ont été des modes d’une époque et qui se sont diffusées.

71 Il est intéressant de constater, ici, que les travaux de E. Panofski, ont porté sur les rapports entre les principes logiques de la scolastique et les principes de construction qui ont conduit à l’architecture gothique, pendant la période qui s’étale des années 1130 aux années 1270.

Page 174: UN REFERENTIEL, POUR QUOI FAIRE

174

Il y a donc bien, entre l’ (les) enseignant(s) / formateur(s) et les élèves / stagiaires, un

tiers institutionnel, ainsi qu’en font l’hypothèse L. Cornu et A. Vergnioux ; mais ce tiers n’est

pas étranger au Savoir savant, qui s’est lui aussi construit à partir de ses formes

institutionnelles, et qui a généré de nouveaux modes de relations avec les autres institutions. Il

y a bien un enjeu de formation, au sens où le propose la recherche de J. Houssaye

(1988/1992), de « formation institutionnelle », est-il intéressant de préciser.

La première orientation de cette thèse, a donc été la recherche des mobiles réels des

évaluateurs, à partir de l’analyse de leurs discours. Mais au fur et à mesure de la prise de

conscience des formes instituées, plus ou moins consciemment, des procédures d’évaluation

(exprimée par l’hypothèse précédente qui sera étayée dans la thèse), une nouvelle question

surgit : quel est l’intérêt de formaliser ces modalités sous la forme de Référentiels ? A quels

besoins sociaux répond cette nouvelle pratique ? Même si elles sont imbriquées l’une dans

l’autre, il s’agit là de deux questions bien distinctes : la première fait référence aux modes

d’évaluation implicites des acteurs, sur le terrain (le référentiel réel), la seconde aux

orientations des politiques éducatives et aux modalités prescrites en matière d’évaluation (le

Référentiel formel). Cette distinction n’est pas un pur formalisme, car les modalités

d’approche sont différentes : pour la première étude, les informations sont à collecter sur le

terrain / in situ, alors que pour la seconde, les découvertes se font surtout à partir de

recherches documentaires et de collecte de données. On retrouve donc ici la même

problématique que pour le curriculum, et ce n’est certainement pas un hasard dans la mesure

où les formes d’évaluation mises en œuvre sont toujours en rapport avec les modalités

d’apprentissage : l’enseignant évalue ce qui a été appris par l’élève, il le fait à partir de ce

qu’il a mis en place pour cet apprentissage (P. Perrenoud ; 1984). Ces deux approches ont

besoin l’une de l’autre pour s’enrichir : on a montré, en particulier, l’intérêt de l’étude

historique pour préciser les objets de recherche et les modalités d’observations sur le terrain ;

inversement, ces dernières offrent une meilleure aperception de la façon dont s’organisent les

interactions entre les personnes, en situation. En ce sens, l’approche ethnographique apporte

une meilleure aperception de la réalité quotidienne exprimée par les concepts sociologiques.

Les deux questions sont donc complémentaires et il apparait difficile d’aborder l’une

sans l’autre. Pour pouvoir interpréter les situations observées, il est important d’en connaitre

le contexte ; inversement, ces observations in situ donnent du sens aux conceptions, et donc

de ce fait, aux divergences qui se sont exprimées à un moment donné. On a privilégié, dans

cette thèse, l’analyse du Référentiel réel, de ce fait, les approches plutôt microsociologiques.

Page 175: UN REFERENTIEL, POUR QUOI FAIRE

175

Mais on s’est vite heurté au besoin d’avoir un minimum d’informations sur le contexte

socioprofessionnel, à la fois pour interpréter le sens des interactions72, à la fois pour analyser

les raisons sociales (évènements, conditions historiques, contraintes organiques, etc.) qui ont

conduit à l’adoption et à l’institutionnalisation de ces modalités d’action dans la pratique

quotidienne.

7) Recherches sur l’évaluation et émergence de la notion de Référentiel :

Les problématiques sur l’évaluation se sont ainsi progressivement affirmées comme un

champ autonome de recherches au sein des sciences de l’éducation. C’est la psychologie qui

en a été le moteur en France. En transposant les protocoles expérimentaux et les traitements

statistiques de cette discipline, la docimologie a introduit de nombreuses questions sur le

système de notation, qui sont encore d’actualité. En particulier, elle a remis en question

l’illusion républicaine sur l’équité de notes, et ouvert ainsi un espace riche de travaux sur les

facteurs qui expliquaient ces différences de notation. En se centrant sur une préoccupation

importante d’une société qui se démocratisait, par l’accès de nombreuses couches de la

population à l’éducation, la docimologie a assis son autorité. Elle a, par ailleurs, préparé le

terrain, en Europe, à l’introduction des taxonomies, qui ont vu le jour aux USA en 1948, et se

sont inscrites dans le courant de la pédagogie de la maîtrise et de la pédagogie par objectifs.

La notion de Référentiel apparaît comme un produit de cette dynamique sociale : à la fois, elle

s’inscrit dans les préoccupations républicaines qui ont conduit au développement de la

docimologie, à la fois elle intègre les modalités de réflexion et de construction héritées des

taxonomies et de la pédagogie de la maîtrise. Mais l’introduction de ces nouvelles pratiques

est loin d’avoir résolu la problématique. En particulier, les travaux de P. Merle (1998 : 12-13)

ont montré que l’introduction des barèmes de notation ne résout guère les écarts, bien d’autres

facteurs intervenant (1998 et 1996). La généralisation des Référentiels de compétences en

Europe a tout de même l’intérêt de faire émerger un paradoxe. Alors que leur impuissance à

résoudre la problématique introduite par la docimologie est démontrée, ils sont de plus en plus

omniprésents dans les pratiques professionnelles et dans les institutions éducatives.

72 On reviendra dans la partie de méthodologie linguistique (Partie III) sur l’importance de la dimension pragmatique pour analyser la signification des discours.

Page 176: UN REFERENTIEL, POUR QUOI FAIRE

176

Ainsi que le mentionnait K. Merton, les paradoxes sont souvent à l’origine d’hypothèses

fécondes :

« Dans la mesure où les fonctions latentes s’éloignent des fonctions manifestes avouées, leur découverte conduit souvent à des résultats « paradoxaux ». Le paradoxe apparent naît de la modification brutale que l’indication de fonctions latentes, latérales ou subsidiaires, impose aux préjugés populaires. Ceux-ci, en effet, sont basés uniquement sur les fonctions manifestes d’une pratique ou d’une croyance standard. L’introduction du concept de fonction latente dans la recherche sociologique conduit à conclure que « la vie sociale n’est pas aussi simple qu’il parait à première vue » » (1953/ 1997 : 117). Si la résolution des écarts de notation n’est pas la raison essentielle de la généralisation

des Référentiels, quels en sont alors les mobiles sociaux, plus ou moins avoués ? Quelle

fonction latente les « Référentiels de compétences », dont les professionnels sont abreuvés de

nos jours, ont-ils vocation à remplir ? En d’autres termes, ces pratiques se maintiendraient-

elles, si elles étaient vraiment inutiles, et si elles n’avaient pas une fonction sociale, au moins

pour une partie des membres de la société ? Ce paradoxe conduit donc à s’interroger sur la

notion de « fonction de l’évaluation », qui a fait l’objet de nombreuses discussions, dans le

domaine des sciences de l’éducation, mais la plupart du temps à vocation prescriptive. En

privilégiant l’analyse des fonctions latentes, on s’inscrit dans une démarche descriptive, dont

l’évolution conduit à faire émerger de nouveaux paradoxes, qui nous orientent vers de

nouvelles pistes. On balise ainsi la recherche d’un ensemble d’hypothèses pour découvrir les

raisons fonctionnelles de la structure de ces Référentiels.

L’analyse institutionnelle offre une première orientation, en introduisant le concept

d’institution dans l’acte pédagogique. En analysant les microphénomènes qui ont lieu au sein

de la classe, et plus généralement au sein de tous les groupes de formation, elle souligne les

dynamiques sociales qui émergent de l’acte éducatif. Les Référentiels ne sont-ils pas de

nouvelles institutions ? Poser ainsi le problème nous conduit à nous intéresser à leurs formes

instituées, mais aussi à nous interroger sur les forces instituantes qui s’inscrivent ainsi dans le

système éducatif institutionnalisé. Leur « sens » n’est pas inné, il est le produit de pratiques

qui se sont institutionnalisées au fil des siècles et qui ont généré des rites, des façons de faire,

des habitudes, etc. ainsi que des croyances et des connaissances. Tout cet ensemble constitue

le Savoir, le fameux Savoir à atteindre, à découvrir, à connaître, et que les Référentiels sont

censés décrire et nommer. Par conséquent, si les discussions de la docimologie et des

taxonomies sont incontournables pour appréhender le concept de Référentiel, l’analyse des

enjeux sociaux de ces pratiques nous conduit vers des approches beaucoup plus

phénoménologiques et constructivistes : l’étude des interactions entre les acteurs et des

processus cognitifs qu’ils mettent en œuvre.

Page 177: UN REFERENTIEL, POUR QUOI FAIRE

177

La problématique de la recherche se précise alors au point de remettre en question la

conception usuelle des Référentiels : ne sont-ils vraiment que des guides ou des grilles de

référence de l’enseignant / formateur lors de la phase d’évaluation de son action éducative ou

lors des examens de certification ? Nommer les « éléments à évaluer » des Référentiels, à

l’instar du modèle des taxonomies, a l’intérêt d’attirer notre attention sur les processus

cognitifs en jeu à ces moments là. Mais les professionnels ne sont pas des ordinateurs qui

appliquent machinalement des procédures décidées par leurs instances supérieures. Ce sont

des acteurs qui ont une représentation de leurs missions et qui se positionnent dans des jeux

d’interaction réciproques : par exemple, pour les enseignants, avec les élèves mais aussi avec

l’administration, leurs collègues, les partenaires. C’est donc une compréhension globale de ce

système dont nous avons besoin pour donner du sens aux outils d’évaluation.

Le système didactique et les modes d’enseignement n’ont du sens qu’en raison de leur

inscription dans un environnement social et un contexte culturel dans lesquels ils remplissent

une fonction. L’action éducative n’a pas de sens, indépendamment du cadre de référence dans

laquelle elle s’insère. En étudiant, d’une part les programmes d’études (curricula formels),

d’autre part les modes d’interaction qui s’instituent dans les classes et qui se traduisent par

des apprentissages (curricula réels), les travaux sociologiques ont ainsi élargi le champ

d’étude de ces processus. En particulier, ils ont mis en valeur certains décalages entre le

curriculum prescrit et le curriculum réel dont l’étude apparaît fondamentale. N’est-ce pas en

raison de ces écarts entre ce qui est à apprendre et ce qui est appris que l’évaluation est

sollicitée, qu’elle soit formative, certificative ou diagnostique ? Ces travaux sur le curriculum

orientent donc notre réflexion sur l’articulation entre le Référentiel formel, qui dérive du

curriculum prescrit, et le référentiel réel, qui se forme en fonction des conditions « de

production » du curriculum réel. En formulant le problème de la sorte, ne se retrouve-t-on pas,

de fait, au cœur de la problématique de la transposition didactique, praxis et processus

cognitifs mis en œuvre par les acteurs de l’éducation pour s’adapter à ces décalages ? La

démarche sociologique insiste alors plutôt sur les aspects sociaux (enjeux entre les groupes

sociaux en présence, contraintes organiques des situations), alors que la didactique s’intéresse

surtout aux processus cognitifs des acteurs. Elle ne s’arrête d’ailleurs pas à la question des

contenus (connaissances, procédures), mais étudie aussi les conceptions des acteurs, c’est à

dire les constructions intellectuelles de mémorisation des connaissances, leur intégration dans

des processus cognitifs et leur adaptation à chaque contexte particulier.

Page 178: UN REFERENTIEL, POUR QUOI FAIRE

178

Ces deux approches sont donc complémentaires : l’approche sociologique du

curriculum, avec la différenciation du formel et du réel, et l’étude didactique des conceptions,

processus cognitifs mis en œuvre par les acteurs. La première pose le cadre sociologique pour

étudier la formation et l’institutionnalisation des référentiels implicites, la deuxième

approfondit l’analyse des processus cognitifs dans la perspective d’observer les modalités des

interactions. Elles s’exprimeront, au niveau empirique, à travers des recherches historiques ou

sociologiques d’une part (chapitres 11 et 14), et des analyses de discours ou des observations

ethnographiques d’autre part (chapitres 12 et 13). Ces deux axes serviront aussi de balises

pour la suite de cette revue de la littérature, qui définit les concepts dont on aura besoin au

moment de l’interprétation, mais, aussi, qui pose le cadre de référence pour donner du sens à

ces expériences. Le chapitre 6, sur les objets de l’évaluation, approfondit les questions

sociologiques, afin de préciser les concepts en rapport avec les phénomènes observés et

d’étudier les différentes formes d’expression sociales qui favorisent l’institutionnalisation des

référentiels : habitus, représentations sociales, ethnométhodes, compétences, conceptions. Le

chapitre 7 précise les définitions de nos objets de recherche, c'est-à-dire des processus

cognitifs qui traduisent les phénomènes d’interaction évaluatives, afin d’en déterminer les

modalités d’observation et de situer les indices langagiers, contextuels et ethnographiques, par

rapport aux systèmes sociaux modélisés au chapitre 6. Derrière l’analyse des Référentiels,

fiches de métiers, tableaux de compétences, listes de connaissances, se profile ainsi l’étude

des référentiels réels, c'est-à-dire des processus qui ont conduit à l’institutionnalisation de ces

pratiques.

Page 179: UN REFERENTIEL, POUR QUOI FAIRE

179

Chapitre 6

Les objets de l’évaluation

Les différentes problématiques des sciences de l’éducation ont toute, à un degré ou à

un autre, un lien avec celle de l’évaluation. Cette dernière a donc, de fait, un rôle fédérateur :

elle communique du sens aux autres travaux, du moins un certain sens en fonction des

préoccupations auxquelles elle répond ; la réciproque existe, ainsi que nous avons pu le

constater au paragraphe précédent. Mais ces rapports entre les différents champs de recherche

ne sont aperceptibles que si nous dépassons l’observation des éléments de façade, c'est-à-dire

ces listings des compétences, de connaissances et de savoirs à acquérir et à évaluer, que nous

nommons « Référentiels » (avec un grand « R ») pour analyser les praxis et leur fondement

objectif, leur fonctionnalité rationnelle. On définira donc le référentiel réel (avec un petit

« r ») comme l’ensemble des processus cognitifs qui donnent du sens aux pratiques

d’évaluation. Ces processus sont nommés « processus de la référence ». Leur étude nous

conduit inévitablement à nous interroger sur la façon dont se construit le sens (chapitres 8 à

10) et sur les phénomènes sociaux qui rendent possibles cette construction. On abordera donc,

dans ce chapitre, cette seconde dimension : quels sont les processus et systèmes qui favorisent

la construction du sens commun, du moins du sens partagé ?

1) Etudier les objets de l’évaluation :

Avant d’aborder l’étude de ce qui est réellement évalué au cours des procès d’évaluation,

il apparaît pertinent de préciser la conception de l’objet à laquelle on se réfère pour construire

les procédures d’observation : les objets d’une recherche n’ont de sens qu’en rapport à des

objectifs, c'est-à-dire aux divers intérêts qui ont attiré notre attention sur eux (en tant

qu’individus ou collectifs). Il s’agit donc d’identifier les éléments observables qui ont un sens

pour les acteurs sociaux. Nous retrouvons ici l’influence de la phénoménologie. C’est cette

fonctionnalité directe ou indirecte de l’objet qui le différencie de la catégorie, concept

générique formé à partir de la réflexion analytique, c'est-à-dire du regard en miroir que nous

pouvons porter sur nos propres modes de pensée. Cette différenciation est évidente dans de

nombreuses disciplines scientifiques, en particulier lorsque les objets n’ont rien à voir avec les

catégories de la pensée. Il en va tout autrement à partir du moment où les processus de la

pensée deviennent objets de recherche, ce qui est le cas présentement.

Page 180: UN REFERENTIEL, POUR QUOI FAIRE

180

Le « Référent » et le « Référé » sont des catégories, c’est à dire des concepts crées

pour appréhender nos systèmes de référence implicites. Il en est de même de la « fonction »,

telle du moins qu’elle a été définie par les sciences de l’éducation quand elles appréhendent

les processus d’évaluation. Le concept de « critère » est aussi, le plus souvent, appréhendé

comme une catégorie. Pourtant certains travaux, par exemple ceux de J.J. Bonniol (1983), ont

conduit à le définir de façon plus objective. C’est aussi le choix de cette thèse qui nous

conduit aux définitions objectives du chapitre 7 (pages 316 à 338). Mais si le critère acquiert

le statut d’objet, c’est bien par rapport à un objectif, un l’intérêt pour les acteurs. Il traduit des

processus de jugement mis en œuvre par eux, et la réflexion sur ces derniers est un moyen

d’acquérir du recul pour comprendre le sens de ces actions d’évaluation, afin de pouvoir agir

et d’en modifier la forme et les modalités d’application. C’est du moins ainsi que l’on

abordera ici le problème : dans les discussions qui vont suivre, l’essentiel n’est pas de

déterminer le point de vue qui a raison. La façon dont on définit un objet peut induire les

résultats dans le sens des hypothèses préétablies, c’est le principe du vice tautologique. Mais

quand on arrive à des résultats paradoxaux comme ceux de l’expérience N° 1 (pages 581 à

610), on est alors obligé de creuser un peu plus pour comprendre ce qui en est à l’origine ; et

c’est à ce moment là que les travaux prennent une dimension … de recherche. Ce qui

surprend le plus, aux termes de ces premiers travaux, ce n’est pas le fait que des personnes

aient un point de vue différent sur des prestations écrites de stagiaires, mais bien au contraire

qu’il y ait de très fortes convergences. Sur quoi reposent-elles ? Pourquoi génèrent-elles

l’illusion que les professeurs aient une sorte de science infuse pour juger de la même façon ?

Par conséquent, si l’on revient ici sur les contradictions de la docimologie, ce n’est pas pour

critiquer ces travaux qui ont fait progresser la recherche en sciences de l’éducation, mais pour

poser le cadre dans lequel la revue de la littérature sociologique, présentée dans ce chapitre,

sera développée. L’étude des phénomènes sociaux implicites a pour objet de connaître les

fondations sur lesquelles se sont bâtis nos systèmes d’évaluation contemporains.

1-1) Sur la question de l’arbitraire des notes :

La docimologie a remis en question les croyances républicaines sur l’équité des notes.

Mais sur quoi sont fondées ces croyances ? Cela n’a jamais fait l’objet d’études approfondies.

Et surtout, pourquoi ces croyances perdurent-elles ? Qu’est ce qui, dans le système social, les

entretient ? L’analyse sociologique des procès nous permet de discerner ce qui est en jeu.

Page 181: UN REFERENTIEL, POUR QUOI FAIRE

181

Les résultats des expériences successives de la docimologie ont ouvert la voie à de nouveaux

travaux, sous l’angle sociologique, sur la construction du jugement professoral (P. Merle ;

1996). P. Perrenoud (1998 : 44 à 71) a par ailleurs analysé les mécanismes de cette

« fabrication des hiérarchies d’excellence », à partir de son concept d’ « excellence scolaire »,

qu’il a eu l’occasion d’affiner lors de ses premières recherches (1984) :

« L’évaluation est toujours beaucoup plus qu’une mesure. C’est une représentation, construite par quelqu’un, de la valeur scolaire ou intellectuelle de quelqu’un d’autre (…) Dire que l’évaluation s’inscrit dans un rapport social est une façon de dire qu’on ne peut pas faire abstraction de l’ensemble des liens qui existent entre l’évaluateur et l’évalué et, à travers, entre les groupes d’appartenance respectifs. C’est dire aussi que l’évaluation doit être conçue comme un jeu stratégique entre des acteurs qui ont des intérêts distincts, voire opposés » (1998 : 62, 63).

Ainsi, l’évaluation n’est pas simplement l’application de certains barèmes plus ou moins

standardisés, élaborés de façon plus ou moins scientifique, ainsi que le postulent

implicitement des travaux comme ceux des taxonomies ou de G. Figari, mais un système de

représentations sociales construites qui s’expriment à travers un fonctionnement

institutionnalisé, qui aménage des espaces de « flou » volontaires :

« Le flou des règles et la diversité des pratiques ont de multiples raisons, historiques et actuelles. La première est que les professeurs ne souhaitent pas être enserrés dans un corset d’obligations trop précises quant à ce qu’ils doivent enseigner et évaluer. (…) Pourtant, le confort des acteurs n’est pas l’explication essentielle. Si (…) l’école maintient des interprétations et des modes de faire aussi divers et artisanaux, c’est avant tout parce que cela lui permet de naviguer au plus près entre des attentes parfaitement contradictoires : alors que les uns estiment qu’elle doit « faire réussir tout le monde » et gommer le plus possible les inégalités, les autres lui demandent de préparer les élites et de légitimer les hiérarchies scolaires sur la base du mérite scolaire. Prise en tenaille entre ces conceptions opposées, l’école, au jour le jour, doit pourtant fonctionner. (…) La flexibilité permet aussi d’articuler l’évaluation à la gestion du contrat didactique et de la relation pédagogique. Comme le rappellent Chevallard (1996) et Merle (1996), les notes sont, pour le professeur, un moyen de contrôler le travail et le comportement de ses élèves. (…) Le jeu avec les règles (Perrenoud, 1986) ouvre également un espace de transaction. (…) L’évaluation s’inscrit toujours dans un rapport social, une transaction plus ou moins tendue entre l’enseignant, d’une part, l’élève et sa famille, d’autre part. Il n’y a pas toujours négociation explicite. C’est pourquoi Merle (1996) préfère parler d’un arrangement » (P. Perrenoud ; 1998 : 31 à 33).

L’élaboration de Référentiels, à partir d’une modélisation « scientifique », ne réduit donc pas

les différences d’appréciation. Les travaux de P. Merle le confirment (1998 : 12). P.

Perrenoud nous expose divers modes d’adaptation laissés à l’appréciation de l’enseignant

pour interpréter les textes (divers choix de transposition didactique) :

« Les textes législatifs et règlementaires disent ce qu’il faut enseigner, mais définissent beaucoup moins clairement ce que les élèves sont censés apprendre, donc ce qu’il faut évaluer (…) Les programmes laissent aux professeurs une importante marge d’interprétation et une sphère d’autonomie quant à leur transposition didactique » (Idem : 29).

Page 182: UN REFERENTIEL, POUR QUOI FAIRE

182

En évoquant les « hiérarchies d’excellence scolaire », P. Perrenoud en arrive ainsi à

parler de « l’arbitraire de son mode de fabrication », propos qu’il relativise cependant

plusieurs fois au cours de son exposé73. Il y a une part non négligeable d’arbitraire de la

notation, la docimologie l’a suffisamment démontré pour que nous soyons tous convaincus.

Les correcteurs ne notent pas tous selon les mêmes critères implicites. Par ailleurs, un même

correcteur ajuste ses notations au contexte : P. Perrenoud (1998) et P. Merle (1996) évoquent

les multiples considérations qui interviennent lors de l’évaluation, en particulier celles qui

sont liées à la gestion de la classe. « Enfin, la section anglaise de la commission Carnegie a

montré qu’un correcteur n’est pas fidèle à lui-même » (P. Merle ; 1998 : 11) ; ainsi, à

plusieurs mois d’intervalle, la note ne sera pas identique, ni la « hiérarchie de compétence

entre les élèves ». Mais faut-il, pour autant, en conclure que la construction du jugement

repose sur l’arbitraire et que les modalités actuelles d’évaluation ne fonctionnent qu’en raison

d’une méconnaissance relative, par les acteurs, de celui-ci ?

« Ce ne sont pas cependant des représentations quelconques : elles font foi, elles passent pour une image légitime d’inégalités réelles de connaissances et de compétences. Toute hiérarchie tient sa légitimité de la méconnaissance relative de l’arbitraire de son mode de fabrication. Les hiérarchies d’excellence scolaire auraient moins de poids, pendant la scolarité et au-delà, si les principaux intéressés doutaient de la réalité des inégalités qu’elles prétendent « refléter », ni plus, ni moins » (P. Perrenoud (1998 : 36).

La méconnaissance de l’arbitraire du jugement professoral est-elle une raison suffisante pour

expliquer le pouvoir d’une institution qui maintient ainsi un système d’évaluation auquel se

soumettent de nombreux acteurs sociaux aux intérêts et aux conceptions différents (élèves,

mais aussi professeurs, administration, parents, élus, etc.) ? P. Merle aborde aussi cette

question et argumente sa position.

« Assimiler le crédit professoral accordé à la notation à une croyance est une démarche conforme à une certains tradition durkheimienne : il y a près d’un siècle, le fondateur de l’école française de sociologie écrivait que « les règles juridiques, morales, dogmes religieux, systèmes financiers (etc.) consistent tous en croyances et en pratiques constituées (Durkheim, 1895) » (P. Merle ; 1993 : 16).

Mais la construction de ces représentations collectives expliquent plus le crédit que les

professeurs et l’institution scolaire attribuent à leur système d’évaluation, que l’adhésion dont

font preuve les usagers, à savoir les élèves et les parents. Pour soutenir son hypothèse, P.

Merle fait le parallèle avec les pratiques des consultants en recrutement (qui font souvent

appel à la graphie, à l’astrologie et à la psycho-morphologie).

73 Il écrit, en particulier : « c’est grâce à ces croyances – fondées ou non - » ou encore : « l’arbitraire apparent de la fabrication des jugements se dissipe en partie si l’on tient compte de sa pragmatique » (1998 : 60).

Page 183: UN REFERENTIEL, POUR QUOI FAIRE

183

« Il faut tenter d’expliquer pourquoi le recours aux para-sciences donne apparemment satisfaction à la fois aux cabinets de consultant et aux employeurs qui font appel à ces experts de l’embauche. Trois interprétations au moins sont envisageables : 1) tous les candidats présélectionnés sont finalement « compétents » (ce qui ne signifie évidemment pas que tous les candidats écartés sont incompétents) ; 2) aucun des candidats n’est a priori compétent sur le poste à pourvoir (et cette compétence fera l’objet d’un apprentissage après l’embauche) ; 3) les para-sciences offrent aux experts des instruments de détermination des compétences individuelles qui permettent de compléter de façon satisfaisante l’évaluation réalisée par les méthodes dites rationnelles… » (P. Merle ; 1993 :18).

C’est ce raisonnement qui est ensuite transféré à l’institution scolaire.

« Plus un instrument de mesure devient socialement et scolairement légitime, plus la croyance dans la prédiction de sa capacité sélective grandit et devient potentiellement arbitraire, non pas forcément dans les compétences éventuelles que cet instrument est censé mesurer, mais dans les effets qu’il produit, puisqu’il ne peut faire l’objet de procédures d’appel telles que l’emploi d’autres instruments » (P. Merle ; 1993 : 19)

Mais, si l’analogie entre deux situations permet de poser le problème et les hypothèses, elle

n’apporte pas pour autant de réponses objectives (au sens d’une observation systématique des

phénomènes). Et P. Merle souligne les difficultés d’une telle étude :

« Il est finalement difficile de valider - et d’invalider – de façon pleinement satisfaisante la pertinence des critères d’évaluation des professeurs en raison des effets de self fulfilling prophecy (d’anticipations auto-réalisatrices) » (P. Merle ; 1993 : 20).

Par conséquent, la congruence de certaines notes peut reposer aussi bien sur cet effet

d’anticipations auto-réalisatrices, que sur une autre raison objective, liée à la situation

d’évaluation, qu’il convient de découvrir. Dire que le système d’évaluation scolaire repose sur

un certain nombre de croyances (E. Durkheim employait le terme de « représentation

collective », on dirait aujourd’hui de « représentation sociale » - E. Goffman) ne signifie pas

pour autant que le système de notation soit « arbitraire » :

« Soutenir l’hypothèse que la mesure individuelle de la compétence scolaire repose communément sur la croyance dans une exactitude en partie erronée de la notation n’implique pas que toutes les notes se valent et sont laissées au hasard de corrections fantaisistes. Autrement dit, la démarche menée se démarque d’une adhésion à une sorte de « nominalisme radical qui créditerait l’institution scolaire du pouvoir de créer arbitrairement des titres » (Bourdieu, 1989) » (P. Merle ; 1993 : 17).

Si l’institution scolaire n’a pas le pouvoir de créer arbitrairement les notes et les titres, point

de vue auquel on se ralliera ici, c’est bien parce qu’il existe un certain nombre de contraintes

qui pèsent sur ces attributions. Ne faut-il pas chercher les raisons de la solidité du système

d’évaluation dans celles-ci, plutôt que dans une méconnaissance, par les acteurs concernés, de

l’arbitraire des notes ? Ces contraintes qui pèsent sur les acteurs nous guident plus surement

vers les critères implicites qu’ils utilisent.

Page 184: UN REFERENTIEL, POUR QUOI FAIRE

184

1-2) Paradoxe et hypothèses :

Le paradoxe survient lorsque deux hypothèses contradictoires apparaissent également

justes. L’expérience N° 1, proposée en dernière partie de cette thèse, contredit l’hypothèse de

l’arbitraire. Nous observons une grande congruence dans les appréciations portées sur des

copies d’une quinzaine de lignes, soumises à des professionnels, qui ne connaissent pas les

producteurs des écrits ; il leur a été demandé d’identifier la « meilleure » (une personne

professionnelle) et la « moins bonne » (une personne dont le stage a été jugé insatisfaisant).

Les deux tiers des interviewés ont identifié l’une et l’autre, mais surtout aucune appréciation

« excellente » ne s’est recoupée avec une « non-satisfaisante ». Il existe bien un implicite

commun qui conduit les examinateurs à juger de façon congruente. Ces résultats sont-ils en

contradiction avec ceux de la docimologie ? Le paradoxe interroge aussi bien les méthodes

que l’interprétation des résultats. On aura l’occasion d’approfondir cette question dans la

partie méthodologique et on s’attachera plus ici à l’interprétation du phénomène.

Tout d’abord, l’expérience ne se passe pas en milieu scolaire, mais professionnel (la

« porte d’entrée dans le milieu socioprofessionnel », pourrait-on dire) : on peut faire

l’hypothèse qu’il existe plus d’homogénéité, en termes d’attentes et de présélection, au sein

d’un milieu professionnel qu’au sein de l’école qui répond à des objectifs plus généraux.

Cependant, cette hypothèse n’est pas certaine, elle reste à démontrer et elle n’est pas

indispensable pour interpréter le paradoxe entre les résultats de la docimologie et l’expérience

présente : effectivement, cette dernière porte sur les extrêmes (l’« excellent » et le « non

satisfaisant »), et non sur les valeurs médianes, les personnes « moyennes ». A partir de

données communiquées par P. Merle (1993) sur des expériences de multi-corrections (8

copies de mathématiques / 12 professeurs), on arrive aux mêmes constats : les bonnes copies

sont identifiées par tous les professeurs, les mauvaises aussi, et jamais les notes des premières

ne croisent les notes des secondes. Le problème n’est donc pas d’identifier une bonne ou

mauvaise performance, mais d’être au plus juste pour les candidats, autour de la moyenne. Il

ne s’agit donc pas, en général, d’un problème de note exacte : certes, la note idéale n’existe

pas, mais le médicament idéal non plus, pas plus que le comportement social idéal, etc. Il

s’agit d’un problème de « seuil de réussite », et tout évaluateur consciencieux connaît cette

problématique : se tromper de 1, 2, voire 3 points sur une bonne ou une mauvaise copie ne

changera pas la réussite du candidat, les choses sont plus délicates quand on s’approche de la

moyenne. Et les institutions n’ont pas (ou ne se donnent pas) les moyens humains et

temporels de tergiverser sur tous les cas « moyens ».

Page 185: UN REFERENTIEL, POUR QUOI FAIRE

185

P. Merle cite une étude conduite par E. Chatel sur la congruence des résultats entre

l’année scolaire et le baccalauréat, qui conforte cette hypothèse :

« Fondée sur l’analyse statistique des résultats scolaires obtenus pendant l’année et au bac par 4302 élèves de section ES (économique et sociale), l’étude montre que pour les lycéens qui obtiennent la moyenne pendant l’année terminale (aux matières de l’écrit de l’examen) leur chance d’avoir le bac sont de 80% dès le premier groupe d’épreuves et de 95% après les oraux de rattrapage. Pour cette catégorie d’élèves – autrement dit les « bons élèves » de classe terminale (un peu plus du tiers de l’échantillon étudié) – le bac n’est en aucune manière une loterie : leurs bons résultats scolaires au cours de l’année de terminale permettent de prédire, avec de faibles risques d’erreurs, leur réussite au bac. La situation est a contrario incertaine pour les autres candidats : un peu plus de la moitié des lycéens, qui n’ont pas la moyenne pendant l’année, sont reçus au bac après les oraux de rattrapage. Autrement dit, alors que l’obtention de la moyenne pendant l’année est un bon prédicteur de la réussite au bac, la non-obtention de la moyenne ne prédit pas forcément l’échec, et la réussite au bac est en partie aléatoire pour cette seconde catégorie de candidats » (P. Merle : 1998 : 14, 15).

Or les épreuves écrites au bac sont anonymes. L’hypothèse des « anticipations auto-

réalisatrices » est plausible pour expliquer ce type de résultats puisque les élèves bien notés

pendant l’année sont plus confiants en eux lors de l’épreuve finale. Mais on peut aussi faire

l’hypothèse qu’il existe un certain nombre de critères implicites, déterminés par les conditions

sociales de l’exercice professionnel d’enseignement ou par l’histoire institutionnelle de

l’éducation nationale, et en œuvre lors des corrections.

L’interprétation des résultats est donc fonction de la façon dont le problème est posé,

et de l’angle sous lequel il est abordé. La parabole du « verre à moitié vide ou à moitié

plein », évoquée par P. Perrenoud au sujet de la mobilité sociale, n’est-elle pas aussi

pertinente ici ? Tout dépend de « ce qu’on veut démontrer » (1998 : 70). La docimologie

insiste sur les divergences qui existent entre les correcteurs ; les expériences et l’étude des

critères implicites, proposées dans cette thèse, privilégient au contraire l’analyse des

phénomènes de congruence : les uns et les autres sont réels et consubstantiels de l’évaluation.

Il ne s’agit pas de remettre en question la pertinence et l’intérêt des travaux de P. Perrenoud et

de P. Merle (1996), qui posent vraiment les bases d’une approche (micro)-sociologique des

phénomènes d’évaluation, fort complémentaire des approches psychologiques

(docimologiques). En se positionnant clairement dans une démarche descriptive, en observant

les pratiques des enseignants, en les analysant, ces auteurs ont mis en valeur certaines raisons

sociales des fonctionnements de l’institution scolaire : en particulier, P. Perrenoud explique

les « fonctions du flou » (1998 : 31 à 35), les « freins » au « changement des pratiques

pédagogiques » que constitue le « système d’évaluation traditionnel » (idem : 74 à 86), les

« paradoxes de la communication en classe » (idem : 147 à 165). Mais il apparaît important de

contextualiser la perception intuitive d’arbitraire qui en résulte pour ne pas exagérer sa portée.

Page 186: UN REFERENTIEL, POUR QUOI FAIRE

186

Cette aperception, cet angle de vue qui privilégie le « verre à moitié plein », n’est-elle pas

induite par l’objet des sciences de l’éducation très particulier : « l’enseignement est une action

partiellement finalisée. » (P. Perrenoud ; 1998 : 90). N’est-ce pas alors cette particularité qui

induit l’idéalisation des modélisations proposées, du moins quand elles sont prescriptives ?

« Les modèles prescriptifs ont souvent tendance à idéaliser les acteurs, à leur prêter un fonctionnement optimal, une parfaite maîtrise de leurs pensées et de leurs actions, une rationalité de chaque instant, mise en priorité au service de la régulation » (P. Perrenoud ; 1998 : 92).

Le sociologue a bien su mettre en perspective les limites de ce type de modélisation, mais il

part aussi de ceux-ci pour observer et décrire les pratiques des professionnels, à partir de leur

« écart à un modèle idéal » : « à condition de se servir du modèle comme d’un instrument

heuristique, cette approche peut être féconde » (1998 : 92). Cette méthode comparative à un

idéal « rationnel » a largement montré sa pertinence en sociologie, pour découvrir certaines

raisons latentes à l’origine des pratiques sociales. Mais, dans le cas présent, elle induit aussi

un effet pervers qu’on a souligné : amplifier l’aperception d’arbitraire. Effectivement, l’idéal

républicain voudrait que les notes soient identiques avec des correcteurs différents. Dans

l’idéal, ce serait parfait, en réalité, ce n’est pas possible, cela relève de l’utopie. Cet écart a

induit de nombreux travaux de la docimologie, et depuis trois décennies de la

microsociologie, qui sont d’une grande richesse. Ils ont mis à jour de nombreux phénomènes

qui interviennent dans les processus d’évaluation. On a ainsi observé le « verre à moitié

plein » de la connaissance sur ces mécanismes, mais sans réduire pour autant ces différentiels

de notation, difficiles à contrôler. Ces connaissances permettent de mieux cerner la

complexité des phénomènes et de préciser notre aperception des enjeux sociaux lors de ces

situations, ce qui est précieux pour des professionnels consciencieux, du moins désireux de

faire évoluer leurs pratiques. Mais faut-il alors considérer que cet arbitraire est un « mal

inévitable » et que les évaluations, telles du moins qu’elles sont pratiquées dans le système

traditionnel, n’ont aucun sens autre que le crédit que les participants apportent à la situation ?

Abordons cette question sous un autre angle, à partir d’une autre méthode, celle des

variations, proposée par la phénoménologie : imaginons que l’évaluation traditionnelle

n’existe pas : qu’est ce que cela modifierait ? Quelles seraient les fonctions qui ne seraient

plus remplies ? On n’est plus alors dans l’observation, à partir d’un idéal, mais dans la

formulation d’hypothèse fonctionnelle, à partir du vide artificiellement créé par ces situations

factices. Le « verre à moitié vide » est ainsi le miroir du « verre à moitié plein ». Cet exercice

peut paraître artificiel, mais il permet aussi d’apercevoir certaines raisons qui conduisent les

acteurs à maintenir ce système, ou à lui accorder du crédit malgré ses caractères arbitraires.

Page 187: UN REFERENTIEL, POUR QUOI FAIRE

187

Par exemple, une des raisons évoquée par tous les auteurs (les sociologues P. Perrenoud et P.

Merle, mais aussi les didacticiens comme Y. Chevallard ou G. Brousseau), c’est la gestion de

la dynamique de la classe, et plus globalement du contrat didactique entre les élèves et

l’enseignant. L’école n’est pas seulement un lieu où la jeunesse apprend à maîtriser des

compétences, c’est aussi un lieu où elle apprend à vivre avec ses pairs, à fournir un effort, à

communiquer d’une certaine façon d’après les codes implicites d’une culture, etc. Cet

apprentissage du « métier d’élève » (P. Perrenoud ; 1984), ce « curriculum caché », ne font-ils

pas aussi partie des missions de l’éducation des jeunes ? Et, dans ce cas, n’est-il pas logique

que les acteurs jugent aussi par rapport à ces critères implicites :

« L’analyse du travail scolaire suggère que beaucoup de facettes de l’excellence scolaire ne reposent pas sur des apprentissages intellectuellement très exigeants, mais plutôt sur des apprentissages méthodiques, astreignants, « scolaires » avec ce que cela implique de conformisme, de persévérance, de résistance à l’ennui. Pour apprendre ce que l’enseignant exige, il n’est pas, dans l’enseignement primaire du moins, nécessaire d’avoir des « aptitudes » hors du commun. Il suffit souvent d’être travailleur, appliqué, soucieux de bien faire » (P. Perrenoud ; 1998 : 51).

Les recherches historiques d’E. Durkheim (1938) ou de C. Lelièvre (1990) nous renseignent

assez bien sur les motivations qui ont conduit à la création de nos systèmes d’enseignement ;

on pourrait évoquer ici les joutes dialectiques des premières universités, le rigorisme des

collèges jésuites, le monolithisme des lycées napoléoniens, etc. : les modes d’enseignement

ont toujours eu des objectifs de socialisation, plus ou moins explicitement formulés par leurs

innovateurs, qui se sont ensuite institués, sont entrés dans les mœurs et dans les routines.

Nous nous apercevons rapidement que l’enseignement n’a pas eu, historiquement du moins,

pour seul objectif l’acquisition des compétences fondamentales de nos sociétés modernes

(fussent-elles les plus élémentaires comme lire, écrire, calculer). Il a eu aussi pour mission la

diffusion de normes et de valeurs jugées fondamentales par la morale – ou, de nos jours, pour

la cohésion sociale. La vie scolaire, c’est aussi l’adaptation à des habitus / des modes de

communication, intégrés depuis l’enfance à force d’habitudes… scolaires. Il n’est donc pas

surprenant, ainsi que l’ont mis en valeur les travaux de P. Perrenoud (1984 et 1998 : 48, 49),

que ces modes de comportements sociaux soient aussi sujets à évaluation de la part des

professeurs, d’autant qu’ils sont fondamentaux dans la gestion didactique de la classe.

« Chaque évaluation formelle ou informelle, portant sur les acquisitions ou le comportement, indique quelles sont les attentes de l’enseignant et du système scolaire : ponctualité, application, concentration, précision, ordre, organisation, participation, honnêteté, humour, loyauté, enthousiasme, courtoisie, bonne humeur s’ajoutent aux savoirs et savoir-faire proprement scolaires » (P. Perrenoud (1998 : 158).

Page 188: UN REFERENTIEL, POUR QUOI FAIRE

188

A côté de l’élève brillant (valorisation de la compétence), les enseignants récompensent aussi

l’élève travailleur (valorisation de l’habitus ou du comportement social) :

« Chaque réussite recouvre un mélange spécifique de divers ingrédients. Les stéréotypes qui circulent dans le corps enseignant en distinguent au moins deux : l’élève brillant, qui réussit sans rien faire et peut même se permettre une certaine dose de négligence ou d’indiscipline ; et l’élève scolaire ou travailleur, qui « compense » son manque de brillant par des efforts acharnés. Ces stéréotypes (Marc, 1985, Weiss, 1984) recouvrent sans doute une partie de la réalité. Ils masquent la diversité des ingrédients et la complexité de leurs combinaisons » (P. Perrenoud (1998 : 52).

Mais surtout, les recherches de cet auteur ont appréhendé les modes et les contraintes du

fonctionnement quotidien qui maintiennent ces systèmes d’évaluation et reproduisent, de ce

fait, les habitus scolaires. Certes des critères tout à fait différents peuvent être adoptés en

termes d’évaluation : par exemple, entre des correcteurs intransigeants sur la propreté et

d’autres plus souples, ou entre ceux qui attachent de l’importance à l’orthographe et les plus

tolérants, etc. Cependant, ce système et ses contraintes organiques (notation régulière,

découpage horaire, programme à réaliser, etc.) conduisent la plupart des professeurs à adopter

des modes d’évaluation pour gérer de façon pragmatique le groupe-classe et le contrat

didactique. Certains critères, de type comportementaux, sont donc produits par les conditions

de l’exercice didactique en classe : un travail régulier, une certaine ponctualité, le respect des

consignes de travail, un mode de communication respectueux vis-à-vis des enseignants, etc.

Les seuils de tolérance et les exigences sont différents en fonction de la personnalité des

professeurs et de ses convictions, du contexte, des élèves, etc. Mais n’y a-t-il pas, pour autant,

un ensemble de critères implicites communs, induits par la situation didactique ?

C’est pour étudier ces critères – en tant que processus cognitifs mis en œuvre par les

acteurs en fonction des situations et des interactions - et pour systématiser leur observation,

que ce concept a été défini de façon plus objective (chapitre 7). On fait l’hypothèse, à l’instar

de P. Perrenoud, que les « croyances » dans la légitimité de l’évaluation sont des

représentations sociales. Elles se sont construites à travers les âges et ont été instituées par les

usages. Mais elles reposent aussi sur certains fondements objectifs, intrinsèques à la situation

didactique et aux modes de communication de l’institution scolaire, qui en font des

« représentations sociales » acceptées par la majorité et inductrices de comportements sociaux

« adaptés ». L’école et la formation professionnelle n’auraient-elles pas alors, pour objectif

implicite, de communiquer, à travers l’évaluation, les représentations sociales dominantes ?

Page 189: UN REFERENTIEL, POUR QUOI FAIRE

189

Pour approfondir cette hypothèse et la confronter à des observations empiriques, il

semble incontournable maintenant de préciser les concepts d’ « habitus », de « compétence »

et de « représentation sociale » évoqués précédemment, autant pour analyser les

problématiques qui ont conduit à leur émergence, que pour appréhender les objets signifiés

par les concepts à partir des modes d’observation proposés par les sciences sociales.

2) Une approche des procès d’évaluation à partir des concepts sociologiques :

Les théories de P. Bourdieu ont interrogé directement les processus d’évaluation

scolaire, analysés dans leur fonction de reproduction des habitus des classes dominantes

(1970, 1985). Le concept d’ « habitus » offre ainsi une vision originale sur ce qui est mis en

jeu au cours des évaluations en les situant dans leur contexte social, par rapport à certains

enjeux institutionnels. Mais il ne permet pas toujours de bien cerner la façon dont se

structurent ces « forces d’habitudes » ni la façon dont elles sont évaluées à partir du discours

des acteurs, ou de ces façons de faire. Le concept de « représentation sociale », dans son

acception anglo-saxonne (sociologie interactionniste), complète l’analyse des processus de

communication sollicités au cours de ces pratiques sociales évaluatives qui sont entrées dans

nos mœurs. Le concept d’ « ethnométhode » l’enrichit de façon avantageuse en insistant sur

l’aspect structuré de ces interactions, et de ce fait sur la dimension culturelle et structurante de

ces représentations. La conception psychosociologique-européenne de la « représentation

sociale » (S. Moscovici, W. Doise) apporte une dimension complémentaire en mettant en

exergue la façon dont sont communiquées (et sélectionnées inconsciemment) les conceptions

qui accompagnent ces phénomènes d’interaction sociale. Cependant l’utilisation d’un même

terme (signifiant) pour deux concepts bien différents pose de réels problèmes

méthodologiques : la signification ne fait pas référence aux mêmes phénomènes, les premiers

étant d’ordre interactionnel, les seconds d’ordre langagier. On analysera donc, tour à tour, ces

concepts, en centrant l’étude sur les modalités d’appréciation mises en œuvre par les acteurs

dans les situations (l’évaluation en étant une parmi d’autres), et sur les enjeux sociaux sous-

jacents à celles-ci. Cette propédeutique nous conduira vers un cadre d’analyse pour analyser

les enjeux sociaux qui se fédèrent autour des « Référentiels de compétences », de plus en plus

à la mode de nos jours, et du concept de « compétence », abordé au paragraphe suivant.

Page 190: UN REFERENTIEL, POUR QUOI FAIRE

190

2-1) Le concept « d’habitus » :

Le concept d’habitus, développé par P. Bourdieu, a son origine dans les travaux d’E.

Panofsky sur la scolastique et l’art gothique :

« Pendant la période qui va de 1130-1140 environ à 1270 environ, on peut observer, me semble-t-il, une connexion entre l’art gothique et la scolastique qui est plus concrète qu’un simple « parallélisme » et plus générale que ces « influences » individuelles (et aussi très importantes) que les conseillers érudits exercent sur les peintres, les sculpteurs ou les architectes. Par opposition à un simple parallélisme, cette connexion est une authentique relation de cause à effet ; par opposition à une influence individuelle, cette relation de cause à effet s’instaure par diffusion plutôt que par contact direct. Elle s’instaure en effet par la diffusion de ce que l’on peut nommer, faute d’un meilleur mot une habitude mentale (...). S’il est souvent difficile, sinon impossible, d’isoler une force formatrice d’habitudes entre plusieurs autres et d’imaginer les canaux de transmission, la période qui va de 1130-1140 environ jusqu’à 1270 environ et la zone de « cent cinquante kilomètres autour de Paris » constitue une exception. Dans cette aire restreinte, la scolastique possédait un monopole de l’éducation » (E. Panofsky cité par P. Bourdieu, J.C. Chamboredon, J.C. Passeron ; 1968 ; 253, 254).

Pour P. Bourdieu, l’habitus est entendu

« comme un système de dispositions durables et transposables qui, intégrant toutes les expériences passées, fonctionne à chaque moment comme une matrice de perceptions, d’appréciations et d’actions, et rend possible l’accomplissement de tâches infiniment différenciées, grâce au transfert analogique de schèmes permettant de résoudre les problèmes de même forme et grâce aux corrections incessantes des résultats obtenus » (1972/2000 : 261).

Mais, pour bien cerner toutes ses dimensions, il convient de le replacer dans la démarche

globale du sociologue, qui allie une approche ethnographique, en particulier lors de ses

recherches en Algérie (1963), et une approche plus traditionnelle avec enquêtes et entretiens

(1979). Il fait ainsi émerger, de la masse des données, certains phénomènes sociaux, de

l’ordre de la « conscience » : par exemple, le lien entre l’appréhension du chômage - très

présente chez les ruraux Kabyles et quasi inexistante chez les paysans du sud de l’Algérie – et

les schèmes d’identification culturelle (rapports fréquents avec les milieux européens), ainsi

que la façon de penser la production et la subsistance. L’auteur analyse ensuite tant

l’influence de ces modes de vie que les enjeux de « reconnaissance sociale » qui vont

conduire un groupe social, pour se constituer et se démarquer socialement, à adopter certains

modes de communication symbolique (P. Bourdieu ; 1979).

Page 191: UN REFERENTIEL, POUR QUOI FAIRE

191

Les luttes de représentation au sein des différents corps sociaux, pour affirmer certains

symboles au détriment d’autres, ont donc pour finalité de défendre les principales valeurs qui

se constitueront en objets de référence, dans la communication au sein du groupe social, mais

aussi dans la communication de ce groupe à l’extérieur. Derrière ces luttes pour le « contrôle

du marché de la communication » se jouent donc des luttes d’influence, tant à l’intérieur des

classes sociales qu’entre celles-ci.

« Mais c’est dans la constitution des groupes que se voit le mieux l’efficacité des représentations, et en particulier des mots, des mots d’ordre, des théories qui contribuent à faire l’ordre social en imposant les principes de di-vision, et plus largement le pouvoir symbolique de tout le théâtre politique qui réalise et officialise les visions du monde et les divisions politiques (...) Le passage de l’état de groupe pratique à l’état de groupe institué (classe, nation, etc.) suppose la construction du principe de classement capable de produire l’ensemble des propriétés distinctives, qui sont caractéristiques de l’ensemble des membres de ce groupe » (P. Bourdieu ; 1982).

L’institutionnalisation du symbolique s’opère ainsi, à travers la façon dont sont vécus les

modes de production, mais aussi les luttes internes et externes pour la reconnaissance sociale

d’une profession au sein de la société. C’est bien dans ce contexte de recherche qu’on situera

l’habitus en évitant de lui affubler une conception déterministe, de type mécaniste, que la

sociologie de P. Bourdieu a remis en question par ses propositions.

« Que les schèmes puissent aller de la pratique à la pratique sans passer par l’explication et par la conscience, cela ne signifie pas que l’acquisition de l’habitus se réduise à un apprentissage mécanique par essais et erreurs » (P. Bourdieu ; 1972/2000 : 286).

L’habitus se présente ainsi comme le « produit de l’application systématique d’un petit

nombre de principes pratiquement cohérent » (idem) aux différentes situations vécues. Ces

schémas-représentations, quand ils sont mis en rapport avec la structure des situations

objectives, engendrent une infinité d’adaptations pratiques sans que celles-ci soient portées à

la conscience (Idem : 262, 263). Il y a donc, dans la conception de P. Bourdieu, une articulation

entre d’une part les habitus, d’autre part les rapports de force qui s’expriment à travers les

situations objectives, structurent celles-ci et induisent les habitus. La notion de « champ »

traduit cette dimension objective prise en compte par les acteurs pour ajuster leurs stratégies.

Le champ est ainsi défini comme

« champ de lutte, champ d’action socialement construit où les agents dotés de ressources différentes s’affrontent pour conserver ou transformer les rapports de force en vigueur. Les agents y engagent des actions qui dépendent, dans leurs fins, leurs moyens et leur efficacité, de leur position dans le champ de forces » (2001 : 72).

Page 192: UN REFERENTIEL, POUR QUOI FAIRE

192

Etudier les habitus, ce n’est donc pas seulement étudier les schèmes et leur formation, à

l’instar de la psychologie génétique, mais analyser les modes opératoires de ces schèmes (le

modus operandi) en les observant dans leur contexte social, celui de leur constitution et celui

de leur efficience74. P. Bourdieu décortique, en particulier, à partir de son approche

ethnologique, les rapports entre le capital symbolique, qui se construit à travers les différentes

formes culturelles d’échanges de service et de communications ritualisées (fêtes, cérémonies,

échange de dons, de visites ou de politesse), et les modes de production d’une société - en

l’occurrence kabyle. Les échanges symboliques qui se structurent ainsi deviennent institution,

dont la coutume est la forme la plus traditionnelle (la plus ancienne et la plus conservatrice

des traditions) :

« En tant qu’actes de jurisprudence conservés et consignés pour leur valeur exemplaire, donc valables par anticipation, les coutumes apparaissent comme un des produits les plus exemplaire de l’habitus où se laisse apercevoir le petit lot de schèmes permettant d’engendrer une infinité de pratiques adaptées à des situations toujours renouvelées, sans jamais se constituer en principes explicites » (P. Bourdieu ; 1972/2000 : 301).

Le concept d’habitus a pu ainsi induire différentes études sur les modes de communication et

les rituels des différents corps professionnels de notre société, dont les modalités opératoires

se sont instituées progressivement au fur et à mesure de leur formation historique, en fonction

des rapports de production qui leur sont spécifiques. P. Bourdieu a ainsi adapté son concept

aux différents groupes sociaux, que ce soit les étudiants (1985), les promotions des grandes

écoles, ou encore les milieux de la recherche universitaire (2001). A l’étude du capital

symbolique, de tradition ethnologique, se sont donc ajoutées celles du capital culturel (1979 ;

1985), puis du capital scientifique (2001), etc. Le sociologue analyse ainsi l’évaluation en

tant que moment important pour la constitution et reconnaissance du corps

socioprofessionnel :

« Le processus d’autonomisation est lié à l’élévation du droit d’entrée explicite ou implicite. Le droit d’entrée, c’est la compétence, le capital scientifique incorporé (par exemple (…) la connaissance des mathématiques qui est de plus en plus exigée) (…) Le droit d’entrée, c’est donc la compétence, mais une compétence comme ressource théorico-expérimentale, faite corps, devenu sens du jeu ou habitus scientifique comme maitrise de pratiques de plusieurs siècles de recherches et d’acquis de la recherche – sous la forme, par exemple, d’un sens des problèmes importants, intéressants, ou d’un arsenal de schèmes théoriques et expérimentaux qui peuvent s’appliquer, par transfert, à des domaines nouveaux » (2001 : 101, 102).

74 On peut apercevoir ici en quoi psychologie génétique et sociologie de l’habitus peuvent s’avérer complémentaires. Là où l’une étudie les structures de la pensée qui rendent possible la construction des schèmes de l’intelligence, l’autre s’attache surtout à observer leur expression culturelle, et expliquer les raisons et les modalités sociales qui conduisent à l’institutionnalisation des relations entre humains.

Page 193: UN REFERENTIEL, POUR QUOI FAIRE

193

L’évaluation apparaît ainsi comme un moyen de reproduire et de préserver les habitus d’un

corps professionnel. On peut alors faire l’hypothèse que les modalités opératoires des

évaluations sont adaptées à ces habitus et aux enjeux fondamentaux du champ. Celle-ci sera

approfondie, en particulier, lors de la seconde expérience au sein d’un réseau professionnel.

Cette conception de l’habitus permet ainsi de repositionner l’évaluation dans son contexte

social et d’en déduire, au moins à titre d’hypothèse, la fonction qu’elle remplit pour les divers

groupes sociaux : on discerne ainsi la légitimité sociale de ces modes de sélection, du moins

leur légitimation par les groupes concernés qui les maintiennent ainsi en vigueur. On peut

donc généraliser cette conception pour étudier tous les corps socioprofessionnels et analyser

de la sorte les rapports entre les modes de production et les modes de sélection, ainsi que les

formes d’évaluation formative et les métacognitions diverses qui visent à faire rentrer les

novices dans le « moule socioprofessionnel ». Si l’on obtient ainsi une plus grande visibilité

de la façon dont la société se reproduit sociologiquement, c'est-à-dire la fonction de

l’évaluation pour reproduire les formes de relations sociales instituées dans les groupes

sociaux, en revanche la « sociologie de l’habitus » (appelée aussi « sociologie de la

reproduction » (1970)) a opté pour un parti pris difficile à suivre jusqu’au bout75, à partir du

moment où elle considère que le choix de ces modes de reproduction est induit par l’arbitraire

des rapports de force au sein des champs sociaux :

« La sélection de significations qui définit objectivement la culture d’un groupe ou d’une classe comme système symbolique est arbitraire en tant que la structure et les fonctions de cette culture ne peuvent être déduites d’aucun principe universel, physique, biologique ou spirituel, n’étant uni par aucune espèce de relations interne à la « nature des choses » ou à une nature humaine » (P. Bourdieu, J.C. Passeron ; 1970 : 22).

Cette notion d’arbitraire est dérivée de celle de « violence symbolique », postulat

hypothétique posé en début d’ouvrage pour interpréter certaines « réalités objectives », ou

phénomènes observés (Idem : 18). De cet « axiome », sont dérivés aussi bien la question du

« pouvoir arbitraire » et de l’« arbitraire culturel » que le caractère de « violence symbolique »

de l’action pédagogique :

« Toute action pédagogique (AP) est objectivement une violence symbolique, en tant qu’imposition, par un pouvoir arbitraire, d’un arbitraire culturel » (Idem : 19).

75 On a conscience que la position, ici défendue, est largement induite par le positionnement de cette recherche dans le champ des sciences de l’éducation, où il semble difficile de concevoir « l’action pédagogique » seulement comme un produit de « l’arbitraire culturel que les rapports de force entre les groupes et classes constitutifs de cette formation sociale mettent en position dominante dans le système des arbitraires culturels » (P. Bourdieu, J.C. Passeron ; 1970 : 23).

Page 194: UN REFERENTIEL, POUR QUOI FAIRE

194

Pour développer leur argumentaire, les auteurs s’appuient sur les diverses formes de

l’éducation, y compris familiale. En particulier, ils soulignent la dépendance biologique à

l’origine de cette violence symbolique :

« S’il n’est pas question d’ignorer la dimension proprement biologique de la relation d’imposition pédagogique, i.e. la dépendance biologiquement conditionnée qui est corrélative de l’impuissance infantile, il reste que l’on ne peut faire abstraction des déterminations sociales qui spécifient dans tous les cas la relation entre les adultes et les enfants » (Idem : 21).

Mais c’est là que le bât blesse, que le raccourci (ou la réduction) disciplinaire apparaît dans

toute son évidence. Il existe une part de « violence symbolique », au sens défini par P.

Bourdieu et J.C. Passeron, dans toute éducation : la sanction fait partie de l’éducation et, pour

pouvoir l’appliquer, il faut être investi du pouvoir le faire (« AuP = autorité pédagogique »).

Ainsi les auteurs s’appuient sur les travaux ethnologiques pour mettre en valeur les types

d’AP (et d’AuP) différents dans les sociétés matrilinéaire et patrilinéaire. Mais l’AP est loin

de se réduire à cette seule dimension de « violence symbolique » : d’autres facteurs

interviennent au travers de l’action éducative et dans les phénomènes de sublimation qui sont

à l’origine de l’idéalisation de celle-ci - dont les sociologiques ne retiennent que l’aspect

« dissimulation » d’un acte d’ « imposition » et d’ « inculcation ». En particulier, D.W.

Winnicott (1971) a mis en valeur, à partir de l’analyse de cette dépendance biologique dans la

petite enfance, une autre dynamique qui conduit à la formation de nos repères culturels : la

frustration et le « manque » à l’origine de la motivation et de l’ « espace transitionnel ».

D’autres facteurs interviennent encore dans l’acte éducatif, dont l’apprentissage du langage

n’est pas le moindre : s’il existe une part d’arbitraire dans le choix des signifiants langagiers

(cf. ci-dessous), cela ne signifie pas pour autant que le langage s’acquiert par « violence

symbolique ». Les sociologues négligent ainsi des dynamiques identitaires qui n’ont rien à

voir avec les phénomènes de « sanction » et de « pouvoir ». J.S. Bruner (1983) a, de son côté,

insisté sur l’importance du jeu dans l’apprentissage des premiers actes langagiers (page 89).

La psychologie génétique a aussi mis en lumière les relations entre la formation des schèmes

de l’intelligence et les jeux de l’enfance. Certes on peut légitimement faire remarquer qu’il

existe déjà une forme sublimatoire dans les jeux de l’enfance et que certaines formes de ceux-

ci, en tant que sublimation de la lutte (agôn), sont un prolongement de la « violence

symbolique » et participent à son assise - voire même à sa légitimation sociale et à sa

« dissimulation ». Il n’en demeure pas moins que les formats culturels qui se communiquent

de la sorte n’ont rien à voir avec une « imposition » et une « inculcation », ni de ce fait avec

un « arbitraire ». Par ailleurs, R. Caillois (1967 : 155-174), dans son étude sur les « jeux des

adultes » expose, à côté des jeux de compétition (agôn), d’autres moteurs / mobiles de jeux.

Page 195: UN REFERENTIEL, POUR QUOI FAIRE

195

Son analyse fait ressortir que l’agôn n’est pas le seul facteur de socialisation dans l’enfance :

les jeux de chance (aléa), sont « fondés, à l’exact opposé de l’agôn, sur une décision qui ne

dépend pas du joueur » ; les jeux de simulacre (Mimicry) et les jeux de vertige (Ilinx)

introduisent une autre dynamique que celle du conflit. Là aussi, on voit à quel point l’angle

d’attaque de P. Bourdieu et J.C. Passeron peut être réducteur. Il ne s’agit pas pour autant de

rejeter les théories de ces auteurs sur la « reproduction », mais d’en montrer les limites. Il ne

fait pas de doute que la « violence symbolique » a été érigée en principe pédagogique par

l’enseignement jésuite, et que l’autorité pédagogique (AuP) s’est instituée progressivement au

XIX ème siècle (avec la création de l’université, les lycées Napoléonien, les réformes de Guizot

et l’enseignement obligatoire de la IIIème république), confortant sur ce point les thèses

présentées par les sociologues (1970 : 180-182) ; mais on ne saurait généraliser ces principes

d’analyse à l’ensemble de l’action pédagogique, dont le schéma proposé ici est, pour le

moins, réducteur76. L’agrégativité systémique de nombreux phénomènes (cf. 1970 : 16, 17),

qui fait la richesse de cette démarche, n’est-elle pas aussi à l’origine d’une certaine confusion

entre concepts ? En particulier entre « violence symbolique », « arbitraire », « inculcation » et

« habitus ». Celle-ci masque la complexité de certains phénomènes, en particulier ceux qui

sont ici objets de recherche : la fonction et les modalités des processus d’évaluation. Que

l’école privilégie certains habitus, en rapport avec les systèmes de production et de

communication de notre société, cette proposition n’est guère contestable - du moins est-elle

suffisamment compréhensible par tous les enseignants. Mais que l’AP soit un système

d’imposition des habitus, définis comme « produit(s) de l’intériorisation des principes d’un

arbitraire culturel capable de se perpétuer après la cessation de l’AP » (1970 : 47) est, pour la

moins, discutable - du moins si l’on entend le « travail pédagogique (TP) comme travail

d’inculcation qui doit durer assez longtemps pour produire une formation durable » (idem).

Certes cette interprétation est pertinente pour de nombreux habitus qui relèvent du curriculum

caché : se plier à la discipline horaire, respecter l’autorité institutionnelle, s’organiser en

groupe, etc. Cela est bien moins vrai pour certains habitus, qui sont pourtant souvent

privilégiés lors des évaluations, dans la mesure où les précédents sont intériorisés par

l’ensemble des participants : la créativité, l’esprit critique, le sens des responsabilités, etc.,

habitus qui sont aussi importants dans les circuits de production de nos sociétés modernes.

76 Cette conception réductrice des sociologues, qui ne perçoivent, à travers l’action pédagogique, que la « violence symbolique » de l’institution, n’est-elle pas aussi à l’origine du conflit qui a opposé les psychosociologues et les pédagogues institutionnalistes (cf. pages 123 à 131) ?

Page 196: UN REFERENTIEL, POUR QUOI FAIRE

196

Ainsi, que l’évaluation soit une « violence symbolique » (au sens de sanctions avec son

système de reconnaissance sociale et de gratifications), cela ne paraît guère contestable – y

compris dans ses conceptions formatives quand celles-ci ne sont qu’une propédeutique pour

développer la seconde catégorie d’habitus évoqués précédemment. En revanche, cela ne veut

pas dire que ce système soit « arbitraire », ni même ses modalités de sélection : il est lié, à un

système de production, qui a ses propres contraintes, ses modes de fonctionnement, sa

logique, ses significations. L’homologie avec la linguistique77 permet de cerner l’enjeu

problématique derrière cette notion d’ « arbitraire » : F. de Saussure (1916) a mis en valeur

que le choix des signifiants langagiers est « arbitraire ». La structure langagière fonctionne,

quelque soit la forme phonique de ceux-ci. L’auteur genevois a donc utilisé ce terme pour

qualifier la sélection des mots (signifiants) qui nous permettent de nous exprimer sur les

choses de la vie. On pourrait dire aussi que ceux-ci sont « contingents ». Mais la structure

syntaxique, en revanche, est déterminée par certaines contraintes de la communication, même

si la forme peut varier d’une langue à une autre. On rejoint ici le concept de « grammaire

universelle » de N. Chomsky - non pas fondé sur l’innéisme comme chez cet auteur, mais

plutôt sur les contraintes de la communication : par exemple les déictiques existent dans

toutes les langues (E. Benveniste ; 1966 : 251), la structure sujet / prédicat est universelle, etc.

On peut donc transposer cette logique à notre problématique. Certainement y-a-t-il eu une

certaine contingence contextuelle dans la façon dont se sont mis en place nos diplômes,

certaines filières d’enseignement ou certains curricula : les relations entre l’éducation

spécialisée et l’animation, en France, en sont un exemple. Mais cela signifie-t-il, pour autant,

que les modalités d’évaluation et de l’action pédagogique soient arbitraires ? On prendra donc

le parti du postulat contraire : l’ensemble de la structure est solidaire, au même titre que l’est

la « grammaire d’une langue », sans quoi elle n’aurait pas de signification pour les acteurs

sociaux qui la partagent culturellement. Cette signification collective implicite, c’est le critère

(objet de la présente recherche). Celui-ci ne se résume donc pas à de simples valeurs

abstraites, ainsi que le propose la philosophie rationaliste ; il apparaît plutôt comme le reflet

de l’ensemble des contraintes de la communication qui conduisent les acteurs sociaux à

apprécier les productions d’autres acteurs de façon congruente, du moins convergente.

77 L’analogie entre les phénomènes linguistiques et sociologiques ne serait pas pertinente dans la mesure où les structures des phénomènes sont différentes. En revanche, l’homologie structurelle a du sens puisqu’il s’agit de signifier une notion (« arbitraire »), utilisée en tant que catégorie pour qualifier les phénomènes : le critère « arbitraire » qualifie des relations logiques entre phénomènes, il dépend donc des formes de pensée appliquées aux phénomènes et non de la structure de ces phénomènes. Sur ce point, l’homologie entre la démarche linguistique et la démarche sociologique est tout à fait possible puisqu’il s’agit des mêmes formes de pensée qui sont appliquées à des phénomènes différents.

Page 197: UN REFERENTIEL, POUR QUOI FAIRE

197

Par exemple les notions de « validité » et de « pertinence » d’une pratique, que celle-ci soit

scientifique ou socioprofessionnelle, font référence aux situations qui les induisent. Ainsi, P.

Bourdieu (2001 : 96) a mis en valeur la façon dont la sélection a favorisé l’autonomie du

groupe scientifique au sein de la société : la mathématisation de la recherche y a joué un rôle

fondamental. La sélection permet alors de reproduire les habitus théorico-expérimentaux qui

se sont formés à travers l’histoire. Ce constat érigé à partir d’une analyse réflexive de la

sociologie sur elle-même, fournit une hypothèse pour tous les corps sociaux : l’évaluation, qui

s’est généralisée au fur et à mesure de la division du travail, est un système d’autonomisation

des groupes sociaux, de reconnaissance et d’institutionnalisation des habitus propres à chaque

fonctionnement interne. Il n’y a pas lieu, dans ce cas, de parler d’ « arbitraire », pas plus du

moins que pour tout autre phénomène social, même s’il semble pertinent de reconnaître que

les habitus sont le produit de rapports de force historiques qui ont conduit à

l’institutionnalisation du corps. C’est par une analyse réflexive sur le sens de cette

institutionnalisation et sur ses raisons objectives (du moins objectivées par le discours des

acteurs) que se construit l’ « action pédagogique » (AP), qui est « réflexive » et non

« arbitraire ». Si, pour remplir sa mission, l’AP a besoin d’une AuP (« autorité pédagogique »

dont sont investis les enseignants ou éducateurs divers), elle n’existe pas essentiellement en

raison de cette dernière, mais plutôt en raison des espaces de réflexivité dans lesquels elle

s’est développée et propagée. L’AP est donc moins déterminée par l’imposition des classes

dominantes (on retrouve ici le mythe de la conspiration pourtant critiqué par P. Bourdieu lui-

même par ailleurs (1972/2000)) que par celui de l’institutionnalisation progressive de

l’habitus et de conceptions qui deviennent ainsi des formes de pensée dominantes dans notre

société. Les théories de la transposition didactique (G. Brousseau, Y. Chevallard) laissent

même présumer que l’autonomisation des milieux universitaires au XVIIème siècle, décrite ci-

dessus, et leur professionnalisation à partir de la révolution française - et au XXème siècle -,

ont constitué un cadre de référence pour la spécialisation des habitus dans les autres corps

professionnels. De fait, chaque groupe professionnel génère ses propres espaces de réflexivité.

Le besoin de ceux-ci ne s’est fait sentir qu’à partir du moment où la connaissance scientifique

s’est développée et qu’il est devenu important de la transférer vers les divers domaines

professionnels ou de la transposer dans divers espaces didactiques. Ce sont les besoins de la

production qui ont conditionné les modalités de ce transfert, et de la transposition didactique.

Il est alors logique, à l’instar de P. Bourdieu, de faire l’hypothèse que ces modes de transfert

et de transposition se sont adaptés aux modes de production de la société - par là-même aux

formes de communication qui sont induits par ces modalités et qui dominent dans la société.

Page 198: UN REFERENTIEL, POUR QUOI FAIRE

198

Ainsi les connaissances de la physique et de la chimie ont-elles été ajustées aux besoins et à

l’essor de l’industrie. L’histoire des luttes pour les filières d’enseignement à la fin du XIXème

et au cours du XXème siècle (C. Lelièvre ; 1990) en est un exemple édifiant. Les formes

d’enseignement, scolaires et supérieures, privilégient aujourd’hui la connaissance

encyclopédique et le raisonnement logique : les mathématiques y ont une place fondamentale.

L’action pédagogique s’est adaptée aux besoins du marché. Au même titre, les connaissances

de la psychologie et de la sociologie ne sont-elles pas au cœur du développement des

professions éducatives ? On peut donc élargir l’hypothèse précédente et envisager que la

diffusion de ces connaissances parmi les milieux éducatifs s’est ajustée aux modes de

communication de ces derniers. Réciproquement, les méthodes scientifiques ont influencé,

voire déterminé, la façon dont les corps professionnels appréhendent la réalité de leurs objets.

La « réflexivité » dont parle P. Bourdieu (2001) est le propre de toute réflexion analytique sur

sa pratique, « analyse de la pratique » qui s’est elle-même généralisée dans certains milieux

professionnels socioéducatifs. L’évaluation formative, ou formatrice, n’est-elle pas aussi une

de ces formes de pratique, qui illustrent l’importance prise par les thèses phénoménologiques

dans l’appréhension de la réalité sociale et humaine ? Pour poursuivre notre hypothèse, on

peut donc dire que, si les mathématiques et la logique ont transformé les pratiques dans le

domaine de l’industrie, l’approche phénoménologique et l’analyse de la pratique le font

progressivement, de nos jours, dans les domaines socioéducatifs. Cette hypothèse

(approfondie dans les expériences présentées plus loin - 2 et 3) met en valeur les interactions

qui s’opèrent entre les formes de l’AP (action pédagogique) et les modes de production

spécifiques des milieux professionnels. Déduite des thèses de P. Bourdieu, elle contredit

cependant cet auteur sur la question de l’ « arbitraire » de l’AP, et sur l’application

généralisée du concept de « violence symbolique » à l’ensemble des situations pédagogiques.

La sociologie de la « reproduction » est restée bien trop généraliste pour étudier les modes

opératoires de la sélection et de la formation : construction des curricula, formes du discours,

modalités des observations lors des situations, etc. C’est ici que l’ethnométhodologie, la

sociologie interactionniste et la psychologie sociale apportent leur contribution. Si la critique

de P. Bourdieu à l’encontre de ces courants de pensée - de « réduire la structure objective de

la relation entre les individus rassemblés à la structure conjoncturelle de leur interaction »

(1972/2000 : 276) - peut paraître pertinente, il n’en demeure pas moins que les approches

ethnographiques ou les différentes méthodes d’analyse des discours sont indispensables pour

fonder empiriquement la démonstration, et tirer les conclusions des observations du terrain.

Page 199: UN REFERENTIEL, POUR QUOI FAIRE

199

Le concept d’« habitus », lui-même, est ancré dans une démarche ethnologique. Et sa

généralisation, à partir d’observations macrosociologiques, pose quelques problèmes

méthodologiques. Si on observe, par exemple, le « capital symbolique », acquis dans les

échanges et rituels au sein d’une communauté agraire (1972/2000), est-il du même ordre que

le « capital culturel », adopté par un groupe social pour se démarquer socialement et valoriser

ses propres références au sein de la société (1979), ou que le « capital scientifique » (2001) ?

Certes P. Bourdieu et ses associés ont trouvé là une piste intéressante à creuser, mais

l’exploitation des observations sur un type de structure sociale traditionnelle pour en déduire

des interprétations sur le fonctionnement de nos sociétés contemporaines, est complexe, dans

la mesure où le passage des unes aux autres résulte d’un long processus historique. L’analyse

des différentes méthodes utilisées par l’auteur pour opérationnaliser son étude du concept

nous permet de mieux cerner les problématiques qui existent lors de la généralisation des

résultats. Trois modes sont complémentaires dans son approche méthodologique.

- Une étude ethnographique des modes, des positions et des interactions dans certaines

situations sociales pour analyser les fonctionnements implicites, et les lier avec les enjeux

de la situation (1972/2000)

- Des entretiens systématisés auprès d’un échantillon important de la population, sur des

choses de la vie courante (par exemple, la perception d’un objet d’art) pour étudier les

structures de pensée (1969, 1979)

- Des enquêtes quantitatives ou des données macrosociologiques qui offrent des

informations sur certaines variables significatives (au sens de la statistique) pour inférer le

fonctionnement global de certaines catégories de la population (par exemple, le choix en

matière de lectures, loisirs, consommations, aménagements, etc.) (1970, 1979, 1985).

En faisant appel à des entretiens d’acteurs pour interpréter les résultats des statistiques, le

sociologue médiatise son point de vue à partir des mobiles exprimés par eux (prend du recul)

et évite les projections arbitraires lors de l’interprétation ? Par ailleurs, en alternant

l’observation ethnographique et les résultats statistiques, il analyse plus finement les

processus microsociaux qui sont à l’origine des grandes tendances sociales qu’identifient les

données macrosociologiques. Enfin, l’analyse du discours des acteurs oriente l’observation

phénoménologique des situations (rôle de l’informateur en ethnographie), et réciproquement,

l’analyse des situations induit le sens que l’on va donner au discours de l’acteur78.

78 On reviendra dans la partie méthodologique sur cette dimension pragmatique de la signification.

Page 200: UN REFERENTIEL, POUR QUOI FAIRE

200

Il se construit ainsi une réflexivité permanente dans la progression de la démarche, induite

non pas par une réflexion du chercheur sur lui-même comme dans la philosophie

traditionnelle (en particulier dans la phénoménologie d’E. Husserl), mais par une réciprocité

des objets d’étude du sociologue les uns par rapport aux autres.

En abordant la question par les modes opératoires, on aperçoit ici les limites dans les

propositions de l’auteur. Les observations ethnographiques ne s’inscrivent pas toujours dans

les mêmes formes d’organisation sociale que les données macro-sociales (par exemple,

habitus symbolique et habitus culturel). Les entretiens ne concernent pas toujours les mêmes

phénomènes que ceux des données quantitatives. Les concepts en héritent ainsi une certaine

imprécision quant aux phénomènes observés. La construction théorique est une agrégation de

divers phénomènes, le plus souvent à partir des résultats des autres travaux sociologiques,

plutôt qu’une réciprocité dialectique des modes d’observation sur les mêmes phénomènes.

Dans ce cas, inévitablement, certains phénomènes sont privilégiés à d’autres. La cohésion

conceptuelle (ou cohérence) repose sur des présupposés implicites (ou aprioris idéologiques)

et non sur une construction progressive à partir de la réciprocité des observations sur des

phénomènes identiques. P. Bourdieu réintroduit ainsi, sous une forme masquée, une démarche

dialectique idéaliste (au sens où elle est définie par G.W.F. Hegel (1816/1954)) : l’Idée se

réifie à travers les différentes informations objectives collectées au cours de la recherche, et

elle est remise en question au fur et à mesure de la confrontation aux données empiriques,

d’où l’importance de la réflexivité. Cela ne nuit, ni à la cohérence des propositions qui

s’articulent autour des présupposés implicites, ni à l’intérêt scientifique des découvertes qui

sont conséquentes. Mais leur généralisation devient abusive, voire arbitraire, dans la mesure

où la position idéaliste à l’origine des travaux conduit à ne cerner qu’une partie de la

problématique, qu’une façon d’aborder un ensemble de phénomènes complexes, traités sous

un seul angle, par exemple celui de la « violence symbolique ». Certes, la pensée de P.

Bourdieu évite le piège du dogmatisme, mais au prix d’une somme de contradictions qui

rendent parfois difficile une vision précise de ce qui est en jeu. La notion de « capital » réunit

une foule de phénomènes complexes qu’il convient d’étudier progressivement, sans les

déduire trop hâtivement les uns des autres ? L’habitus englobe aussi une multitude de

phénomènes, qui vont de la formation des schèmes dans l’enfance jusqu’à leur reproduction à

travers les fonctionnements institutionnels et les modes de sélection sociale. Il ne fait pas de

doute que l’hypothèse est pertinente, mais elle demande à être étayée et précisée.

Page 201: UN REFERENTIEL, POUR QUOI FAIRE

201

Par conséquent on conservera cette triangulation de l’approche du sociologue, entre

observations ethnographiques, analyses des discours et enquêtes quantitatives, mais on

cherchera à recentrer l’étude sur certains types de phénomènes bien ciblés - en l’occurrence

autour des modalités d’évaluation et de sélection dans les milieux socioprofessionnels -, afin

de pouvoir articuler les conclusions de chaque mode d’observation et de déduire une

conception globale du fonctionnement organique à partir des hypothèses que les résultats de

certains travaux fournissent aux autres. Dans l’expérience N° 2, c’est l’immersion dans un

réseau de professionnels qui a permis de déterminer avec eux les modalités de l’analyse de

leurs propres discours, et c’est l’approche quantitative qui a permis de préciser les catégories

d’acteurs. Dans la N°3, l’analyse de discours est un moyen d’appréhender les représentations

sociales que les milieux socioprofessionnels affichent de leur métier, et de les comparer avec

les modalités de la sélection. L’objectif est de préciser progressivement la fonction des

processus d’évaluation dans les phénomènes de structuration et d’institutionnalisation de nos

sociétés modernes. La sociologie interactionniste et l’ethnométhodologie nous apportent, pour

ce faire, des concepts opératoires pour confronter les hypothèses aux observations de terrain.

2-2) Le concept de « représentation sociale » et la notion de « rôle social » :

a) Le concept de « représentation » :

Il ne s’agit pas ici d’amorcer une réflexion philosophique sur le concept de

« représentation », fort complexe. On en posera seulement quelques repères, à travers

l’histoire de la pensée moderne, afin d’identifier certaines ambiguïtés autour de cette notion,

de préciser les diverses acceptions du concept de « représentation sociale », puis de discerner

l’intérêt de ce dernier pour analyser certains phénomènes qui sont en jeu dans les processus

d’évaluation. Pour E. Kant, ce concept est générique ; il permet d’englober les phénomènes de

pensée autres que ceux de l’entendement, et de différencier ainsi la « représentation », d’une

part, de l’« idée », dont il emprunte la définition à Aristote (= « archétypes des choses elles

mêmes »), d’autre part, de la « catégorie » (= « clef pour des expériences possibles ») :

« Le terme générique est celui de représentation en général, dont la représentation accompagnée de conscience (perceptio) est une espèce. Une perception qui se rapporte uniquement au sujet, comme modification de son état, est sensation, une perception objective est connaissance (cognitio). Cette dernière est ou intuition ou concept. L’intuition se rapporte immédiatement à l’objet et est singulière ; le concept s’y rapporte médiatement, au moyen d’un signe qui peut être commun à plusieurs choses » (E. Kant ; 1781 / 1974 : 144).

Page 202: UN REFERENTIEL, POUR QUOI FAIRE

202

Cette conception générique est remise en question par E. Husserl, du moins est-elle précisée

dans une acception plus dynamique. Les représentations sont le produit de vécus

intentionnels, synthèses à la fois de sensations (choses sensibles, présentifications) et de

sentiments (ou diverses autres « positions » qui induisent ces synthèses). La représentation se

différencie ainsi de la simple perception, elle intègre l’intuition et la réflexion, processus par

lesquels se construisent les représentations, du moins en tant que « vécus intentionnels » « qui

constituent le soubassement nécessaires des autres vécus intentionnels » (E. Husserl ; 1913 /

1950 : 353 et 392). L’approche de cet auteur est complexe à cerner et on ne prétend pas ici

fournir une interprétation exhaustive de sa pensée sur cette question. L’intérêt de cette

conception phénoménologique a surtout été d’offrir des outils méthodologiques pour

appréhender l’observation des processus à l’origine de nos représentations - par exemple, à

partir d’une réflexion intériorisée sur cette construction intuitive des images mentales (rêves,

fantasmes, etc.) à l’instar de la psychanalyse.

A la même époque, la sociologie s’intéresse aux conséquences sociales produites par

ces processus inconscients :

« Une représentation n’est pas, en effet, une simple image de la réalité, une ombre inerte projetée en nous par les choses ; mais c’est une force qui soulève autour d’elle tout un tourbillon de phénomènes organiques et psychiques » (E. Durkheim ; 1930/2007 : 64).

La sociologie d’E. Durkheim introduit ainsi une conception sociale de la représentation,

même si l’auteur n’emploie pas souvent ce concept, dans ces termes du moins, à travers ses

ouvrages. Il évoque la « conscience collective ou commune (…) ensemble des croyances et

des sentiments communs à la moyenne des membres d’une même société » (idem : 46). Il

aborde aussi la question de la « vie représentative des sociétés », en particulier de la religion

qui « absorbe primitivement toutes les fonctions représentatives avec les fonctions pratiques »

(idem : 270), ces « croyances et ces pratiques » qui « nous sont transmises toutes faites par les

générations antérieures » et « investies d’une particulière autorité que l’éducation nous a

appris à reconnaître et à respecter » (E. Durkheim ; 1937/1983 : 11). Mais le sociologue

utilise plus fréquemment le concept d’ « habitudes collectives » ou « héréditaires »

(1937/1983 : 45, 87, 91), de « communauté des habitudes » (1930/2007 : 262) ou encore d’un

« système d’idées, de sentiments et d’habitudes qui expriment en nous, non pas notre

personnalité, mais le groupe et les différents groupes dont nous faisons partie » (E.

Durkheim ; 1922/2009 : 51).

« Si toutes les habitudes collectives ne sont pas morales, toutes les pratiques morales sont des habitudes collectives. Par suite, quiconque est réfractaire à tout ce qui est habitude, risque aussi d’être réfractaire à la moralité » (E. Durkheim ; 1925/2005 : 61).

Page 203: UN REFERENTIEL, POUR QUOI FAIRE

203

Ces « forces d’habitude », quand elles se normalisent, deviennent coutumes, mœurs, règles

juridiques, dictons populaires, etc. Pour aborder l’étude de la morale (1925/2005 et

1924/2004), le sociologue rompt ainsi avec la tradition idéaliste de la philosophie, - c'est-à-

dire une définition de celle-ci à partir des idéaux et principes de la vie en société – pour

s’appuyer sur l’observation systématique de processus sociaux récurrents : les habitudes, les

règles, etc. A partir de l’analyse de ces phénomènes de normalisation, le sociologue est fondé

à apporter des explications sur le fonctionnement de nos institutions. Le concept

d’« habitus », proposé par E. Panofsky, puis repris par P. Bourdieu, se situe donc bien dans le

prolongement des théories du fondateur de la sociologie française, ainsi que le revendique le

sociologue de la reproduction (1970). Mais E. Durkheim approche ces formes d’habitudes

normalisées plutôt dans le but d’expliquer et d’analyser nos systèmes institutionnels,

coutumiers ou juridiques. Il distingue, en particulier, deux formes de solidarité - de « cohésion

sociale », dirait-on peut être de nos jours - : une forme mécanique (qui correspond au droit

pénal) et une forme organique (qui correspond au droit civil) (1930/2007). Le sociologue ne

s’intéresse pas tant aux principes universels qui régissent le droit, comme le feraient les

juristes, il s’attache plutôt à observer les phénomènes sociaux qui conduisent les sociétés à

institutionnaliser ces règles, et surtout qui les rendent efficientes. Car ce n’est pas en elle-

même que la règle est respectée, mais en raison d’une autorité morale légitime qui impose le

respect, autorité qui est bien moins incarnée par des individus ou des fonctions, que par une

« puissance morale supérieure à celle que nous sommes » (1924/2004 : 70 à 85). Le concept

de « représentation collective » ou « représentation sociale » n’est ainsi vraiment défini en ces

termes que dans son ouvrage où il confronte sociologie et philosophie (1924/2004 : 1 et 2).

Dans le dernier chapitre de cet ouvrage (idem : 132-141), l’auteur nous expose une

interprétation sociologique de la façon dont se construisent les idéaux sociaux, et dont

s’instituent les modalités rituelles, artistiques, cérémonielles (procédurales dirait-on de nos

jours), qui les accompagnent. Ces phénomènes sont alors conçus comme une forme de

sédentarisation des grands moments de création collective que connaît l’histoire : une

mémorisation collective. En substance, c’est parce qu’il approche les « faits moraux », non

plus en tant qu’idéalité transcendante comme les philosophes, mais à partir de l’observation

systématique des formes d’expression sociale récurrentes (habitudes, règles, normes,

coutumes, rituels, dictons, art, religion, etc.), que le sociologue rompt avec la philosophie

idéaliste de l’époque moderne, en particulier avec la conception transcendantale d’E. Kant.

Page 204: UN REFERENTIEL, POUR QUOI FAIRE

204

Cette conception de l’institutionnalisation des valeurs sociales - et de leurs formes

procédurales réifiées - est d’autant plus précieuse qu’elle constitue une hypothèse-clef pour

analyser la constitution des référentiels : à la fois du Référent (valeurs, principes) et du Référé

(procédures, indicateurs), mis en valeur par les travaux en sciences de l’éducation ; mais

aussi, des rapports logiques entre concept et référent de la linguistique, c'est-à-dire l’ensemble

des constructions conceptuelles qui accompagnent la mise en œuvre du couple Référent /

Référé – ce sont elles que l’on a nommées plus loin « critères » (pages 316 à 349). Aussi est-il

important ici de préciser sur quelles observations s’appuie E. Durkheim pour argumenter sa

conception d’une « âme collective » ou encore d’une « puissance morale qui dépasse

l’individu », ensemble d’« idéaux collectifs » - aussi bien, d’ailleurs, pour étoffer notre

hypothèse à partir des recherches sociologiques déjà réalisées, que pour souligner aussi les

limites de cette conception, et reformuler, de ce fait, l’hypothèse en question. Il cite ces

grands « moments d’effervescence » historiques, « périodes créatrices et novatrices » où,

« sous l’influence de circonstances diverses », les hommes se rapprochent pour débattre, « les

assemblées sont plus fréquentes », les « échanges d’idées plus actifs » (1924/2004 : 134) :

création des universités au XII et XIIIème siècle et scolastique, Réforme et Renaissance,

révolution française, mouvements socialistes du XIXème siècle, etc.

« Mais l’illusion n’est jamais durable parce que cette exaltation elle-même ne peut pas durer : elle est trop épuisante. Une fois le moment critique passé, la trame sociale se relâche, le commerce intellectuel et sentimental se ralentit, les individus retombent à leur niveau ordinaire. Alors, tout ce qui a été dit, fait, pensé, senti pendant la période de tourmente féconde ne survit plus que sous la forme de souvenir, de souvenir prestigieux, sans doute, tout comme la réalité qu’il rappelle, mais avec laquelle il n’a cessé de se confondre. Ce n’est plus qu’une idée, un ensemble d’idées. Cette fois, l’opposition est tranchée. Il y a, d’un côté, ce qui est donné dans les sensations et les perceptions, de l’autre, ce qui est pensé sous forme d’idéaux. Certes, ces idéaux s’étioleraient vite, s’ils n’étaient périodiquement revivifiés. C’est à quoi servent les fêtes, les cérémonies publiques, ou religieuses, ou laïques, les prédications de toutes sortes, celles de l’Eglise ou celles de l’école, les représentations dramatiques, les manifestations artistiques, en un mot tout ce qui peut rapprocher les hommes et les faire communier dans une même vie intellectuelle » (E. Durkheim ; 1924/2004 : 134, 135).

Ainsi la société oblige l’être humain à « se hausser au dessus de lui-même » : « elle ne peut

pas se constituer sans créer de l’idéal », qui est expression des « points culminants de son

développement ». De chacune de ces périodes d’effervescence ont donc surgi des idéaux

porteurs du mouvement collectif, des formes de ritualisation et de communication qui se sont

instituées à cette époque, et des constructions conceptuelles qui ont été l’émanation des

débats. Cette interprétation apparaît plausible pour expliquer les habitudes et les coutumes qui

structurent nos sociétés contemporaines - y compris, d’ailleurs, les principes et les institutions

juridiques qui se sont constitués dans l’Antiquité, lors de la formation des grandes cités -.

Page 205: UN REFERENTIEL, POUR QUOI FAIRE

205

En revanche les observations empiriques apportées à l’appui de cette thèse nous invitent à une

réserve, en ce sens que les moments de construction d’idéaux collectifs, de procédures

instituées et de conceptions rationnelles pour les expliquer, n’ont pas lieu de se borner à ces

« moments d’effervescence », à ces « points culminants ». Même en des temps plus calmes, la

société continue de produire des institutions et procédures, des idéaux pour justifier celles-ci

et des concepts pour les identifier / nommer. Si l’hypothèse du sociologue est pertinente, elle

en deviendrait simpliste et peu convaincante sans une clarification des processus de

communication mis en jeu lors de ces phénomènes d’institutionnalisation : la notion d’ « âme

collective » a été vivement critiquée et elle n’est, dans tous les cas, guère observable.

C’est ici que la « sociologie phénoménologique », et tous les courants qui s’en sont

inspirés (ethnométhodologie, sociologie interactionniste, sociologie cognitiviste), peuvent

apporter leur lot de contributions. Cette dénomination a été utilisée pour qualifier la démarche

d’A. Schutz (1998). Le sociologue, s’inspirant des travaux d’E. Husserl, d’H. Bergson et de

M. Weber, analyse la façon dont l’individu construit son rapport au monde, en particulier à

travers les actions de sa vie quotidienne. Le concept de « représentation » est peu développé

en tant que tel : il est évoqué à travers « la représentation de la société par ses représentants

organisés » (élus par les membres de la société ou bénéficiaire d’une autorité en raison de

l’organisation institutionnelle de celle-ci), mais aussi à travers la relation de sens qui fait que

« la société elle-même représente quelque chose » pour ses membres, de l’ordre du

« transcendant » (A. Schutz ; 2009 : 131 et 132). Et c’est cette seconde dimension

(symbolique) qui nous intéresse plus spécifiquement ici, dans la mesure où elle fonde la

première : la légitimité des « représentants de la société ». Mais, surtout, le phénoménologue

étudie les processus de représentation - au sens des philosophes (E. Kant, E. Husserl) -, qui

participent de la constitution de cette « transcendance ». Il explique, en particulier, par une

démonstration méthodique, que notre façon d’appréhender les actions de l’Autre ne peut l’être

que sur le mode de la typification, dans la mesure où nous ne pouvons connaître ni ses

motivations, ni son interprétation de la situation d’après ses propres schémas qui sont le

produit de son histoire biographique. Toute action individuelle est motivée par un « projet »,

qui n’existe pleinement que dans la pensée de son auteur. Pour appréhender de l’extérieur

l’action de cet individu, l’observateur l’analyse d’après la façon dont il conçoit le projet de cet

acteur, chose qu’il ne peut faire qu’à partir d’une analyse typique de la situation, construite à

partir de comparaisons avec sa propre expérience, et/ou de connaissances qu’il a sur les

éléments qui constituent cette situation. Lorsqu’il s’agit de routines de la vie quotidienne,

nous interprétons ainsi les actions de nos pairs en raison de notre connaissance de leur finalité.

Page 206: UN REFERENTIEL, POUR QUOI FAIRE

206

Les choses sont plus complexes lorsque les actions de ces acteurs sortent des schémas qui

nous sont familiers. Bien entendu ces modes d’action atypiques ne deviennent

problématiques79 qu’à partir du moment où ils interfèrent avec nos propres projections sur la

situation, dans la mesure où nous leur portons un intérêt, pour diverses raisons liées à notre

propre histoire biographique ou à nos motivations.

« Notre analyse de notre monde social commun nous a montré l’origine de la typification. Nous typifions, dans la vie quotidienne, les activités humaines qui nous intéressent seulement en tant que moyens appropriés pour provoquer des effets intentionnés, mais pas en tant qu’émanation de la personnalité de nos semblables. La procédure suivie par l’observateur scientifique est dans l’ensemble identique. Il observe certains évènements causés par l’activité humaine et il commence à établir un type correspondant à ces façons d’agir » (A. Schutz ; 1943/1998 : 44).

A partir de ces présupposés méthodologiques, largement développés par ailleurs, le

sociologue remet en question la notion d’ « âme collective » d’E. Durkheim, « les relations

sont toujours interindividuelles » (Idem ; 1959/1998 : 94). Il est cependant plus modéré que

certains phénoménologues dont il s’inspire, qui ont poussé cette conception subjectiviste dans

ses extrêmes, en particulier Ortéga y Gasset (1957). S’il ne nie pas l’aspect subjectif de notre

appréhension des actions des Autres, il analyse aussi la part d’objectivité indispensable à toute

élaboration d’une communication interindividuelle. Mais l’ « établissement de ces contextes

objectifs de signification » passe par un accès au « sens subjectif de l’action », des autres

aussi bien que de soi-même, et par « l’explication du contexte subjectif d’intentionnalité »

(idem ; 1996/2009 : 150). Cette objectivation se réalise par typification de nos connaissances

du monde social :

« La typification de la connaissance acquise, c'est-à-dire des conditions sous lesquelles les problèmes peuvent être considérés comme suffisamment résolus, et les horizons comme suffisamment explicités, est déjà dans une certaine mesure socio-culturellement co-déterminée. Non seulement le vocabulaire, mais également la structure syntactique du langage commun familier, la forme interne du discours comme Wilhelm von Humboldt l’a nommé, contiennent le système de typifications et donc les pertinences interprétatives qui sont considérés par la communauté linguistique comme testées et vérifiées, et conséquemment comme donnée au-delà de tout questionnement, comme approuvées et valides jusqu’à nouvel ordre, et qui dans le procès d’éducation et d’apprentissage, sont donc transmises aux nouveaux membres du groupe. Il en va de même pour les nombreux moyens que chaque culture rend disponible pour l’orientation typique dans - et la maîtrise du - monde-de-la-vie, tel que les outils, procédures, institutions sociales, coutumes, usages, systèmes symboliques » (A. Schutz ; 1966/1998 : 122).

79 Il ne s’agit là que d’un des aspects de la situation qui conduit à la problématisation. Même un ensemble de conduites ordinaires peuvent conduire à une problématisation si, dans la situation où nous nous trouvons et en référence à notre propre histoire biographique et à nos motivations, l’ensemble de ces conduites nous interpellent.

Page 207: UN REFERENTIEL, POUR QUOI FAIRE

207

On retrouve donc, dans les analyses de cet auteur, l’observation des mêmes contraintes

objectives de la vie en société qui ont été mises en valeur par E. Durkheim, mais à la

différence que le caractère « transcendant » de la vie en société (les valeurs qui fondent

l’organisation sociale80) n’est pas le produit de - ni même ne conduit à - une « âme

collective ». Chacune des valeurs qui fondent une société donnée est signifiée par un

interprète, en fonction de son histoire biographique et de ses motivations, ainsi que des

typologies qui lui permettent d’appréhender les situations : la notion de « responsabilité » est

conditionnée par le point de vue, subjectif et objectif, des interprètes (A. Schutz ; 1958/2009 :

173-175). On pourrait aisément montrer qu’il en est de même des concepts de « liberté » et d’

« égalité » qui fondent nos sociétés républicaines contemporaines. C’est dans

l’intersubjectivité que se construit le « sens commun ». C’est pourquoi il est certainement plus

aisé de le faire à partir de routines de la vie quotidienne - fusse dans un contexte domestique

ou un contexte professionnel -, que de concepts abstraits dont les rapports de signification au

monde aperceptible (au monde des objets, aux situations vécues, etc.) exige la construction de

conceptions plus complexes. Pour simplifier un peu le discours du phénoménologue, on dira

que les valeurs de la société résultent de ce besoin de communiquer sur les choses de la vie

courante, et, par conséquent, sont le produit, tant des contraintes de la vie en société que de la

communication interindividuelle. On retrouve, à ce titre, la même idée qu’E. Durkheim, mais

de façon bien plus étayée quant aux processus de communication qui sont mis en jeu et qui

conduisent à la formation des « Concepts » et des « Idées ». A partir du concept d’

« apprésentation », qu’il emprunte à E. Husserl, A. Schutz développe comment se

construisent ces univers de signification partagée (1962/2009 : 60-66). L’apprésentation est

un processus d’induction d’un phénomène non aperceptible (l’appresenté) à partir d’un autre

phénomène qui fait partie de notre champ de perception (l’apprésentant). Ce terme générique

regroupe divers processus cognitifs qui nous sont communs : « marqueurs », « indications »

ou « signes » (qui s’entend ici dans un sens beaucoup plus large que celui de la linguistique).

Mais ce qui semble le plus important pour le propos développé ici, ce sont les différents

niveaux d’ordre proposés par l’auteur pour décrire ces processus d’apprésentation : celui des

schèmes aperceptif, apprésentatif, référentiel, et interprétatif ou contextuel (Idem : 66).

80 La notion de « valeur » est réductrice de la notion de « transcendance ». Est « transcendant », dans l’esprit d’A. Schutz, tout ce qui est au-delà de l’espace que nous pouvons appréhender et maîtriser dans notre vie quotidienne, et qui, par ailleurs, nous est imposée en raison de la vie en société ou d’un univers qui nous détermine.

Page 208: UN REFERENTIEL, POUR QUOI FAIRE

208

L’aperception est un concept qui a été suffisamment précisé par les philosophes (E.

Kant), il correspond à la synthèse intuitive de nos perceptions, indépendamment et avant toute

apprésentation ou représentation induite. Le concept d’apprésentation a été expliqué ci-

dessus. Il correspond aux processus d’appariement qui induisent l’évocation d’un phénomène

non-aperceptible à partir d’un phénomène aperçu, mémorisé, rêvé, etc. Le troisième ordre

(« référentiel ») est celui des analogies81 (Idem : 66) : un phénomène acquiert du sens par

référence à des expériences antérieures, à des schèmes logiques, à des concepts génériques,

etc. Enfin le dernier niveau d’ordre fait appel à la connaissance du contexte, c'est-à-dire un

ensemble d’éléments connus et reconnus pour interpréter le phénomène… en contexte. La

conception des niveaux d’ordre proposée par A. Schutz n’est pas en contradiction avec une

conception constructiviste de l’intelligence. Bien au contraire, ces niveaux d’ordre sont à

rapprocher des différentes étapes de l’apprentissage de la langue, tel qu’il est décrit par L.

Vygotski (1934 / 1997), quand il étudie la genèse de la formation des concepts. Cette

recherche psycholinguistique sera présentée plus loin (pages 410 à 420), on limitera ici

l’analyse aux phénomènes de signification et de référentialisation. A partir des propositions

d’A. Schutz, il est possible de redéfinir certaines notions, en particulier celle de « signe » et de

« symbole » (1962/2009 : 80 à 96 et 100 à 112). On définira le « signe » comme une relation

d’appariement à un même niveau d’ordre : aperceptif, apprésentatif, analogique ou

interprétatif. Par exemple, l’odeur éveille la faim, la fumée évoque le feu, une catégorie se

distingue par rapport aux autres, une situation a du sens dans son contexte, etc. Le

« symbole », lui, est généré par les relations de sens entre différents niveaux. Par exemple, un

objet du monde sensible ou une image acquièrent de la signification par analogie ou par

intégration dans un schéma interprétatif, en fonction du contexte : tel objet dans un contexte

religieux, telle image dans une œuvre artistique, tel graphisme dans un ouvrage scientifique.

La signification est ainsi un processus qui se construit sur chaque niveau (par

évocation et comparaison à des phénomènes similaires), la référence est un système qui

s’élabore par intégration de l’élément d’un niveau d’ordre dans un autre. Ces processus de

référence ne se limitent pas à la seule symbolisation. Le symbole est le transfert d’un élément

du niveau perceptif ou appresentatif dans un contexte d’ordre supérieur. Mais il existe aussi

des structures de niveau supérieur qui servent de référence à des éléments de niveau inférieur :

par exemple, un schéma procédural pour orienter la collecte d’indices (niveau interprétatif) ;

une catégorie sollicitée pour mettre en rapport deux phénomènes (niveau analogique), etc.

81 Utiliser le terme de niveau d’ordre - ou de schème - « analogique » serait d’ailleurs moins ambigu.

Page 209: UN REFERENTIEL, POUR QUOI FAIRE

209

Ainsi que le note A. Schutz (1962/2009 : 66), tout dépend du registre sur lequel on se situe.

D’autres types de systèmes de référence se constituent, en fonction du niveau d’ordre pris

comme base (référent) et de celui qui est évoqué (référé). Les notions de critère et

d’indicateur sont donc typiques de ces rapports entre le niveau analogique et, d’une part, le

niveau interprétatif (pour le critère), d’autre part, le niveau apprésentatif (pour l’indicateur).

C’est certainement en raison de cette position charnière que le niveau d’ordre analogique a été

nommé, par le phénoménologue, celui des « schèmes référentiels » ; mais il semble préférable

de conserver le terme de « référence » pour les rapports entre les différents niveaux.

L’« indice » est le signe du niveau perceptif qui s’inscrit dans l’un des autres niveaux.

Revenons maintenant à la distinction entre « apprésentation » et « représentation »,

telles du moins que ces notions apparaissent à travers les écrits d’A. Schutz. L’apprésentation

est un processus intuitif, intrinsèquement déterminé par nos facultés de mémorisation : intuitif

signifie que la présence perceptible de l’apprésentant induit spontanément celle de

l’apprésenté. En revanche cela ne signifie pas que le phénomène soit spontané au sens de

l’innéité ou de l’immanence : la psychologie génétique a largement étayé la thèse de

processus intériorisés et mémorisés par répétitions, adaptations, vections, etc. Mais une fois

ces rapports de signification mis en place au cours de l’ontogenèse, la connexion se fait de

façon spontanée et intuitive : on peut d’ailleurs faire l’hypothèse que l’apprentissage du

langage et l’essor de la symbolisation favorisent ces phénomènes de connexion spontanée.

Ces processus d’apprentissage conduisent ainsi à la formation des schèmes d’apprésentation,

mais ils génèrent aussi des habitudes, les unes et les autres étant imbriquées. Ces relations

n’ont plus alors à être pensées, elles « vont de soi », elles « coulent de source ». Pour le

sociologue, le « monde-de-la-vie » est ainsi constitué de nombreuses évidences, il est « pris

pour allant-de-soi » : opinions, croyances, suppositions, etc. (1951/1998 : 61) :

« Il serait peut-être nécessaire de définir le terme « allant de soi » que nous avons utilisé auparavant. Il signifie l’acceptation, jusqu’à nouvel ordre, de certaines données comme étant plausibles sans qu’il y ait de mise en question » (1962/2009 : 97).

L’appropriation de ces schèmes, comme « allant de soi », est largement induite par la culture

du groupe social (1966/1998 : 103 à 123). Si nous souhaitons interpréter une action d’un pair,

nous le faisons alors en imaginant le projet qui justifie ses pratiques. Mais nous ne

connaissons ni la totalité de son histoire biographique, ni l’ensemble de ses motivations. Nous

collectons des informations sur lui et sur le contexte (indices ou indicateurs), puis interprétons

la situation à partir de schémas-types : typologies analogiques construites à partir de nos

expériences ou par rapport à notre connaissance de situations similaires vécues par d’autres.

Page 210: UN REFERENTIEL, POUR QUOI FAIRE

210

A. Schutz a enrichi son analyse en s’inspirant de la conception pragmatique de J. Dewey, pour

qui la délibération est « une répétition théâtrale imaginaire des différentes lignes possibles

d’actions » (1951/1998 : 54). Différents scénarios sont construits dans l’imaginaire et c’est en

fonction des actions et réactions que nous anticipons chez nos pairs, à partir de scénarios type

et de constructions typiques de leur « personnalité » d’acteurs, que nous allons prendre nos

décisions. Le concept de « représentation » dénommera ces phénomènes de projections et de

constructions typiques : représentation du « rôle social », de la situation, etc.

Le terme de « typification », dans la pensée d’A. Schutz, ne se réduit pas à la

construction d’une typologie intellectuelle et dogmatique, mais s’entend plutôt comme un

ensemble de processus apprésentatifs et représentatifs, nécessairement diversifiés et

complexes, qui se structurent en système de référence et intègrent les signes et les indices. Le

schéma narratif des contes est une de ces structures-types, qui assure certainement une

fonction importante lors de la formation des repères au moment de l’apprentissage du

langage. Mais toutes les formes d’expression culturelles génèrent une grande diversité de

schémas-types. Nous possédons ainsi une multitude de références différentes, en fonction des

milieux culturels auxquelles nous avons accès. Le concept de « représentation » d’E. Kant est

ainsi différencié en deux types de processus cognitifs : l’apprésentation désigne ceux par

lesquels un phénomène induit la présence réciproque d’un autre, les représentations sont

l’ensemble des constructions typiques qui sont stabilisées et qui nous servent de référents.

Beaucoup de représentations sont le fruit de nos propres vécus, nous les construisons à partir

de nos expériences (représentations individuelles). Mais beaucoup sont aussi des

représentations sociales, qui n’acquièrent souvent du sens qu’en rapport avec certaines de nos

représentations individuelles : par exemple, les romans nous permettent de pénétrer dans les

raisonnements des personnages, les films nous offrent une aperception du monde à partir du

regard du metteur en scène et des personnages, les rythmes musicaux font appel à des

schèmes proprio- et intéroceptifs (sensations internes), ou bien font référence à des pratiques

de danse culturellement inscrites dans le patrimoine de l’individu, etc. Ce dernier exemple est

intéressant pour analyser ce qui relève du signe, observable, au niveau apprésentatif (la

musique est une succession de sons, la danse une succession des gestes, et il y a ajustement

des gestes aux sons), et ce qui relève de la référence : au niveau de l’aperception, les

sensations internes provoquées par la musique ou par la danse, ou bien par les deux à la fois

(phénomènes d’entraînement) ; au niveau contextuel, l’investissement culturel par les

individus en fonction de leurs identités, ou la référence à des expériences festives (analogies).

Page 211: UN REFERENTIEL, POUR QUOI FAIRE

211

Si le signe peut s’observer - du moins se construire en raison de la proximité de deux

phénomènes similaires dont on présuppose intuitivement le rapport -, en revanche la référence

ne peut s’appréhender qu’en découvrant les schémas-types appliqués par les acteurs qui

produisent ces signes, en d’autres termes en analysant leurs représentations. Si tous les

membres d’une communauté produisent, de façon régulière, les mêmes signes (la même

succession de gestes, d’actes de parole, etc.), on peut alors parler de significations sociales

instituées. La recherche des représentations sociales passent alors par une interrogation de

plusieurs de ces membres pour s’assurer que la construction référentielle est du même type

pour tous les individus (par exemple, l’analyse du rapport construit entre l’objet symbolique

et le contexte, entre la danse et son interprétation)82. L’ethnologue, pour parvenir à donner du

sens à ses observations systématiques de signes souvent collectés au niveau aperceptif

(« réel ») ou apprésentatif (« imaginaire »), part à la quête de schémas-typiques, interprétatifs

ou analogiques, communiqués par les producteurs de ces signes. La rigueur méthodologique

implique la rencontre de plusieurs acteurs et l’analyse de leurs constructions référentielles.

Comment eux-mêmes interprètent-ils ces signes ? Mais cela n’est rigoureusement possible

que si le chercheur est lui-même en capacité, de façon intuitive, d’observer systématiquement

les constructions typiques des acteurs (représentations), non seulement au niveau des gestes et

des signes imaginaires, mais aussi au niveau analogique et interprétatif où s’opèrent les

constructions référentielles : quelles sont les modalités d’interprétation de ces signes ? Dans

quels schémas analogiques ou contextuels s’inscrivent-ils ? En d’autres termes, quels sont les

critères des acteurs. Quand il s’immerge dans des populations dont il ne maîtrise pas la

culture, l’ethnologue le fait intuitivement puisqu’il a besoin, pour s’intégrer, d’apprendre la

langue vernaculaire, de s’adapter aux usages, de comprendre croyances, modes de

communication, rites, etc. (B. Malinowski ; 1922/1989).

82 Par rapport aux querelles entre « méthodes qualitatives » et « méthodes quantitatives », on fera remarquer que, si la construction est typique du public observé (seuls les membres de cette communauté construisent une telle représentation / tous ceux qui sont interrogés y font référence), la construction matricielle de l’expérience peut se rapporter à un tableau du type : Représentation typique adoptée Représentation typique ignorée Communauté X 0 Hors communauté 0 X L’écart à la « norme » devient « significatif » (au sens de la statistique) à partir de X = quatre ou cinq personnes, suivant les critères retenus, en particulier si on applique la pondération préconisée par Yates. Certes, pour le statisticien, aucune cellule ne doit être inférieure à cinq, ce qui n’est pas le cas des cellules vides. Mais l’objectif n’est pas ici d’appliquer les statistiques aux méthodes qualitatives, seulement de montrer qu’à partir du moment où 4 à 5 personnes d’une population-type étudiée ont des représentations qui se distinguent de façon significative des autres populations, il est permis d’en inférer – de façon aussi fiable et valide que les méthodes statistiques quantitatives – que les représentations en question sont spécifiques à cette population (cf. expérience N° 2). Avec un faible échantillon, les résultats des approches qualitatives peuvent être très significatifs. Bien entendu, le problème de la représentativité de l’échantillon est autre.

Page 212: UN REFERENTIEL, POUR QUOI FAIRE

212

Plus complexe est la position de l’ethnographe qui étudie sa propre culture, pratique

scientifique qui se propage depuis quelques décennies (cf. E. Goffman, H.S. Becker, Y.

Winkin). Le chercheur a alors l’avantage de connaître sa propre culture et de comprendre le

langage, non seulement la structure superficielle, mais aussi la structure profonde (au sens de

N. Chomsky), ainsi que les interprétations contextualisées d’énoncés types (proverbes,

locutions, etc.) ou de situations types (jeux d’acteurs, règles de politesse, convenances, etc.).

Mais précisément, en raison de cette immersion naturelle, la difficulté, pour lui, sera de se

décentrer de ses propres schémas interprétatifs pour accéder à ceux qui sont universels. Ou, en

d’autres termes, qu’est ce qui permet de garantir que tel schéma observé est bien celui de

l’ensemble de la population étudiée ? Si l’on veut pouvoir affirmer qu’un schéma interprétatif

existe dans une population et pas dans une autre, il n’est pas suffisant de rechercher des

variables totalement discriminantes et/ou d’appliquer des comparaisons avec d’autres

populations tests ; il est indispensable de surcroît de poser un cadre méthodologique pour

identifier, de façon formelle, la structure de ces schémas, afin de pouvoir analyser les

différences avec d’autres. C’est cette perspective qui nous pousse vers une étude des systèmes

de référence et une analyse plus objective des critères implicites. Effectivement, si nous

voulons progresser vers la découverte d’une plus grande universalité des processus en jeu

dans la formation des Référentiels, c'est-à-dire des jeux et enjeux des acteurs qui président à

l’institutionnalisation de ceux-ci, nous avons besoin de comprendre l’articulation des

systèmes de référence et, par là même, la fonction des critères sur lesquels se construisent nos

raisonnements. Nous ne pouvons faire l’impasse des réflexions apportées par la

phénoménologie pour progresser dans cette voie, mais ce n’est pas dans des discussions

exclusivement philosophiques qu’il est possible de réduire nos contradictions et de fonder une

approche scientifique. Il apparaît objectivement préférable de faire appel à une observation

systématique des phénomènes de signification (signes), ainsi que de leur généralisation, à

partir des catégories qui les regroupent de façon pertinente : celles-ci ont leur raison logique,

en rapport avec les phénomènes observés et leur signification pour les acteurs. En d’autres

termes, notre connaissance des systèmes de référence (ou référentiels) s’approfondit au fur et

à mesure que nous découvrons empiriquement l’articulation des différents niveaux, à partir

des concepts définis pour qualifier ces processus. Un exposé synthétique des théories

fortement influencées par A. Schutz (interactionnisme et ethnométhodologie) précisera

quelques pistes, réifiera le concept de « représentation sociale », ainsi que les notions de

systèmes de référence et de processus de signification, présentées en partie méthodologique.

Page 213: UN REFERENTIEL, POUR QUOI FAIRE

213

b) La représentation sociale pour la sociologie « interactionniste » : l’observation

des interactions :

La notion de « représentation », dans la pensée d’E. Goffman, s’est vraiment précisée,

tout au début des années soixante, dans un ouvrage où il analyse la Mise en scène de la vie

quotidienne - paru en version française dix à douze ans plus tard (1973). A partir

d’observations ethnographiques, cet auteur, qui avait analysé dans la décennie des années

cinquante les modes de communication de la vie quotidienne au sein de l’île de Shetland, pose

un cadre d’observation des interactions avec comme objectif l’analyse des « règles de l’ordre

social » (1988 : 95-103). Ainsi, pour le sociologue interactionniste, c’est dans les micro-

relations de la vie quotidienne que se construisent les règles implicites de l’ordre social. Il

analyse les jeux d’acteurs et la façon dont ceux-ci s’organisent en système de

« représentations », par analogie avec la représentation théâtrale, ou du moins en raison de

certaines homologies structurelles entre la vie quotidienne et l’action théâtrale (1974 : 542).

Le concept de « représentation » a ainsi acquis un nouveau développement scientifique :

« Il convient de préciser (…) quelques définitions. Par interaction (c'est-à-dire l’interaction face à face, on entend à peu près l’influence réciproque que les partenaires exercent sur leurs actions respectives lorsqu’ils sont en présence physique immédiate le uns des autres (…) Par une représentation, on entend la totalité de l’activité d’une personne donnée, dans une occasion donnée, pour influencer d’une certaine façon un des autres participants. Si on prend un acteur déterminé et sa représentation comme référence fondamentale, on peut donner le nom de public, d’observateurs ou de partenaires à ceux qui réalisent les autres représentations. On peut appeler rôle (part) ou « routine » le modèle d’action préétabli que l’on développe durant une représentation et que l’on peut présenter ou utiliser en d’autres occasions (…) Quand un joueur joue le même rôle pour un même public en différentes occasions, un rapport social est susceptible de s’instaurer. En définissant le social role comme l’actualisation des droits et des devoirs attachés à un statut donné, on peut dire qu’un social role recouvre un ou plusieurs rôles (parts) et que l’acteur peut présenter chacun de ces rôles, dans toute une série d’occasions, à des publics du même type ou bien à un seul public constitué par les mêmes personnes » (E. Goffman ; 1973 : 23, 24).

Par ses analyses de la communication sociale ordinaire, cette nouvelle approche sociologique

donne de la consistance au concept de « rôle », exploité par les fonctionnalistes (T. Parsons,

K. Merton), mais utilisé de façon peu précise. En observant systématiquement les jeux

d’acteurs à travers les routines de leur vie quotidienne et les interactions qui se construisent

ainsi, le chercheur parvient ainsi à identifier la façon dont se structurent les rôles sociaux,

c'est-à-dire l’ensemble de contraintes sociales dans lesquelles s’inscrivent les acteurs en

fonction de leur statut, contraintes acceptées par eux : reconnaissance du statut par le groupe,

représentations intrinsèques à celui-ci, etc.

Page 214: UN REFERENTIEL, POUR QUOI FAIRE

214

Toute utilisation d’une analogie a cependant ses limites, qui sont à clarifier pour éviter

les généralisations abusives. Une modélisation de notre réalité quotidienne à partir des mises

en scène construites pour le théâtre apparaît artificielle, a priori, si nous n’analysons pas, à

l’instar du sociologue, les « conventions de transcription » qui existent dans l’activité

dramatique et qui les différencient de la scène de la vie réelle (1974 : 150). La vie n’est pas un

lieu d’expression dramatique, même si certaines personnes s’approprient l’espace public de

cette façon : n’est-il pas courant d’entendre, face à de telles attitudes, « arrête de faire ton

film, on n’est pas au cinéma » ? Certaines dramatisations sont parfois pertinentes : on dira

alors qu’elles sont performantes par rapport à la situation. Mais, en général, nous

différencions théâtralisation et vie quotidienne. Il convient donc de différencier l’analogie - la

transcription de schémas d’une situation à une autre sans se soucier des différences entre

celles-ci – et l’homologie structurelle, c'est-à-dire l’adaptation d’un cadre de référence,

typique pour analyser une situation (ici le théâtre), dans une situation différente (la vie

quotidienne). Cette homologie est pertinente, non pas en raison d’une similitude des

situations, mais du fait que nous avons besoin de schémas-typiques pour analyser les

situations de la vie quotidienne (« pour comprendre les autres »), ainsi que l’a mis en valeur la

conception du monde-de-la-vie d’A. Schutz. Les drames/trames de toutes sortes de

communications culturelles offrent ces schémas-typiques : que ce soit les films qui nous

invitent à pénétrer dans d’autres cultures, les pièces de théâtre classiques sur les grandes

questions éthiques de notre société, les romans qui pénètrent dans l’univers des personnages,

ou les articles de journaux et de revues, les romans-photos, les sketches humoristiques, etc.

Nous collectons tous les jours, sans nous en apercevoir, une somme considérable de ces

schémas-typiques, qui orientent notre interprétation des situations dans lesquelles nous

vivons. L’étude des photographies publicitaires est significative de ce phénomène : l’image

n’acquiert du sens qu’à partir des schémas-type de la société dans laquelle elle est diffusée,

des rituels comportementaux auxquels elle fait référence (1988 : 150-185). Ce n’est donc pas

la vie quotidienne qui se structure selon les codes du discours dramatique, mais notre façon

d’en parler : « les récits que nous (en) faisons s’apparentent plus aux drames qu’à l’univers

des faits » (1974 : 550). À partir de ce constat, E. Goffman a construit son postulat et défini la

notion de « cadre » qui exprime précisément la fonction de ces homologies structurelles :

« Je soutiens que toute définition de situation est construite selon des principes d’organisation qui structurent les évènements – du moins ceux qui ont un caractère social – et notre propre engagement subjectif. Le terme de « cadre » désigne ces éléments de base. L’expression « analyse de cadres » est, de ce point de vue, un mot d’ordre pour l’étude de l’organisation de l’expérience » (E. Goffman ; 1974 : 19).

Page 215: UN REFERENTIEL, POUR QUOI FAIRE

215

Ainsi le sociologue nous propose-t-il divers concepts pour analyser ces cadres de

l’expérience, que ceux-ci soient naturels ou sociaux (Idem : 30, 31). Il propose donc de se

placer du point de vue de l’acteur pour analyser ses actions. Les séquences sont des « activités

réelles ou fictives, envisagées du point de vue de ceux qui y sont subjectivement engagés »

(Idem : 19). Les « connecteurs » sont des formes, soit linguistiques, soit situationnelles, qui

favorisent leur identification (Idem : 210 et 211) : ils servent de liaisons fonctionnelles entre ces

séquences et encadrent ainsi la segmentation des actions. Ils ont donc un intérêt pour analyser

la linéarité du discours. Le concept de « mode » (key), ainsi que celui de « modalisation »,

permet alors d’observer les formes de transcription, codées et reconnues par tous les acteurs,

de ces structures séquentielles ou de certaines constructions de celles-ci. Pour expliquer son

concept de « mode », E. Goffman commente les observations de Bateson sur le jeu des

loutres :

« Par mode, j’entends un ensemble de conventions par lequel une activité donnée, déjà pourvue d’un sens par l’application d’un cadre primaire, se transforme en une autre activité qui prend la première pour modèle mais que les participants considèrent comme sensiblement différente. On peut appeler modalisation ce processus de transcription » (E. Goffman ; 1974 : 52).

Outre les situations de jeux, certaines conventions de transcription des modes précisent cette

notion : en particulier « les faire-semblant, les compétitions sportives, les cérémonies, les

réitérations techniques et les reformulations » (Idem : 57). Les « cadres de conversation »

sont, de ce fait, un ensemble élaboré de conventions de transcription. A travers ces divers

modes de transcription, il nous est possible d’identifier des « figures » : « figures naturelles

(…) corps vivants, de chair et de sang ; figures de scènes, (…), personnages fictifs ou inspirés

de la vie réelle ; figures imprimées ; figures citées », etc. (Idem : 520). L’« état

d’information » fait alors référence à ce que connaissent les figures. Il va de soi que les

personnages (figures de scène) n’ont pas la même information que les comédiens (figures

naturelles), et cette distinction entre le rôle fictif, mis en scène, et le rôle social de la

dramaturgie est important pour pouvoir intégrer les modalisations dramatiques et comprendre

ce qui se joue sur scène. Ainsi nos cadres d’interprétation sont induits par de nombreux

indices intégrés à nos modes de communication. L’identification des connecteurs, des figures

et de leur état d’information donnent du sens à ce qui se trame, et déterminent nos cadres de

référence. L’acteur social peut ainsi modaliser ses actions et créer une représentation :

« présenter des séquences rejouées de l’expérience » (idem : 530). L’action est ainsi

« rejouée » en fonction des cadres d’interprétation et de leur modalisation. Mais ce n’est plus

l’action elle-même telle qu’elle a été vécue, c’est l’action telle qu’elle est pensée, mémorisée

puis décrite ou mise en scène à travers le schéma narratif de sa retranscription.

Page 216: UN REFERENTIEL, POUR QUOI FAIRE

216

Les théories d’E. Goffman ouvrent de nouvelles perspectives pour analyser

l’évaluation : changer notre focale, se centrer moins sur les jugements émis par les acteurs que

sur la situation d’interaction et sur ce qui se joue entre les acteurs. Il est ainsi possible de

mettre en valeur la fonction des représentations sociales, c’est-à-dire des interactions qui se

construisent entre les acteurs, aussi bien en raison de leur statut et des rôles sociaux liés à

celui-ci, que des contraintes de la situation de communication qui leur est imposée. Cette

proposition théorique induit deux axes qui structurent nos recherches : tout d’abord elle offre

de nouvelles hypothèses pour orienter les investigations. La présentation de soi à travers une

représentation ordinaire, ou inscrite dans un cadre mis en place volontairement, va

communiquer de nombreux éléments sur les rôles que la personne est en mesure de jouer.

« On comprend ainsi qu’en milieu urbain les jeunes filles dotées d’une bonne présentation et d’un bon accent soient sélectionnées pour occuper un emploi d’hôtesse d’accueil, dans lequel elles peuvent présenter une façade aussi utile pour l’organisation qui les emploie que pour elles-mêmes » (E. Goffman ; 1973 : 79).

Mais, au-delà de cet aspect de façade qui intervient certainement de façon plus ou moins

consciente dans toute sélection, bien d’autres indices peuvent être prélevés dans une

représentation pour juger si une personne est considérée apte à occuper un poste de travail -

ou un statut quand la tradition institutionnelle reconnaît des prérogatives particulières à ce

poste. A partir de la notion de « région », empruntée au langage phénoménologique, le

sociologue analyse les jeux de représentation qui se construisent dans différents espaces

identifiés et bornés. Il oppose ainsi les régions antérieures, où s’élaborent les représentations

de face à face avec le public, les régions postérieures (ou coulisses), où sont autorisées

diverses régressions, enfin les régions extérieures prises en compte par les acteurs, même si

elles ne font pas partie directement des lieux de représentation : c’est souvent dans des zones

frontières que ces régions extérieures sont en connexion avec les régions antérieures ou les

coulisses, par exemple l’accueil du public ou de partenaires (1973 : 105-135). Dans le cas des

professions éducatives, il va de soi que les jeux de représentations sont différents dans les

lieux où se trouve le public mineur, dans les espaces réservés à l’encadrement et dans les

zones aménagées pour accueillir les parents et les partenaires extérieurs. La notion d’

« équipe » précise alors les enjeux d’une bonne identification de ces régions :

« Une équipe peut se définir comme un ensemble de personnes dont la coopération très étroite est indispensable au maintien donné de la situation. C’est un groupe qui est en relation, non pas avec une structure sociale, mais plutôt avec une interaction ou une série d’interactions dans laquelle on maintient la définition adéquate de la situation » (E. Goffman ; 1973 :102).

Page 217: UN REFERENTIEL, POUR QUOI FAIRE

217

De nombreux éléments sont inscrits dans les jeux de représentation et, de ce fait, considérés

essentiels par les membres de l’équipe, pour maintenir leur crédibilité, pour pouvoir remplir

les missions, pour obtenir la reconnaissance liée à leur statut, etc. La capacité à analyser les

régions, dans lesquelles s’opéreront les représentations ou les divers rôles, peut alors être

conçue comme une aptitude à ajuster les jeux d’interaction en fonction de celles-ci. Faire

parler sur leurs expériences les candidats à un emploi est un moyen très courant d’analyser la

façon dont ils adaptent leurs modes d’actions aux différents contextes et aux acteurs, mais

aussi de savoir s’ils ont acquis une bonne connaissance (voire une certaine maîtrise) des us et

coutumes de la profession en fonction des régions dans lesquelles s’organisent les actions.

Pour reprendre certaines expressions d’E. Goffman (idem : 201-216), un entretien

d’embauche n’est certes pas une garantie de « loyauté dramaturgique » aux représentations

mises en scène par l’équipe, mais il communique déjà un ensemble d’informations sur les

aptitudes des candidats à s’intégrer dans la « discipline dramaturgique », avec une certaine

« circonspection »83. Du moins, est-il possible d’appréhender si le sens de certaines

représentations est bien compris. Pourquoi est-il important de les maintenir en face à face

public ? On aura l’occasion d’approfondir cette hypothèse (du moins cet axe de travail) et de

préciser certains critères et modalités, mis en œuvre pour évaluer les capacités à parler de ces

représentations éducatives et de leur signification, ce que le milieu professionnel appelle le

« rôle éducatif ».

Mais, aussi, la sociologie d’E. Goffman, dans sa phase de maturité (à partir des années

soixante dix), a apporté de nombreux concepts pour étudier les interactions, et ceux-ci sont

tout à fait adaptés pour les situations d’évaluation. On se propose donc maintenant d’aborder

ces concepts qui décrivent Les rites d’interactions (1974) ou Les façons de

parler (1981/1988), en se centrant surtout sur les aspects qui interfèrent plus ou moins

consciemment dans les situations d’évaluation. Dans le premier de ces deux ouvrages, le

sociologue approfondit les questions de façade, en particulier les jeux qui s’opèrent pour

garder la face, c'est-à-dire « la ligne d’action » qui permet à l’acteur d’affirmer « une image

de lui-même consistante » et de sauvegarder celle des autres participants. Ainsi les « membres

de tout groupe social ont une certaine connaissance de la figuration et une certains expérience

de son emploi » (1974 : 16). Aussi la question est-elle de savoir « choisir le type de figuration

qui convient ». Le « tact » est une façon de coopérer tacitement en « matière de figuration ».

83 Dans les milieux éducatifs, c’est le terme de « recul éducatif » qui est le plus souvent utilisée pour qualifier cette circonspection, c'est-à-dire la compréhension des enjeux de la situation éducative, autrement dit la capacité d’analyser les jeux de représentations et les raisons objectives pour lesquelles ils sont organisés de la sorte.

Page 218: UN REFERENTIEL, POUR QUOI FAIRE

218

Les interactions verbales sont, de ce fait, très codées : « chacun se voit accorder un certain

temps de parole, avec une certaine fréquence » (idem : 33). La communication est une activité

complexe, pour laquelle interviennent de nombreuses informations, tant sur la situation, la

position respective des interactants, les conditions de la mise en scène, etc. que sur les rituels

adaptés au contexte. Les « règles de conduite » sont constituées d’obligations, mais aussi

d’attentes réciproques qui sont souvent liées à ces obligations (idem : 44). La « déférence »

décrit alors l’ensemble de ces représentations mises en œuvre pour signifier à l’autre la

considération que l’on a de lui : elle peut se traduire par « garder les distances convenables »

(idem : 62) ou par certains « rites de présentation » :

« Nous avons vu que les rites de présentation comme marques de déférence prennent couramment quatre formes : salutations, invitations, compliments et menus services, qui sont autant de moyens de montrer à l’autre qu’il n’est pas isolé, que les autres participent de lui et partagent ou cherchent à partager ses préoccupations. Dans leur ensemble, ces rituels permettent à tout moment de détecter symboliquement le degré d’ouverture aux autres de ceux qui en bénéficient » (E. Goffman ; 1974 : 65).

Derrière les différents signes de « déférence », lors des entretiens d’embauche ou dans les

situations d’examen, ce ne sont pas seulement des compétences qui sont recherchées, mais

aussi des marques d’ouverture suffisantes pour exprimer l’esprit d’équipe (d’adaptation à la

future équipe) : ces rites de présentation seront différents selon les milieux professionnels et le

poste revendiqué, ils expriment bien plus qu’une simple marque de politesse standardisée à

laquelle il convient de se plier. Les façons de parler et les rituels de la conversation, « les

mouvements, regards et bruits vocaux que nous produisons sans intention en même temps que

nous parlons et écoutons » (1981 : 8), expriment ainsi de nombreuses informations, pour un

observateur expérimenté, sur la personnalité de l’interlocuteur, c'est-à-dire sur les différents

rôles et personnages qu’il sera en capacité d’assumer. La notion de « position », souvent

évoquée par les professionnels et rarement explicitée, est aussi précieuse pour le sociologue :

elle traduit la « posture, l’attitude, la disposition », « un continuum depuis les changements de

postures les plus visibles jusqu’aux changements de ton les plus subtils », « une alternance de

codes », « une modification des marques que les linguistes étudient : hauteur, volume, rythme,

accentuation, qualité tonale ». Mais, surtout, c’est « une projection qui peut être maintenue

tout au long d’une séquence comportementale » : autrement dit une façon de se mettre en

scène par les codes et les postures adoptés. La position induit le cadre dans lequel va se jouer

la représentation, elle introduit celle-ci et détermine un cadre commun :

« Un changement de position implique donc un changement dans l’attitude que nous prenons à l’égard de nous même et des autres présents, telle qu’elle s’exprime dans la manière dont nous traitons la production ou la réception d’une énonciation. C’est une autre façon de désigner un changement du cadre que nous appliquons aux évènements » (1981 : 137 et 138).

Page 219: UN REFERENTIEL, POUR QUOI FAIRE

219

Les marques de politesse, les signes d’ouverture et de fermeture (salutations,

remerciements, etc.), les modalisations, etc. ne sont compréhensibles qu’en référence aux

positions respectives dans l’interaction, c'est-à-dire aux rôles sociaux assumés par les

participants de l’échange (1981 : 139 et 140). Ceux-ci analysent la place de chaque figure

naturelle dans la rencontre, afin de percevoir les échanges rituels et de leur donner du sens.

L’analyse de ces positions commence par le repérage des acteurs de l’énonciation

(énonciateur, interlocuteurs, etc.) (1981 : 154). Les « connecteurs », dont on a précisé la

fonction de segmentation des séquences, sont souvent pertinents pour identifier la position des

protagonistes dans la situation, en particulier les marques linguistiques dénommées

« indicateur », concept qui s’est construit à partir de la notion d’index de C. S. Peirce – qui a

aussi été qualifié, par la linguistique européenne, « déictique ». (On aura l’occasion de revenir

là dessus dans la partie méthodologique). Les déictiques constituent des repères internes au

discours, dont le sens est produit par référence à la situation d’énonciation (« je, tu, nous, ici,

maintenant, etc. »). Leur signification est donc induite par les codes implicites de la

communication, qui offrent ainsi une base référentielle (indexicale) autour de laquelle

s’élabore le discours : chaque interlocuteur sait qui est « je », qui est « tu », où est « ici », etc.

Mais le concept de « position » serait incomplet si on le réduit aux seuls déictiques, sans

analyser les phénomènes d’enchâssement, dont E. Goffman nous donne un exemple :

« Pour autant que je me souvienne (1) je pense que (2) j’ai dit que (3) j’ai mené cette vie là autrefois

(1) reflète quelque chose qui est présentement vrai de l’animateur (le « moi adresseur »), (2) introduit un animateur enchâssé, incarnation antérieure de l’actuel locuteur, (3) montre une figure doublement enchâssée, incarnation antérieure d’une incarnation antérieure » (1981 : 159).

Le concept d’ « enchâssement », ainsi défini, est proche de celui de « débrayage » proposé par

A.J. Greimas (1979), qui différencie l’énonciateur (l’acteur réel qui parle), le narrateur (le

« je » de la narration) et le héros (qui peut s’exprimer sous la forme d’un « je » dans les

autobiographies), c'est-à-dire les différents types de figures évoquées par E. Goffman. A.J.

Greimas montre ainsi comment le discours se construit, par débrayages successifs, à partir

d’un point de référence commun qui est la situation d’énonciation. Pour E. Goffman, ces

compétences de débrayage/d’enchâssement sont des formats culturels communiqués par la

société, en particulier lors de l’apprentissage du langage et des modes de socialisation.

Page 220: UN REFERENTIEL, POUR QUOI FAIRE

220

Les contes, les jeux d’acteur, la pratique théâtrale, mais aussi la récitation, les jeux de

langage, etc. sont autant de formes de modalisations qui apprennent intuitivement, à l’enfant,

une distanciation imaginaire (au sens de la phénoménologie) et une construction progressive

du monde du récit, à partir de la situation d’énonciation de référence. De ce fait, ces formes

modales de communication lui apprennent à se positionner dans les jeux de communication

sociaux. Les modalisations verbales (verbes modaux, mode de conjugaison des verbes, etc.)

sont des formes d’expression linguistiques de cette distanciation : elles traduisent

« verbalement » le positionnement des acteurs.

« Pour commencer, on voit apparaître la qualification sous forme de verbes performatifs modaux (« je veux », « je pense », je pourrais, « j’espère », etc.) qui introduisent une certaine distance entre la figure et son expression » (Idem : 157).

Cette façon de s’impliquer dans le discours, E. Goffman la nomme « format de production ».

A partir de ce concept et de celui d’ « enchâssement », l’auteur analyse les effets de

stratification du discours, transposition d’un cadre à un autre qui « entraîne un changement de

position ». L’originalité de la démarche d’E. Goffman se trouve donc surtout dans la relation

qu’il établit entre l’analyse de l’énonciation et les cadres de participation. Cette articulation

entre les cadres de référence et la participation à la situation d’énonciation le conduit vers la

définition du concept de « condition de félicité » :

« Une définition de la Condition de Félicité : toute disposition qui nous incite à juger les actes verbaux d’un individu comme n’étant pas une manifestation de bizarrerie. Derrière cette Condition, il y a le sens que nous avons de ce qui est sain d’esprit. Bien sûr, voila déjà quelques années que cela a été dit. Mais ce qui est nouveau (…), c’est qu’il convient désormais de considérer les analyses syntaxiques et pragmatiques comme décrivant empiriquement et en détail la façon dont nous sommes obligés de manifester notre santé mentale pendant les interactions verbales, que ce soit par la gestion de nos propres paroles ou par les preuves que nous donnons de notre compréhension d’autrui » (Idem : 164).

Les conditions de félicité d’une interaction, à plus forte raison dans une situation orchestrée

comme le sont les entretiens d’évaluation (examens, embauches, etc.), balisent intuitivement

la façon dont il convient de construire l’échange. Les règles du jeu sont déterminées par la

situation, mais, au-delà des règles ordinaires (réponse aux questions, courtoisie, politesse,

etc.), ce sont les jeux de positionnement et les codes implicites qui les régissent. Le candidat

est mis à l’épreuve d’analyser rapidement (voire intuitivement) les enjeux de la

communication pour s’adapter aux ruptures volontairement introduites par les examinateurs.

Faire preuve de félicité (et, par là même, « être félicité » lors de l’appréciation finale), c’est

non seulement avoir une attitude adaptée, mais aussi les positionnements pertinents en

fonction des modifications de la situation.

Page 221: UN REFERENTIEL, POUR QUOI FAIRE

221

Dans toute communication, il y a un nombre important d’informations supposées

connues par les interlocuteurs, qui constituent un socle de référence commun pour interpréter

les actes posés (niveau interprétatif d’A. Schutz). Par là même, chaque acte posé par un

participant induit chez les autres un (ou plusieurs) schéma(s) interprétatif(s), c'est-à-dire un

ensemble de phénomènes supposés par apprésentation : « pour donner du sens à l’acte, pour le

comprendre, etc. ». On appelle ces phénomènes implicites, induits par les rapports logiques

entre actes et situations, des présuppositions :

« On définira en gros une présupposition (…) comme un état de choses qu’on tient pour acquis en même temps qu’on se livre à une activité. (…) « Présupposition sociale » se réfère alors à un double thème : d’une part, le fait de tenir tacitement quelque chose pour acquis (qu’on s’en rende compte ou non) ; d’autre part, le fait de compter fermement et sans plus y réfléchir que les autres impliqués dans l’action en feront autant, du moins suffisamment, pour n’avoir pas de difficulté à interpréter et comprendre celle-ci en conséquence » (1981 : 205, 206).

Pour découvrir les « conditions de félicité » liées à une situation d’interaction, il est possible

d’analyser les présuppositions induites lors de l’échange. Il en existe de diverses sortes :

1) Les présuppositions, qui existent dans le texte, par exemple sous forme d’anaphores

(il, elle, lui, son, cela, etc.) : toute anaphore « présuppose son antécédent » (Idem :

211). Mais cela peut être aussi « le topique », le « focus » ou le « thème » (Idem :

220), qui engendrent la « cohérence » ou la « cohésion » d’un texte, auquel ils offrent

une base commune : c’est en particulier le cas lorsque les interlocuteurs sont des

connaissances. Cette conception de la topique offre des indices linguistiques pour

étudier les « ruptures de cadres » :

« il arrive que le premier locuteur s’aperçoive qu’un aspect imprévu de ses dires en est venu à servir de points de référence pour l’énonciation du locuteur suivant. Au pire, on a ce qu’on peut appeler une « rupture réflexive de cadre » (Idem : 222).

2) Les présuppositions qui se trouvent dans l’environnement : tout objet à portée de la

situation peut servir de support référentiel à l’énonciation, souvent à l’appui de gestes

ou de mouvements (indicateurs) qui orientent l’attention (celui-là, là-bas, etc.).

L’analyse des déictiques nous oriente aussi, de ce fait, pour étudier les situations

énonciatives.

3) Les scénarios induisent aussi des présuppositions à partir du moment où ils sont

partagés par tous les membres présents, par exemple certains scénarios de la vie

quotidienne. Les cognitivistes les nomment « scripts » :

« Notre capacité à produire un énoncé et à montrer que nous le comprenons autorise nos auditeurs à présupposer avec assurance notre compétence » (Idem : 232).

Page 222: UN REFERENTIEL, POUR QUOI FAIRE

222

Ces situations d’interaction scénarisée, indispensables dans les milieux professionnels

habitués à partager des actions collectives, sont aussi fréquentes dans les relations

intimes (Idem : 261).

4) Les présuppositions de l’interaction, qu’il est possible de classer en fonction du type

de situations : a) rencontres avec quelqu’un d’inconnu : excuses face à un imprévu,

évènement exceptionnel partagé, sommations, etc. ; b) rencontres avec quelqu’un

d’inconnu, mais dans une situation dont le scénario est institué : demandes de

renseignements dans la rue, choix des personnes interrogées, situation pour engager la

conversation, échanges avec les prestataires de service, relations avec certains

« représentants » investis d’une fonction sociale (policiers, professeurs, etc.) ; c)

rencontres entre personnes qui se connaissent « socialement », obligées « de se

rappeler à vue le nom de l’autre, ainsi que certaines données bibliographiques », car

cela constituera une base commune pour l’échange (Idem : 255) ; d) rencontres entre

des personnes qui sont étroitement liées, soit professionnellement, soit intimement, ce

qui induit des scénarios implicites (cf. ci-dessus).

Toutes ces présuppositions constituent des cadres de référence implicites auxquels s’ajustent

les interlocuteurs : il existe ainsi des codes et des modes de fonctionnement ritualisés, des

positions prescrites et des scénarios institutionnalisés par rapport auxquels se construit le sens

des interactions, langagières et situationnelles. Les représentations sociales sont des façons de

communiquer régies par des rituels sociaux ou des scénarios institutionnalisés. On peut alors

faire l’hypothèse, en ce qui concerne ces compétences de communication (pour reprendre un

concept développé par D. Hymes (1973, 1882/1991)), qu’il existe une inégalité entre les

participants qui ne possèdent pas les mêmes informations de contexte. Les travaux d’H.

Méhan, cités par A. Coulon (1987/1996 : 92, 93), ont « montré que la signification des

questions » lors des situations d’évaluation « n’est pas la même pour tous ». Mais on peut

pousser cette hypothèse un peu plus loin. A partir d’une analyse des rapports de jury (pages

339 à 346) et de quelques sujets d’examen, on peut faire l’hypothèse84 que les sujets de

dissertation, au moins pour les diplômes et recrutements d’un certain niveau de responsabilité,

sont rédigés de façon à induire des présuppositions : le candidat ne peut souvent répondre de

façon appropriée que s’il maîtrise suffisamment certaines données contextuelles implicites.

84 Cette hypothèse mériterait d'être vérifiée par des entretiens auprès des « experts » qui préparent les sujets d'examen. N’ayant pas accès à ces données, on a seulement confronté l'hypothèse aux critères des rapports de jurys et aux modalités des examens (expérience N° 3).

Page 223: UN REFERENTIEL, POUR QUOI FAIRE

223

Celles-ci sont présupposées dans la question, dont le candidat « doit comprendre le sens ». C.

Kerbrat-Orechioni nomme ces compétences rhétorico-pragmatiques. Ces mêmes mécanismes

sont aussi mis en œuvre à l’oral par les examinateurs expérimentés.

Les concepts d’E. Goffman apparaissent précieux pour analyser les situations

d’interaction que sont, de fait, les évaluations. Mais la représentation sociale, chez lui, est

sensiblement différente du concept proposé par A. Schutz : ce dernier inclut toute forme de

projection (projet, schéma-type, anticipation des actions de l’autre, etc.), alors que le premier

insiste surtout sur les aspects observables de la mise en scène.

« Ce qu’on a à l’esprit, c’est parfois qu’il existe un « auteur » des mots qu’on entend, c'est-à-dire quelqu’un qui a choisi les sentiments exprimés et les mots pour les encoder. Parfois encore, qu’il y a en jeu un responsable, au sens juridique du terme, quelqu’un dont la position est établie par les mots qui s’énoncent, dont les opinions sont exprimées, et qui est lié par ce que les paroles disent. On notera qu’on a alors affaire non pas tant à un corps ou un esprit qu’à une personne agissant sous une certaine identité, dans un certain rôle social, en qualité de membre d’un groupe, d’une fonction, d’une catégorie, d’une relation, d’une association, bref d’une source socialement établie d’auto-identification. Souvent cela signifie que l’individu parle, explicitement ou non, au nom d’un « nous » et d’un « je » (…), le « nous » incluant davantage que le moi » (E. Goffman ; 1981).

Comme tout objet de recherche en sciences sociales, la définition du concept apparaît ainsi

profondément induite par les orientations disciplinaires du traitement de l’objet. Pour notre

objet, le « Référentiel d'évaluation » - c'est-à-dire les systèmes de référence qui régissent ces

situations d’interaction -, on ne peut se limiter à l'étude des interactions sans analyser les

raisonnements mis en œuvre par les acteurs. Effectivement, si on se borne à observer leurs

actions, leurs positionnements ou les phénomènes d'interaction, pour en déduire leurs

référentiels implicites, ne risque-t-on pas d'appliquer les schémas-type des chercheurs aux

phénomènes observés (les cadres d'explication scientifique à la mode) plutôt que ceux des

acteurs réels ? Ainsi que l'ont mis en valeur les travaux d'A. Schutz, et quelques décennies

plus tard ceux d'H. Garfinkel (1967/2007), l'interprétation des données est induite par les

schémas-type que nous appliquons aux phénomènes. A. Cicourel a aussi soulevé cette

question de la projection des cadres de référence du chercheur sur les matériaux collectés au

cours de l’observation (1972 : 30). Pour pallier à cette difficulté, la « sociologie cognitive »,

proposée par cet auteur, a orienté son analyse sur les « procédés interprétatifs » qui permettent

à chaque acteur de se positionner au cours des interactions.

« Pour comprendre comment l’acteur obtient des renseignements (interprétation des symboles extérieurs, utilisation des catégories du langage) et comment il utilise les renseignements acquis pour appliquer la connaissance présumée à des circonstances particulières, il faut se référer explicitement aux procédés de déduction et à une théorie de la façon dont l’acteur attribue une signification aux objets et aux événements » (1972 : 31).

Page 224: UN REFERENTIEL, POUR QUOI FAIRE

224

Il propose donc d'étudier le « schéma commun de références », « considéré comme ensemble

de procédés interprétatifs qu’on peut étudier empiriquement » (1972 : 44). En particulier les

actions de socialisation des enfants constituent pour lui un « laboratoire permanent » pour

étudier cette acquisition de structures sociales communes (1972 : 95). La sociologie cognitive

introduit ici une problématique qui est directement en lien avec notre recherche, celle des

processus cognitifs à l’origine des « cadres de référence ». Au delà des phénomènes qui créent

du sens dans une interaction ou dans un échange langagier, quels sont ceux qui induisent la

construction sociale de ces significations ? Une posture réflexive est alors conseillée aux

sociologues pour s'interroger sur leurs propres façons de penser, en même temps que sur

celles des acteurs.

Les schémas des chercheurs ne se différencient guère de ceux du sens commun (A.

Coulon ; 1987/1996 : 52), ils sont déterminés par les mêmes contraintes intrinsèques à nos

formes de raisonnement et de communication. Mais il ne s'agit pas pour autant de nier la

valeur de ces schémas, développés et mis en forme au cours de décennies de recherches et de

communications : les formes institutionnelles de la discipline scientifique cadrent les

schémas-type de référence et les modes de pensée utilisés par les chercheurs, et ces cadres ont

pour objectif de les prémunir par rapport à des prises de position trop hâtives, insuffisamment

argumentées et non étayées par une observation systématique des faits. Et c'est au regard de

ces normes implicites qu'il est possible de confronter des objets de recherche, de comparer

leurs points communs et leurs différences. La « représentation sociale » est un ensemble de

modes d'interaction, d’indices et de signes (au sens défini au paragraphe précédent), collectés

par les acteurs (les examinateurs pour décider, mais aussi par les candidats pour ajuster leur

prestation, etc.) ; c'est le Référé de J.M. Barbier. Mais la notion de Référentiel induit une

nouvelle dimension, l'étude des processus cognitifs (de signification ou de référence)

appliqués par les acteurs à ces signes, c'est-à-dire le Référent. Lorsqu’E. Goffman étudie les

représentations sociales, il applique aux phénomènes observés des schémas-type du sens

commun et nous pouvons tous nous reconnaître dans ses descriptions, du moins en ce qui

concerne les actions de notre vie quotidienne. Mais étudier les Référentiels, en revanche, c'est

faire porter l'étude sur les conceptions qui structurent les schémas-type appliqués par les

acteurs, il ne nous est donc pas possible de limiter notre observation aux interactions, signes,

indices, conduites, etc. Pour connaître les procès cognitifs que les acteurs appliquent aux

phénomènes d'interaction, on a besoin de les interroger, soit par interviews, soit lors de

discussions, etc. sur les mobiles de leurs actions, la façon dont ils raisonnent, etc. Bien

entendu, cela suppose d’être en mesure d'analyser systématiquement ces réponses.

Page 225: UN REFERENTIEL, POUR QUOI FAIRE

225

La question de fond est ici : comment observer systématiquement le Référent ? Les concepts

proposés par E. Goffman permettent d'analyser les interactions au cours des processus

d'évaluation, mais pas les processus cognitifs des acteurs, du moins pas de façon systématique

et comparative. On verra dans la partie méthodologique que l'analyse des discours et l'analyse

pragmatique des situations d'énonciation offrent des outils pour résoudre ce problème. Mais

l'observation systématique des constructions langagières ne suffit pas. On a besoin de

découvrir la façon dont les phénomènes significatifs de l'interaction s'inscrivent dans ces

conceptions : sous une forme signifiante dans le discours, ou par une relation logique qu'il est

possible de déduire des rapports entre les indices de la situation et l'énoncé. Par exemple, les

déictiques (pronoms personnels, possessifs) et les présuppositions induites par le contexte de

leur utilisation peuvent être considérés comme des indices significatifs du « positionnement »

: ancrage égocentrique du « je » ; ou utilisation du « je », du « on » et du « nous » pour parler

de soi, du « tu » et du « vous » pour s'adresser à un interlocuteur, etc. Mais ces déictiques

n'ont pas de signification indépendamment de la relation syntaxique avec d'autres signifiants,

qui expriment aussi des indices sur la situation observée : par exemple, avec les verbes

modaux (devoir, vouloir, pouvoir, savoir, aimer, etc.) qui expriment l'état affectif ou

l’investissement => de l'énonciateur si l'ancrage est un « je », de l'interlocuteur si l'ancrage est

un « tu » ou un « vous », etc. L'analyse par niveaux structure cette approche du Référent

(critère, indicateur, indice). On s’inscrit donc dans la piste de travail préconisée par la

sociologie cognitiviste (l'étude des processus interprétatifs), tout en s'appuyant sur les

analyses des modes de communication, proposées par la sociologie interactionniste, mais à

travers la (re-) présentation que nous en fournissent les acteurs. Les schémas-type de

l’énonciateur s’expriment soit dans la construction de la figuration et des relations entre

figures (analyse de contenu), soit dans son positionnement par rapport à la situation

d’évaluation (analyse de l’énonciation).

On pourrait résumer l'hypothèse de travail de la façon suivante : les modalités de la

sélection s’opèrent de façon implicite au cours de l’évaluation : façons de parler,

positionnements, scripts, etc. Certains concepts de l'interactionnisme symbolique sont

pertinents pour analyser ces situations et préciser les enjeux :

- Les présuppositions sont des « états de choses » que les participants à l'interaction tiennent

pour acquis, qui n’ont pas besoin d’être explicités pour être compris et pour que les autres,

éventuellement, y réagissent.

Page 226: UN REFERENTIEL, POUR QUOI FAIRE

226

- La condition de félicité est une « disposition » qui, par acquisition de ces présuppositions,

nous incite à juger « ce qui est sain d’esprit ». Si nous la considérons par ailleurs comme

« la façon dont nous sommes obligés de manifester, (…) pendant les interactions

verbales, » notre compréhension des enjeux de la communication85, la situation d’examen

peut être conçue comme une interaction entre un examinateur et un candidat, au cours de

laquelle ce premier analyse, au regard des présuppositions attendues dans la profession, si

la condition de félicité est remplie lors de l’échange langagier… « que ce soit par la

gestion de la parole ou par les preuves données de la compréhension d’autrui ».

- Les cadres de participation de l’échange langagier constituent alors, implicitement, des

processus de référence. La façon dont certains signes, caractéristiques de la

reconnaissance professionnelle, sont mis en valeur pendant l’interaction puis interprétés à

partir de ces cadres, constitue le système de référence ou référentiel implicite. Pourquoi

ces signes ont-ils de l’importance ? En quoi constituent-ils des signes de reconnaissance ?

Quelle est leur fonction pour les professionnels ?

- Les rôles (routines), exprimés à travers des figures ou mis en scène lors de situations

conventionnelles, constituent des exercices au cours desquels les examinateurs « experts »

observent la façon dont les jeunes postulants intègrent différents indices, considérés

significatifs, dans des modes de fonctionnement et de communication : par exemple, le

respect des différentes régions de l'exercice professionnel, le positionnement dans telle

situation, la prise en compte des éléments du contexte pour résoudre un problème, etc. Le

candidat doit alors faire preuve de sa maîtrise des schémas-type adaptés, aussi bien au

cours de l'interaction que de la situation figurée.

On se propose donc d’observer ces processus à partir des éléments du contexte discursif et du

discours lui-même.

Les travaux d’H.S. Becker, qui s'inscrivent dans la même perspective (du moins la

même conception méthodologique que ceux d’E. Goffman), apportent un autre éclairage qui

enrichit cette hypothèse. Dans l'ouvrage qui a popularisé son travail, Outsiders, l'auteur

expose les principes fondamentaux de sa démarche, essentiellement qualitative, « l'induction

analytique » :

« Cette méthode exige que chaque cas recueilli dans l'enquête confirme l'hypothèse. Si le chercheur rencontre un cas qui ne la confirme pas, il doit reformuler l'hypothèse pour qu'elle concorde avec le cas qui a infirmé l'idée initiale » (H.S. Becker ; 1963/1985 : 65).

85 Formulation plus adaptée à notre problématique que la notion de « santé mentale ».

Page 227: UN REFERENTIEL, POUR QUOI FAIRE

227

En s'alignant sur le point de vue de quelques auteurs, il précise une position, qui tend à

s'affirmer de nos jours avec l'essor de l'ethnographie : la « déviance » n'est pas le rejet de

certaines normes, mais la priorité accordée à d'autres (idem : 52) ; il convient donc de prendre

le point de vue des acteurs pour « comprendre le processus d'interprétation à travers lequel il

construit ses actions » (idem : 195). Le sociologue bâtit de la sorte sa connaissance des

« systèmes de croyances » (idem : 109), des modes « d'expression symbolique » qui

permettent « d'identifier rapidement l'utilisateur compétent » et « l'étranger » (l’outsider)

(idem : 124), ainsi que des « carrières » : « suites d'ajustements au réseau d'institutions,

d'organisations, et de relations informelles » (idem : 126). Il étudie certains milieux

« déviants », comme les fumeurs de marijuana (idem : 64-102), mais aussi la culture

spécifique de certains milieux professionnels, jugés à son époque « déviants »86, les musiciens

de danse (idem : 103-144). A partir de l'analyse des textes de lois, il décortique la façon dont

la société construit ses normes : les « croisades morales » des mouvements - « entrepreneurs

de morales » - pour imposer ces normes, et l'articulation de celles-ci avec les représentations

sociales et les modes de fonctionnement des milieux institutionnels chargés de faire appliquer

les lois (idem : 145-200). Ces travaux d'H.S. Becker aboutissent ainsi à une « démystification

de la déviance » et rejoignent ceux qui ont fondé la « théorie de l'étiquetage » ou de la

stigmatisation : c'est la société (en tant qu'organisation des rapports entre humains) qui génère

la « déviance », ou en d'autres termes la déviance n'existe pas en tant que telle, mais

uniquement parce que certains comportements sont définis comme tels dans les

représentations sociales dominantes. Mais l'auteur se démarque sur un point particulièrement

important pour notre recherche, à savoir que « la science (…) est indépendante des valeurs ».

Il ne s'agit pas de prendre parti pour ou contre ces phénomènes de stigmatisation, mais de

comprendre pourquoi ils existent et comment fonctionne la société. En revanche, le

scientifique ne peut connaître et comprendre les phénomènes que s'il étudie « toutes les

parties engagées dans une situation, ainsi que leurs relations » (idem : 224). Ce principe

diverge profondément de la perspective prescriptive : l'objectif du scientifique n'est pas de

savoir si les pratiques scolaires ou professionnelles de l'évaluation sont « adéquates » (valeurs

éthiques toujours argumentées avec un vocabulaire scientifique : « cohérence »,

« pertinence », « validité », etc.), ni comment il convient de conduire l'évaluation pour être

dans des normes dites « scientifiques », mais de découvrir les systèmes de représentions et de

contraintes qui conduisent les acteurs à adopter ces modes de fonctionnement.

H.S. Becker, par son approche ethnographique, nous invite ainsi à étudier les univers

86 En France, de nos jours, on dirait plutôt « marginaux ».

Page 228: UN REFERENTIEL, POUR QUOI FAIRE

228

professionnels (1963/1985 : 233). Ce sont Les mondes de l'art (1982/1988) qui ont induit la

recherche la plus fournie du sociologue. Dans cet ouvrage, il affine son appréhension des

processus de normalisation des représentations, au sein d'un milieu socioprofessionnel. Il

s'appuie sur deux concepts, les « chaînes de coopération », réseaux « dont tous les acteurs

accomplissent un travail indispensable à l'aboutissement de l'œuvre » (1982/1988 : 49), et les

« conventions », « qui font partie (…) des méthodes habituelles de travail dans le domaine

artistique considéré » (idem : 53). Ces conventions « portent sur toutes les décisions à prendre

pour produire les œuvres », « indiquent les procédés à utiliser », « prescrivent la forme que

doit prendre l'application des procédés aux matériaux », « indiquent les dimensions

appropriées pour une œuvre », « régissent les relations entre l'artiste et le public » (idem : 54).

Mais elles ont aussi une fonction très importante dans la communication artistique :

« C'est précisément parce que l'artiste et le public ont une connaissance et une expérience commune des conventions mises en jeu que l'œuvre d'art suscite l'émotion » (1982/1988 : 54).

Les chaînes de coopération ont une connaissance partagée de ces conventions, ce qui permet

« de coordonner plus facilement et plus efficacement les activités des artistes et des

personnels de renfort ». Les artistes, mais aussi les différents métiers qui participent à la

construction de l'œuvre ou qui gravitent autour, sont plus ou moins contraints par ces

conventions. Par rapport à nos préoccupations, on s'attardera sur certains phénomènes mis en

valeur par H.S. Becker :

1) La mobilisation des ressources, matérielles et humaines, induit de nombreux modes de

fonctionnement. Ces contraintes ne pèsent pas que sur les artistes et leur gestion des

conventions, elles obligent aussi les personnels de renfort à développer des stratégies

pour garantir une certaine stabilité à leur activité professionnelle. Cet ensemble de

contraintes et de stratégie collective génère certains habitus typiques du milieu.

2) Les réseaux de distribution, pour construire ou fidéliser leur clientèle, sont enclins à

« créer ou former un public pour les œuvres dont ils s'occupent ». Cette action globale

des réseaux engendrent des représentations sociales de l'œuvre d'art.

3) Les esthéticiens et les critiques participent à l'affinement des jugements artistiques et

aux critères de choix des œuvres. Mais leur reconnaissance est aussi liée à l'écho qu'ils

rencontrent auprès des publics : « la valeur esthétique naît de la convergence de vue

entre les participants à un monde de l'art ». Il existe donc un jeu de reconnaissance

entre les artistes, les réseaux de distribution et ces esthéticiens/critiques.

Page 229: UN REFERENTIEL, POUR QUOI FAIRE

229

Cela ne se fait pas sans heurts, ni avec parfois de violents désaccords. « Mais la

plupart des jugements sont incontestés (...) ils reposent sur l'application systématique

des mêmes critères par des membres expérimentés » (idem : 169).

4) L'Etat intervient de multiples façons : répressions, censures, soutien officiel (achat

d'œuvres d'art, soutien financier, bourses, centres de recherche, etc.). Cette action peut

être plutôt centralisée (Paris, Londres) ou décentralisée. Mais dans les démocraties

occidentales, libérales, l'intervention de l'Etat est surtout régulatrice, soit pour

favoriser et réglementer la diffusion (copyright, droit de reproduction), soit pour

protéger les intérêts des auteurs et le respect de l'œuvre.

Les mondes de l'art ont des conventions spécifiques, mais ces jeux de représentations sociales

s'observent dans tous les milieux socioprofessionnels. Au fur et à mesure que se complexifie

et s'intensifie la division du travail dans nos sociétés, s'instituent des systèmes de coopération

entre les acteurs et des « conventions » qui régissent les procédures, les modes de

communication et les interactions. Celles-ci sont induites par les contraintes matérielles et

organiques, mais aussi par les jeux stratégiques des acteurs (marchands d'art, personnels de

renfort, critiques d'art, etc.). L'Etat réglemente l'action de ce microcosme, en fonction de ses

propres intérêts (censure, subventions), mais aussi des revendications qui s'expriment au sein

de celui-ci : régulation des échanges, protection des intérêts individuels, etc. C'est dans ce

contexte qu'on a choisi de replacer l'évaluation pour en cerner toutes les dimensions, et plus

particulièrement l'institution des diplômes professionnels. Une dimension spécifique permet

tout de même de mieux saisir les processus d'institutionnalisation des mondes de l'art : les

conventions évoluent rapidement et elles sont le lieu d'âpres luttes pour la reconnaissance.

Lorsqu’elles se transforment, H.S. Becker parle alors de « révolutions », « en élargissant

quelque peu l'acception donné à ce terme dans les analyses de T. Kuhn » (idem : 305). Les

passerelles entre art et artisanat illustrent certains enjeux sous-jacents à ces luttes. Dans

certaines professions (poterie, céramique, verrerie, etc.), l'artisanat se rapproche de l'activité

artistique, tant par la dimension esthétique de l'œuvre que les « critères d'évaluation de cette

production » (idem : 278). Les réseaux de distribution artistique (collectionneurs,

conservateurs, galeries, etc.) favorisent la diffusion de ces objets de grande qualité et, de ce

fait, la reconnaissance de la qualité du travail des artisans d'art. Ces derniers y trouvent une

libération par rapport aux contraintes imposées par les clients ou les employeurs, qui font

exécuter le travail en fonction de leurs propres objectifs ou de l'utilité des objets. Dans la

mesure où leurs pièces sont des modèles uniques, ils deviennent de fait des artistes.

Page 230: UN REFERENTIEL, POUR QUOI FAIRE

230

Inversement, « l'art académique » ou « l'art commercial » se soucient beaucoup plus de

satisfaire clientèle et employeurs que d'expressivité et de créativité, pourtant considérées par

mécènes et clients « comme deux qualités primordiales des œuvres d'art » (idem : 291).

« De sorte que la transformation d'un art en métier artisanal débouche sur l'apparition de jeunes artistes rebelles qui refusent les règles du jeu et secouent le joug des conventions. Ils proposent de nouveaux enjeux, une nouvelle donne où le savoir et la technique en vigueur ne sont plus d'aucune utilité pour mener à bien leur nouvelle entreprise. Ils présentent ou découvrent de nouveaux modèles, de nouvelles grandes œuvres qui établissent de nouveaux critères de beauté et d'excellence, des œuvres qui exigent d'autres compétences et une autre sensibilité. Bref, ils font une révolution » (H.S. Becker ; 1982/1988 : 297).

L'art apparaît ainsi comme une activité de remise en question des conventions établies, des

routines, des habitus. Ces transformations s'opèrent, soit progressivement par l'introduction

dans les conventions traditionnelles de nouveaux éléments, de nouveaux matériaux et de

nouvelles façons de faire, soit par des révolutions qui transforment radicalement les

conventions. Mais on ne peut parler de révolution que si « une innovation a donné naissance à

un réseau de coopération d'envergure » et les partenaires sociaux ont été persuadés « que ce

réseau produit bien des œuvres d'art » (idem : 335). L' « âme collective » d'E. Durkheim se

construit ainsi, d'innovation en innovation, de révolution en révolution, mais aussi à partir

d'évolutions beaucoup moins visibles et tout aussi déterminantes. Ainsi se modèlent de

nouveaux habitus liés à de nouveaux modes de production, des représentations sociales

induites par les réseaux de communication et de distribution, et des critères, conceptions

produites par le jeu de certains acteurs (critiques d'art, marchands d'œuvres, etc.), dont l'action

consiste à promouvoir certaines valeurs et à justifier les choix d'achat ou de consommation.

Ce modèle apparaît tout à fait pertinent pour étudier la constitution progressive et

l'institutionnalisation de tous les corps professionnels, même si acteurs et stratégies ne sont

pas les mêmes. Tous les métiers sont structurés autour de conventions qui régissent les

relations au sein de réseaux de coopération, ainsi que de conceptions qui justifient les façons

de faire (critères). La découverte de ces conventions par les jeunes générations n'est-elle pas

l'objectif de tout système de formation professionnelle ? Dans ce cas, l'évaluation n'apparaît-

elle pas comme un système social qui reproduit ces conventions ? Tout postulant doit

apprendre à les maîtriser pour s'insérer dans les réseaux de communication et de coopération

de son futur univers de travail. Une hypothèse qui, ainsi que nous le verrons plus loin, remet

en cause l'approche prescriptive de l'évaluation, la conception taxonomique du critère et notre

façon d'appréhender le terrain d'observation.

L'approche de ces phénomènes par d'autres courants sociologiques précisera ce cadre

méthodologique, en particulier les conceptions et modes opératoires de l'ethnométhodologie.

Page 231: UN REFERENTIEL, POUR QUOI FAIRE

231

Cette dernière apporte des analyses complémentaires, pour cerner certains enjeux des

situations d'évaluation. La conception européenne de la « représentation sociale », en

revanche, ne s'inscrit pas dans la même démarche. Le concept de « représentation » y est plus

proche de la conception philosophique. Elle offre un cadre de référence scientifique pour

analyser la façon dont les milieux professionnels véhiculent et s'approprient les concepts

scientifiques. Ses recherches expérimentales apportent des éléments de connaissance sur

l’interaction entre communications sociales et formation de nos concepts. Elles clarifient aussi

l’articulation entre conceptions, cadres de référence et représentations sociales.

c) La représentation sociale pour la psychosociologie :

La représentation sociale est conçue par la psychosociologie comme « une forme

particulière de la pensée symbolique, à la fois images concrètes saisies directement et en

même temps renvois à un ensemble de rapports plus systématiques, qui donnent une

signification à ces images » (A. Palmonari, W. Doise ; 1986 : 16).

Ainsi « les représentations se présentent toujours avec deux faces : celles de l’image et celle de la signification qui se correspondent réciproquement : elles font correspondre à chaque image un sens et à chaque sens une image (...) Dans ce sens, les représentations diffèrent donc d’une part des systèmes théoriques plus élaborés comme les idéologies et théories scientifiques et d’autre part des images en tant que produits immédiats des perceptions » (Idem).

Cette conception de la représentation sociale a été remise à l'ordre du jour par les travaux de

S. Moscovici (1961) sur la psychanalyse, plus exactement sur les différentes façons dont le

public, mais aussi les médias, se sont réappropriés les concepts de cette discipline. Bien qu'il

se réfère aux acceptions philosophiques dans la première partie de son ouvrage (« La

représentation sociale, un concept perdu »), cet auteur s'en démarque sur un point important :

« Afin de lui rendre une signification déterminée, il est indispensable de lui faire quitter son rôle de catégorie générale concernant l'ensemble des productions à la fois intellectuelles et sociales » (S. Moscovici ; 1961/1976 : 40).

C'est donc à travers l'observation des phénomènes de communication sociale que le

psychosociologue cherche à comprendre la façon dont se forment les représentations et la

façon dont elles se constituent en « chœur collectif » ou, dit plus simplement, en « opinion

publique » (idem : 66). Cette conception de la représentation sociale n'est pas antinomique

avec la conception de la sociologie interactionniste privilégiée Outre-Atlantique. A plusieurs

reprises, les différents auteurs européens font référence aux pratiques qui se fédèrent autour

d'une représentation - ou du moins, qui sont en rapport de référence avec elle.

Page 232: UN REFERENTIEL, POUR QUOI FAIRE

232

L’adaptation des conceptions scientifiques aux exigences de la pratique est ainsi mise en

valeur par certains travaux, en particulier ceux de P. Vergès sur Les représentations sociales

de l'économie (D. Jodelet ; 1989/1994 : 387-404) : elle constitue certainement un des moteurs

de leur formation. L' « objectivation » en est une des conséquences : elle est décrite, par S.

Moscovici, comme un phénomène de « naturalisation » des concepts, une adaptation des

signes langagiers aux réalités vécues par l'acteur. Les théories deviennent des outils pratiques,

souvent distantes de leur conception première. Ainsi le concept de « complexe » est vécu

comme un attribut des individus (« il ou elle est complexé(e) ») et non plus comme une réalité

complexe :

« Dans la mesure où le contenu scientifique suppose un certain type de réalité, il en émerge une incitation à la création des êtres (par identification du concept et du réel). Puisqu'une science parle d'organes et que la psychanalyse est une science, l'inconscient, le complexe, seront des organes de l'appareil psychique. On peut enlever, dégager, acquérir des complexes : il y a assimilation du vivant à l'inerte, du subjectif à l'objectif, du psychologique au physiologique » (S. Moscovici ; 1961/1976 : 125).

Mais ces observations ne signifient pas que la représentation sociale est une conception

scientifique dégradée. Ainsi que le montre brillamment P. Vergès, elles n’ont ni les mêmes

fonctions sociales, ni les mêmes logiques opératoires :

« Représentations économiques et sciences du même nom utilisent des raisonnements différents. Les premières se servent de raisonnements ayant pour base la similitude, voire l'analogie ou la métaphore, alors que la démarche scientifique visera le raisonnement hypothético-déductif et un système de relations causales entre les notions (…) Ces deux langages ne s'ignorent cependant pas. Ils se rencontrent ou se côtoient en différentes occasions : formations, information, publicité, débats économiques et politiques » (P. Vergès dans D. Jodelet ; 1961/1994 : 388, 389).

Les représentations sociales rapportent les concepts scientifiques dans des situations vécues

par des acteurs, dans des réalités signifiantes, mais aussi dans des contextes où elles ont une

utilité pour eux. En ce sens, elles « sont efficaces, elles guident un ensemble de

comportements », une efficience qui ne se limite pas aux applications individuelles, mais qui

englobe aussi des enjeux sociaux (idem : 402). Ainsi « une représentation fait circuler et

réunit des expériences, des vocabulaires, des concepts, des conduites qui proviennent

d'origine très diverses » (S. Moscovici, 1961/1976 : 60). Ce positionnement pragmatique d'un

acteur qui s'approprie de la sorte un ensemble de conceptions pour les agréger en fonction de

ses besoins pratiques induit un autre phénomène.

« En ce qui concerne l'élaboration sociale d'une représentation, il s'agit moins d'un éclectisme que d'une tentative pour instrumentaliser le modèle scientifique, et le reconstruire autour de valeur et de systèmes de catégories disponibles » (S. Moscovici; 1961/1976 : 119).

Page 233: UN REFERENTIEL, POUR QUOI FAIRE

233

Pour construire la représentation sociale adaptée à ses pratiques professionnelles, l’acteur les

inscrit dans un système de conceptions déjà existantes, de valeurs qui motivent ses actions, de

catégories qui lui permettent de classer les phénomènes, de relations logiques qui justifient ses

inférences, etc. Les nouveaux concepts introduisent alors de nouvelles façons de classer les

phénomènes et de les organiser en fonction des schémas-types adaptés aux nouveaux besoins

sociaux. Qualifier quelqu’un d’ « orgueilleux » ne produit pas le même sens que de dire : « il

a un complexe de supériorité » ; il en est de même si nous remplaçons le terme de « timidité »

par « complexe de timidité » (S. Moscovici ; 1961/1976 : 127-130). Les nouveaux concepts

modifient ainsi les structures de la signification. Si on se réfère au modèle que l’on a proposé

à partir des théories d’A. Schutz, on peut dire que les indices et les images ne s’intègrent plus

de la même façon dans les systèmes de référence qui les lient aux schémas interprétatifs. Par

là même, les relations de signification qui existent entre eux (entre indices, entre images, etc.)

ne sont plus les mêmes en raison de ces nouvelles catégories de regroupement (niveau

analogique). Ces nouveaux concepts, qui rassemblent ainsi un certain nombre de phénomènes

observés ou imaginés en unités signifiantes, sont réorganisés pour s’adapter aux schémas-

types des acteurs. La représentation qui en émerge est « naturellement objectivée », en

relation de référence avec des phénomènes naturels et/ou des images mentales. Cette

restructuration de nos catégories intellectuelles agit au niveau de chaque individu quand, par

exemple, nous lisons un livre scientifique qui nous marque ou participons à une formation qui

transforme nos représentations. La question posée par les psycho-sociologues est de savoir

comment les processus agissent au niveau social pour générer des significations et des

systèmes de référence adoptés par tout un groupe social, voire par une communauté culturelle

et/ou linguistique. Pour progresser dans cette problématique, il nous faut maintenant aborder

la notion d’ « ancrage », concept emprunté à la psychologie de la forme (Gestalt)87, qui est un

autre type de processus analysé par S. Moscovici :

« L’ancrage, lui, désigne l’insertion d’une science dans la hiérarchie des valeurs et parmi les opérations accomplies par la société. En d’autres termes, par le processus d’ancrage, la société change l’objet social en un instrument dont elle peut disposer, et cet objet est placé sur une échelle de préférence dans les rapports sociaux existants » (1961/1976 : 170, 171). « L’ancrage : ce processus nous permet d’incorporer quelque chose qui ne nous est pas familier et qui nous crée des problèmes dans le réseau de catégories qui nous sont propres et nous permet de le confronter avec ce que nous considérons un composant, ou membre, typique d’une catégorie familière » (A. Palmonari, W. Doise ; 1986 : 82).

87 Cette notion d’ancrage a aussi été abordée lors de la présentation de la docimologie. Elle est à l’origine des recherches sur les critères, proposées par ce courant de pensée.

Page 234: UN REFERENTIEL, POUR QUOI FAIRE

234

Pour acquérir de la signification, les nouveaux concepts ont besoin de s’intégrer dans un

champ conceptuel déjà construit et signifié (niveau catégoriel/analogique). Cette inscription

dans le champ des catégories existantes s’opère en fonction des relations logiques qui sont

déjà formées entre les concepts (De quel type de concept s’agit-il ? Dans quel domaine

s’inscrit-il ?). Mais le nouveau concept est aussi ajusté en fonction des images mentales

auxquelles il est possible de le référer (niveau associatif) et des schémas-type dans lesquels il

a une fonction opératoire (niveau interprétatif), processus qu’on identifiera plus loin à la

référenciation et à la référentialisation. La notion d’ancrage reflète ainsi l’ensemble des

phénomènes d’inscription d’un nouveau concept dans un (ou plusieurs) champ(s) conceptuels

existant(s) ou/et dans un (ou plusieurs) système(s) de référence, soit mémorisés sous la forme

d’images mentales, soit structurés sous forme de schémas-type. Le travail d’ancrage vise ainsi

à « familiariser » la nouveauté, « la transformer pour l’intégrer dans l’univers de pensée

préexistant » (D. Jodelet ; 1989/1994 : 52).

« Cette opération d’ancrage peut être rapprochée de ce que les linguistes nomment référenciation. Elle a pour effet de provoquer, chez le locuteur comme pour son auditoire, l’activation de certains champs du préconstruit culturel » (J.P. Grize, P. Vergès, A. Silem ; 1987 : 41).

On pourrait donc définir l’ancrage comme un phénomène d’adaptation (au sens de J. Piaget)

des nouvelles formes écrites ou phoniques (signifiants de la linguistique) dans un champ

conceptuel (catégories et relations logiques) et/ou un système de référence (imaginaire ou

interprétatif). Une telle modélisation, adaptée à notre objet, se différencie cependant de celle

des psychosociologues. Ceux-ci n’ont pas cherché à distinguer les processus de signification

et de référence88. Ils ont privilégié, à travers leurs travaux, les processus d’appropriation des

concepts scientifiques, ou de normalisation des représentations sociales en fonction des

contextes de leur développement. Les travaux de S. Moscovici sur la diffusion de la

psychanalyse dans la presse (1961/1976 : 2ème partie), à partir d’une analyse discursive des

articles, apparaissent l’exemple pionnier : dispersion de l’information et décalage, focalisation

sur certains objets ou problèmes, pression à l’inférence qui existe dans un groupe social, etc.

D’autres travaux ont pris ensuite la relève. On citera, en particulier, ceux de D. Jodelet

(1989/1995), sur les systèmes de relations entre une population rurale et des malades

mentaux, dans le cas d’une expérience psychiatrique ouverte (Colonie d’Ainay-le-Château).

88 Notons cependant que ce n’est pas le cas de J.P. Grize, P. Vergès et A. Silem qui ont une approche sémiologique, et non psychosociale, des représentations sociales. S’ils n’ont pas la même approche de la

Page 235: UN REFERENTIEL, POUR QUOI FAIRE

235

L’auteur a mis en valeur :

« le développement d’un système institutionnel parallèle à celui du système hospitalier, assurant de la part des habitants, la régulation de l’intégration des malades au sein de la collectivité et des familles « l’émergence d’une culture locale concernant le rapport aux malades et à la folie, sa cristallisation dans des règles et des modèles de conduites transmis de génération en génération « les différents types de savoirs dont l’intrication contribuait à l’élaboration de représentations dans un milieu où coexistent un hôpital psychiatrique diffusant certaines informations et un milieu rural » (D. Jodelet, dans W. Doise et A. Palmonari ; 1986 : 175).

Bref ! Un système de représentations sociales qui s’est progressivement institué, qui s’appuie

sur des « modèles de conduites », et qui intègre les savoirs scientifiques sur la folie, avec

force objectivations et ancrages dans les croyances traditionnelles. Les représentations

sociales se forment et s’organisent pour défendre une identité, pour défendre un groupe social

contre – ou du moins pour le démarquer de – l’Autre différent, de l’Autre inquiétant. La

communauté structure ainsi ses propres représentations sociales, en agrégeant diverses

conceptions autour de ses croyances (ancrage) et en les adaptant à ses conditions de vie et à

ses besoins pratiques (objectivation). Ainsi que le note R. Harré :

« l’une des caractéristiques des travaux de Moscovici a été de mettre l’accent sur les liens entre l’activité linguistique et la manifestation des représentations sociales » (Idem : 132).

Ces travaux ont ainsi ouvert un espace de recherche sur la complexité de l’articulation entre

représentations, connaissances et langage. La représentation sociale acquiert ainsi une

dimension beaucoup plus générale, qui l’inscrit dans des problématiques sociologiques

particulièrement pertinentes pour étudier les Référentiels :

« Notre exemple permet aussi d’approcher une première caractéristique de la représentation sociale sur laquelle s’accorde la communauté scientifique. C’est une forme de connaissance socialement élaborée et partagée, ayant une visée pratique, et concourant à la construction d’une réalité commune à un ensemble social. Également désigné comme « savoir de sens commun » ou encore « savoir naïf », « naturel », cette forme de connaissance est distinguée, entre autres, de la connaissance scientifique. Mais elle est tenue pour un objet d’étude aussi légitime que cette dernière en raison de son importance dans la vie sociale, de l’éclairage qu’elle apporte sur les processus cognitifs et les interactions sociales. On reconnaît généralement que les représentations sociales, en tant que systèmes d’interprétation régissant notre relation au monde et aux autres, orientent et organisent les conduites et les communications sociales » (D. Jodelet ; 1989/1994 : 36).

Ces concepts apparaissent donc tout à fait adaptés à l’étude des Référentiels, si du moins on

adopte une position descriptive qui étudie les modalités d’action adoptées par les partenaires,

et non une position prescriptive qui attribue une supériorité à la modélisation scientifique sur

celles mises en œuvre par les professionnels.

signification et des systèmes de référence que la présente recherche, ils n’en emploient pas moins les termes dans une acception linguistique et sémiologique qui correspond à celle adoptée ici.

Page 236: UN REFERENTIEL, POUR QUOI FAIRE

236

On peut distinguer, pour ce courant de pensée, deux périodes et quatre méthodes :

- la première période est celle de la sociologie, avec les différentes approches statistiques,

croisement de variables, quantification et recherche de facteurs explicatifs ; mais ces

démarches quantitatives sont complétées par des méthodes qualitatives, en particulier

l’analyse du discours pour connaître les motivations des acteurs, du moins de leurs actes,

et découvrir ainsi leurs modes de fonctionnement ; on retrouve ici en partie les mêmes

modes d’investigation des objets que ceux de la sociologie de la reproduction. Les travaux

de S. Moscovici (1961) ne sont-ils pas contemporains à ceux de P. Bourdieu ? Mais, à la

différence de ce dernier, le premier s’est plus orienté, pour expliquer les dynamiques

sociales, vers l’étude des phénomènes psychiques que vers les intérêts de classe liés au

marché de la production89. Ce marquage psycho-sociologique de S. Moscovici s’observe

dans le choix du sujet, une sociologie de la « psychanalyse », mais aussi par le choix

méthodologique, l’analyse des phénomènes sociaux à partir de processus psychologiques.

- C’est certainement cette orientation qui a conduit ce courant de pensée, dans la seconde

période, vers une exploitation plus conséquente de protocoles psychosociologiques. On

peut citer, en particulier, les recherches S. Moscovici et W. Doise, qui étudient « comment

les décisions menant au consensus métamorphosent en même temps les catégories de

pensée individuelle en catégories de pensée sociale » (1992 : 72). Mais il est aussi

possible de se référer aux travaux de W. Doise et G. Mugny, dont « le but est de proposer

une définition sociale » de l’intelligence intégrant celle de J. Piaget :

« Ce serait précisément en coordonnant ses actions avec celles des autres que l’individu acquerrait la maîtrise de systèmes de coordination, ensuite individualisés et intériorisés » (W. Doise et G. Mugny ; 1997 : 36).

On reviendra ci-dessous sur les principaux résultats de ces travaux, et les conclusions

qu’on peut en tirer au regard de notre objet de recherche.

- Mais ce « nouveau champ d’étude » s’est aussi ouvert à de nouveaux chercheurs qui ont

apporté leur contribution, tant en termes d’expériences, de méthodes, que d’esprit

critique : A. Palmonari, C. Flament, J.P. Di Giacomo, C. Herzlich, J. Jodelet (W. Doise,

A. Palmonari ; 1986), J.C. Abric, M. Gilly (D. Jodelet ; 1989/1994), etc. La méthodologie

de recherche a alors évoluée vers de nouvelles pistes, à la fois induite par la complexité du

traitement des discours (entretiens, questions ouvertes, etc.), et par les critiques auxquelles

les premières approches étaient confrontées.

89 C’est d’ailleurs en ces termes que P. Bourdieu analyse la conquête du marché des productions langagières, en étroite interdépendance avec le capital culturel dont disposent les différents acteurs sociaux (P. Bourdieu ; 1982).

Page 237: UN REFERENTIEL, POUR QUOI FAIRE

237

D. Jodelet expose de façon synthétique quelques unes de celles-ci :

« imposition à la population de la problématique, des pré-conceptions et des catégories du chercheur ; hypothèse de la transparence des discours ; clôture du discours coupé de son contexte de production et sans rapport avec les pratiques ; réponses de complaisance ou de désirabilité sociale ou encore rationalisations par rapport à des positions effectivement adoptées ; caractère intuitionniste des interprétations ; lecture du sens de type herméneutique sans maîtrise des mécanismes d’émergence des significations, etc. » (D. Jodelet dans W. Doise, A. Palmonari ; 1986 : 171, 172).

Il ne semble pas utile de revenir sur ces écueils, dont certains ont déjà été déjà abordés au

cours de l’exposé de cette thèse, mais il est particulièrement intéressant de noter la

solution préconisée par l’auteure, qui s’est inspirée de la conception anglo-saxonne de la

représentation sociale - E. Goffman et H.S. Becker sont cités par elle (idem : 72) :

« Pour éviter les risques de l’interprétation subjective abusive, j’ai tenté de saisir le discours dans leur contexte de production et de faire émerger les significations liées à leur contexte d’usage » (Idem : 179).

Deux problèmes différents sont posés ici de façon synthétique : 1) celui de la

transférabilité des résultats extraits d’expériences à des situations réelles ; 2) celui de la

sélection des phénomènes pertinents, face à la masse d’informations à collecter : la

représentation sociale étant un phénomène complexe, le choix de cette sélection risque

d’être induit par les représentations du chercheur. Par conséquent, outre l’observation en

situations réelles, ou suffisamment similaires (encore que, pour ce dernier cas, les biais ne

soient pas exclus), il est indispensable de rapporter les actions observées aux explications

que nous en donnent eux-mêmes les acteurs. D. Jodelet introduit ainsi l’approche

ethnographique dans son appréhension des représentations.

- Mais l’analyse du discours des acteurs est tout aussi complexe. Non seulement les mots

n’ont pas la même signification pour tous, problématique incontournable pour l’étude des

représentations, mais encore une même formule peut avoir des sens différents en fonction

du contexte (ce qu’illustre bien l’ironie, par exemple). Cette dimension pragmatique du

discours a aussi son importance dans les modes de communication implicites. Divers

auteurs se sont attaqués à ces questions complexes. La coordination avec certains travaux

cognitivistes, en particulier les recherches sociolinguistiques comme celles de R. Harré

(idem : 131-151) ou U. Windisch (idem : 169-183) ont ouvert un ensemble de

questionnements. Celles de J.P. Grize et P. Vergès, évoqués ci-dessous, ont apporté de

précieux outils d’analyse. Plusieurs études ont porté sur les significations partagées autour

de concepts clefs, le plus souvent sous forme de questions ouvertes ou d’associations

libres : à tel mot, signifiant du concept étudié, quelles caractéristiques sont assimilées ?

Page 238: UN REFERENTIEL, POUR QUOI FAIRE

238

Divers traitements statistiques ont, dans un premier temps, été appliqués aux réponses. Par

exemple, P. Salmaso et L. Pombeni, ont étudié « le concept de travail » (W. Doise, A.

Palmonari ; 1986 : 197-206). J.P. Di Giacomo a étudié un « mouvement de

revendication » à partir des concepts que celui-ci proposait et des images qui pouvaient se

diffuser sur lui (idem : 118-138). Mais, là encore, la construction conceptuelle est

proposée par le chercheur : concepts privilégiés par lui, relations logiques entre les

concepts, rapports entre les concepts et les schémas-types de la pratique, etc. Comment

discerner ce qui est essentiel dans l’expression de l’acteur, du moins par rapport à sa

pratique dont on essaie de saisir la logique ? La notion de « prototype » des cognitivistes a

pu être évoquée pour justifier ces méthodes de catégorisation conceptuelle, les exemples

communiqués spontanément pour un concept étant un moyen de dégager les caractères

associés à celui-ci (P. Salmaso et L. Pombeni, article cité ci-dessus). Mais les schémas,

caractéristiques de ces exemples, n’ont de sens qu’en rapport à des actions finalisées, dans

des situations données. La catégorie n’est pas un condensé d’actions et de schémas, mais

le produit d’une socialisation complexe (cf. G.R. Semin dans D. Jodelet ; 1989/1994).

Cette difficulté est illustrée par cet exemple relevé par J.B. Grize, P. Vergès et A. Silem,

qui utilisent cette méthode :

« Supposons qu’au stimulus « Nouvelles technologies » (question 3), quelqu’un réponde « Investissement ». Que veut dire sa réponse ? L’investissement financier de la compagnie ou son investissement cognitif et personnel d’adaptation ? » (1987 : 18).

Par conséquent, l’interprétation de la relation sémantique entre un concept prototypique et

ses attributs, expression de ses caractères, n’est exempte d’ambiguïté que si ces derniers

peuvent être rapportés à des contextes précis, à des types de schémas qui justifient

l’énonciation. Mais ces schémas peuvent aussi bien être induits par le contexte de

l’énonciation que par le sujet du discours, ce qui demande une certaine prudence lors de

l’analyse. La notion de « noyau central » a été une autre façon d’aborder ces

contradictions. « Elément par lequel se crée ou se transforme la signification des autres

éléments », il « détermine la nature des liens qui (les) unissent entre eux ». Il est

« structurant », assure une fonction « génératrice » et « organisatrice » : sans lui, la

signification des éléments serait différente (J.C. Abric dans D. Jodelet ; 1989/1994 : 197).

Mais, là encore, la difficulté est d’identifier, de façon fiable et valide, ce « noyau central ».

Page 239: UN REFERENTIEL, POUR QUOI FAIRE

239

Il n’existe pas de modèles mathématiques pour le discerner, ni de structure logique pour le

découvrir. Enfin, s’il est possible de réifier, à partir d’indicateurs langagiers, la notion de

« script » des cognitivistes, pour identifier certains schémas-type, les rapports de ceux-ci

avec le noyau central restent pour le moins diffus. (C. Flament dans D. Jodelet ;

1989/1994 : 207-210). Par conséquent, cette différenciation entre noyau central et aspects

périphériques de la représentation sociale n’est pas simple à identifier. R. Ghiglione, B.

Matalon et N. Bacri (1985) ont cherché à l’opérationnaliser, à travers l’analyse des

discours, autour de la notion de « référent noyau », on y reviendra dans la partie

méthodologique. Mais, même dans ce cas, ce dernier est intrinsèque au mode de

construction du discours, dans une situation donnée, à un moment donné, dans un espace

donné. Certes il existe des constantes, mais peut être parce que nos situations de vie ne

changent pas tous les jours, heureusement. L’approche socio-logique de J.B Grize, P.

Vergès et A. Silem a introduit une nouvelle proposition : rechercher les modes de

construction de la représentation sociale dans l’organisation du discours en contexte, c'est-

à-dire dans l’organisation morphosyntaxique, mais aussi dans les rapports logico-

pragmatiques entre texte et contexte. Leur volonté est d’ « articuler (…) les contraintes

méthodologiques des approches de la sociologie et de la logique naturelle (…) d’où la

présence de questions fermées et ouvertes » (1987 : 57). Ils s’inscrivent dans « trois plans

d’analyse », celui de la société, des cadres de connaissance et de l’acteur social (Idem :

23), prennent en compte trois « ensemble de processus sociaux », idéologies, matrices

culturelles d’interprétation et pratiques (Idem : 27-31) et l’abordent à travers trois procès :

« La prototypicalité nous fournira l’ancrage du discours, la connotation nous permettra de construire les classes-objets, l’organisation enfin correspondra à la schématisation » (Idem : 47).

Le prototype n’est pas recherché dans une classification des attributs, comme chez P.

Salmaso et L. Pombeni, mais plutôt dans la façon dont l’ancrage apparaît dans le discours

de l’acteur et construit celui-ci autour d’un point de référence commun (ancrage de

l’énonciation, « je de l’acteur social », etc.). La classification des attributs n’en est pas

pour autant abandonnée, mais elle a pour objet de connoter le texte, c'est-à-dire de le

situer dans le contexte de son évocation (cotexte), de définir les cadres de référence des

énonciateurs, de déterminer leurs champs sémantiques (Par rapport à l’exemple précédent,

il s’agit ainsi de différencier la signification pertinente du mot « investissement »).

« A partir des lexiques des répondants, c'est-à-dire des mots employés dans l’évocation, (…) au regard d’une analyse des représentations sociales, il importe moins de saisir un vocabulaire que de voir dans celui-ci l’expression d’une modalité de connaissance » (Idem : 68).

Page 240: UN REFERENTIEL, POUR QUOI FAIRE

240

Enfin la schématisation est la façon d’analyser les constructions typiques exprimées par la

structure du texte. On entre plus dans l’étude formelle du texte, dans l’analyse

morphosyntaxique, dans le décodage de scripts. Ainsi que le notent les auteurs, « bien des

méthodes ont été proposées pour cela (…) mais aucune n’est universelle (…) chaque

méthode répond à certaines questions mais pas à d’autres » (Idem : 82). On approfondira

cette question dans la partie méthodologique.

C’est cet axe sociolinguistique qui a été privilégié dans cette thèse. Mais D. Jodelet a

montré l’importance de rapporter les discours des acteurs à leurs pratiques quotidiennes et J.B

Grize, P. Vergès et A. Silem s’orientent dans la même direction. Les concepts de la sociologie

interactionniste (positionnement, mode, modalisation, présuppositions) seront donc pertinents

pour nos analyses, à partir du moment où il est possible de les identifier dans le discours des

acteurs - ce que laissent présager les derniers travaux d’E. Goffman (1981/1988). A ce titre, le

concept de « positionnement » apparaît plus adapté que celui de « prototypicalité » pour

identifier les ancrages des acteurs, à travers leur discours. G.R. Semin a expliqué l’ambiguïté

de ce concept lorsqu’il est assimilé à des structures schématiques (G.R. Semin dans D.

Jodelet ; 1989/1994 : 248). On a aussi insisté sur l’importance de ne pas réduire la notion de

schémas-type à une typologie intellectuelle et dogmatique (A. Schutz ; pages 204 à 210),

écueil difficile à éviter si les schémas sont concentrés dans des prototypes. Le concept de

« modalisation » d’E. Goffman complète celui de positionnement pour analyser les types

d’ancrage et d’investissement du discours, d’autant qu’il existe de nombreuses formes

syntaxiques pour exprimer la notion de « mode ». Cette façon d’identifier les représentations

sociales dans le discours des acteurs sera développée dans la partie méthodologique.

On conclura ce paragraphe par les aspects qu’on a décidé de laisser de côté dans la

présente thèse, la dimension psychologique et l’approche par protocole expérimental90. On

abordera seulement le résultat de certains travaux d’orientation plus psychologiques,

présentés dans deux ouvrages : Psychologie sociale et développement cognitif de W. Doise et

G. Mugny (1997) et Dissensions et consensus de S. Moscovici et W. Doise (1992). Ceux-ci

nous apportent des éclaircissements sur deux questions fondamentales concernant les

représentations sociales. Quels sont les processus cognitifs qui en favorisent l’émergence :

1) au niveau de l’ontogenèse (psychologique) ; 2) au niveau de la phylogenèse (historique) ?

90 La première expérience présentée en 4ème partie s’est inspirée des protocoles de la docimologie et de la pragmatique), mais ce paradigme (MEO) n’a pas été choisi pour approfondir la suite des travaux sur les représentations sociales, dans la mesure où il s’adaptait à l’objet « référentiel ».

Page 241: UN REFERENTIEL, POUR QUOI FAIRE

241

La première série de travaux (W. Doise et G. Mugny) traduit la volonté de lier deux

approches, psychologique et sociologique, du moins celles « symbolisées par deux noms :

Piaget et Bourdieu » (1997 : 7). L’hypothèse est simple :

« Ce serait précisément en coordonnant ses actions avec celles des autres que l’individu acquerrait la maîtrise des systèmes de coordination, ensuite individualisés et intériorisés » (Idem : 36).

Les auteurs s’appuient, entre autres, sur les théories de L. Vygotski pour étayer leur

hypothèse. Aussi n’est-ce pas un hasard s’ils ont construit leurs protocoles surtout avec des

enfants de six à huit ans, c'est-à-dire au moment de la formation des concepts - du moins au

sens où le psychologue russe a défini ce terme. Leur concept de « marquage social » permet

de bien cerner leur approche, et leurs résultats essentiels :

« Nous avons proposé la notion de marquage social pour analyser l’intervention causale des régulations sociales dans le développement cognitif. Il y a marquage social quand il y a homologie entre, d’une part, les relations sociales caractérisant l’interaction des protagonistes d’une situation spécifique et, d’autre part, les relations cognitives portant sur certaines propriétés des objets qui médiatisent les relations sociales » (Idem : 44).

En particulier, les auteurs s’appuient sur des expériences où ils font intervenir des situations

de partage. De même, les effets de modèle, les conflits sociocognitifs, la coordination des

points de vue, conduisent à une maîtrise plus rapide des concepts quand le problème posé à

l’enfant implique « d’engager une relation interindividuelle, une relation avec autrui ». En

raison de ces homologies, les processus logiques appliqués lors des actions individuelles sont

similaires à ceux appliquées pour gérer les relations de groupe, et vice versa. Il en résulte que

le travail collectif est particulièrement productif lors de l’acquisition d’un nouvel instrument

cognitif ou de nouvelles notions. C’est « lors de l’amorce d’une notion que ces effets

spécifiques apparaissent le plus clairement » (Idem : 72). À ce moment là « le travail collectif

peut être supérieur au travail individuel » (Idem : 208). Les représentations qui gèrent l’action

collective sont donc de même nature que celles qui régissent les actions individuelles. Les

schémas-typiques de nos raisonnements sont donc induits par les modes de communication au

sein de la société, dont nous intégrons petit à petit, sans même nous en apercevoir, les règles

d’usage et la logique implicite. Les représentations sociales se reproduisent ainsi de

génération en génération et sont intégrées comme si elles coulaient de source ou découlaient

de valeurs universelles.

Page 242: UN REFERENTIEL, POUR QUOI FAIRE

242

Le second type de travaux (S. Moscovici et W. Doise) est plus centré sur la façon dont

les dynamiques de groupe génèrent des consensus qui se transforment en « prototype social »,

cadre de référence pour toute une communauté. Par diverses expériences, les auteurs étudient

les phénomènes de convergence des opinions qui s’opèrent lors de la participation à des

discussions collectives. Ils différencient les notions de « consensus » (par opposition à

« dissensions ») et de « compromis » (par opposition à « extrême »), en montrant que les

débats collectifs entre pairs aboutissent le plus souvent à des « consensus extrêmes », qui

renforcent les positions identitaires du groupe :

« La polarisation des attitudes et des jugements résulte de la nécessite de se conformer à la catégorie ou au prototype de son propre groupe. En agissant ainsi, chacun se sent identique aux autres » (1992 : 228).

La participation active à la décision favorise l’adhésion à la décision qui sera prise à l’issue

des échanges, phénomène que K. Lewin avait déjà fait émerger au cours de certaines

expériences :

« Chaque participant, après avoir pensé à haute voix au même problème, échangé des arguments en public à propos des diverses solutions, en vient normalement à intérioriser cette représentation pertinente sur le plan intellectuel et la fait sienne. Elle devient le cadre par rapport auquel le reste des attitudes et jugements sont ajustés pour que chacun se trouve sur la même longueur d’onde que le groupe. Si, après avoir pris la décision ensemble, les individus lui restent fidèles et s’y sentent engagés, c’est assurément pour ne pas rompre l’harmonie une fois atteinte. De ce fait, se forme et progresse une psychologie sociale aux dépens des psychologies individuelles, puisque en ce cas, comme l’écrivait Durkheim, « le consensus est donc aussi parfait que possible ; toutes les consciences vibrent à l’unisson » » (1992 : 247).

Les expériences de S. Moscovici et W. Doise visent ainsi à préciser l’étude des phénomènes

qui conduisent à l’institution de valeurs communes et partagées. Les diverses cultures

génèrent ainsi des formes de communication instituées « qui les mettent à même de maîtriser

le jeu du conflit et de l’influence selon l’action poursuivie » (Idem : 210). Les solutions de

compromis résultent le plus souvent de l’intervention de personnes investies de pouvoir qui

interviennent dans les débats pour contrôler cette « tendance à exacerber les différences et

l’extrémisme » (Idem : 222). Ainsi les jeux de communication s’opèrent-ils à la fois pour

générer des consensus identitaires, en particulier lors des phases de dissensions et de

flottement du pouvoir, à la fois pour aboutir à des compromis quand le pouvoir est assez fort

pour réguler les conflits et imposer ses propres normes. Mais ce pouvoir n’est pas seulement

induit par les croyances et le droit, à l’instar des conceptions qui dominaient sous l’Ancien

Régime. Il résulte avant tout d’une délégation de pouvoir et d’une reconnaissance de l’autorité

qui se sont instituées en même temps que les modes de communication et de représentations

qui en favorisent l’expression ; et elles sont reconnues au sein de toute une communauté.

Page 243: UN REFERENTIEL, POUR QUOI FAIRE

243

La notion d’âme collective d’E. Durkheim n’est donc pas indispensable pour analyser les

phénomènes d’institutionnalisation : les positions identitaires d’un groupe s’affirment en

même temps que ses modes de communication, d’organisation et de délégation de pouvoir.

Ces phénomènes n’ont pas seulement lieu à chaque grande révolution sociale, mais aussi

chaque fois qu’un groupe social se constitue, s’organise autour d’intérêts communs et institue

son fonctionnement : mouvement social, entreprise collective, phénomène de mode, etc. La

mise en valeur de ces phénomènes permet de discerner une conception de la représentation

sociale qui englobe toutes les définitions actuelles de ce terme, à la fois la définition anglo-

saxonne (E. Goffman, H.S. Becker) qui privilégie les modes de communication et les types

d’interactions sociales, à la fois la conception plus commune qui attribue le terme de

représentation à la délégation de pouvoir, à la fois la conception européenne (S. Moscovici,

W. Doise, D. Jodelet) qui insiste sur la diffusion des conceptions et des idées parmi les

groupes sociaux. Cette diffusion de la représentation ne s’opère certainement pas comme dans

les protocoles expérimentaux qui ont pour but d’identifier les phénomènes et de les

isoler pour mieux analyser ce qui se joue, à travers les interactions. Dans la société complexe

de notre époque, pouvoirs institutionnels sociaux et revendications identitaires des groupes ne

s’opposent pas de façon frontale : il existe des valeurs et des modes institutionnels reconnus

par de très vastes communautés (par exemple, les institutions républicaines de notre

communauté nationale), et des groupes sociaux avec leurs propres modes de fonctionnement

institutionnels, qui, tout en reconnaissant ce patrimoine commun, s’affrontent avec d’autres

groupes. Les institutions dont le pouvoir est reconnu par les différents groupes en conflits

peuvent alors favoriser l’émergence de compromis, par exemple les conventions collectives

entre les organisations représentatives du patronat et les syndicats ouvriers. Mais il existe de

très nombreux arbitrages de ce type, à tous les niveaux de la société, à partir du moment où

une autorité est reconnue à une personne ou une institution. Ainsi les institutions sont

multiples et s’imbriquent les unes dans les autres. Et cette réalité se renforce d’autant plus que

se développent les sociétés modernes et la division du travail.

Le fait que les paradigmes (MEO) protocolaires ne reflètent pas une réalité beaucoup

plus complexe est une critique qui est récurrente. Cette critique de la psychosociologie

expérimentale, vaut aussi pour la psychologie, la docimologie, la pragmatique expérimentale,

etc. Ces paradigmes y répondent en multipliant les expériences, le plus souvent à partir des

critiques formulées par les contradicteurs sur les limites du protocole, pour l’étude de l’objet.

Page 244: UN REFERENTIEL, POUR QUOI FAIRE

244

Ce sont ces réflexions qui ont poussé les deux psychosociologues à multiplier leurs

études pour différencier les processus cognitifs qui gèrent les consensus extrêmes et les

compromis. Mais on peut supposer que de nombreux autres phénomènes interviennent dans

ces situations. Dans les situations expérimentales, le consensus est obtenu car il fait partie des

règles du jeu, des implicites de la situation. Les oppositions portent souvent sur des points qui

n’ont pas forcément de prise directe avec la pratique quotidienne des acteurs. Mais, dans la

réalité ordinaire, le consensus est recherché en raison de situations objectives : pour s’opposer

à un adversaire commun, résoudre des conflits qui deviennent contre-productifs, s’incliner

devant des valeurs « plus importantes », l’unité de la famille par exemple, etc. On peut certes

transférer les résultats (types de comportement, modes d’actions, etc.), obtenus pendant

l’expérience, aux situations objectives de la réalité, et pronostiquer une radicalisation dans le

sens de l’extrémisme liée à l’affirmation de phénomènes identitaires. Mais, dans ce cas, il y a

de fortes probabilités que ces phénomènes se cristallisent autour des raisons objectives, qui

mobilisent la recherche de consensus. Les divergences qui s’expriment se restructurent alors

autour de ce « prototype », induisant l’ajustement de chacune des conceptions, l’ancrage et

l’objectivation, et engendrant, par là même, de nouvelles représentations sociales. On peut, du

moins, en faire l’hypothèse au regard des travaux antérieurs. Or W. Doise et S. Moscovici ont

peu analysé, à travers leurs protocoles, l’évolution des conceptions lors des discussions de

groupe. Dans leurs travaux ultérieurs, W. Doise et G. Mugny ont mis en valeur un phénomène

intéressant au niveau onto-génétique : les groupes sont moins productifs que la somme des

actions individuelles, excepté lors de la découverte de nouveaux concepts. Effectivement,

lorsque les cadres communs existent, on peut penser que les différents individus agissent de

façon complémentaire et que les actions se complètent. Mais, lors des dissensions et conflits

aigus qui nuisent au fonctionnement du groupe, les discussions sont considérées comme

importantes pour se coordonner, s’accorder sur les types d’actions et générer de nouveaux

modes d’organisation. Les discussions sont ainsi génératrices de nouveaux concepts et

d’évolutions des représentations sociales. Par exemple, « le mot de tolérance n’est apparu

qu’au XVIème siècle à propos des guerres de religion », même si, par ailleurs, « l’idée en est

ancienne » (D. Jodelet ; 1989/1995 : 123). L’étymologie nous incite à penser qu’il en est de

même de nombreux concepts utilisés de façon « naturelle » de nos jours, par exemple ceux de

« rôle » ou de « compétent » dans leur acception juridique, qui apparaissent au XII et XIIIème

siècle, avec l’essor des universités. N’observe-t-on pas, de nos jours, le même phénomène

avec l’acception contemporaine de la « compétence », sous l’impulsion conjointe des milieux

patronaux et de la formation, ainsi que des institutions européennes (pages 265 à 270) ?

Page 245: UN REFERENTIEL, POUR QUOI FAIRE

245

Les représentations sociales, en tant que modes de communication et d’organisation,

sont ainsi étroitement liées aux concepts qui ont émergé au moment de leur formation et de

leur institutionnalisation, d’où l’importance d’avoir une bonne connaissance de l’historique

des concepts pour en percevoir le sens. Ce rapport entre conceptions et représentations

constituent ainsi des systèmes de référence : ce sont eux qu’on nommera « référentiels

implicites ». Pour étudier la formation et l’articulation de ces référentiels implicites, il

apparaît donc important de différencier représentations sociales et conceptions sociales. On

limitera l’utilisation du premier terme à son acception interactionniste : ensemble des modes

de communication, positionnements, jeux de représentations, schémas-types de conduites,

rôles sociaux, etc. qui sont observables lors des interactions, et qui se sont institués / établis

comme cadre de référence au sein d’un groupe social. Les conceptions sociales sont les

produits langagiers, dont les significations sont stabilisés et partagés par ce groupe, et qui

s’inscrivent dans des rapports de référence avec les premières. On précisera cette notion de

conception à partir d’une analyse plus approfondie de la notion de « concept », dans la partie

méthodologique. Il nous faut maintenant préciser ces jeux et leurs enjeux.

2-3) Les ethnométhodes :

Le concept d’ethnométhode a été introduit par H. Garfinkel. Au-delà du caractère

anecdotique qui a conduit cet auteur à choisir ce terme (A. Coulon : 1987/1996 : 47), sa

pertinence tient surtout à ce qu’il signifie (par un mot), de façon générique, un certain nombre

de phénomènes dont il a été question précédemment : critère, indicateur, procédés

interprétatifs, etc. Mais, surtout, H. Garfinkel expose la difficulté du « traitement des

instructions » par les acteurs. Il clarifie certaines problématiques qui surgissent quand les

institutions essaient d’encadrer l’évaluation par prescription :

« Il ressort de nos études que les considérations ad hoc constituent des traits essentiels des procédures de codage (…) Quelle que soit l’occasion particulière et réelle pour laquelle il y a à rechercher, à détecter et à attribuer le contenu des dossiers à une catégorie « appropriée » - ce qui revient à dire : au moment où se fait effectivement le codage -, de telles considérations ad hoc passent obligatoirement avant les critères « nécessaires et suffisants » dont on parle habituellement. On prétend que les critères « nécessaires et suffisants » sont définis, sur le plan des procédures, par des instructions de codage : il n’en est rien. On prétend aussi qu’en définissant le plus précisément possible les instructions de codage, on peut contrôler ou éliminer les pratiques ad hoc (…) que ce soit leur présence, leur nombre, leur utilisation ou les occasions dans lesquelles on s’en sert : là non plus il n’en est rien. Au contraire, les codeurs recourent à des considérations ad hoc et mettent en œuvre des pratiques d’appropriation pour reconnaître ce dont parlent exactement les instructions de codage. Ils recourent à des considérations ad hoc pour reconnaître les instructions de codage comme des « définitions opérationnelles » des catégories de codage » (H. Garfinkel ; 1967/2007 : 79, 80).

Page 246: UN REFERENTIEL, POUR QUOI FAIRE

246

L’ethnométhodologie n’a pas seulement apporté des concepts-outils pour étudier ces

phénomènes (on y reviendra plus loin), elle a aussi apporté une conception innovante : les

« méthodes » de « sens commun », qui orientent nos actions quotidiennes, se construisent à

travers ces actions et à partir de nos échanges langagiers sur celles-ci. Il s’élabore ainsi une

« culture commune », ensemble de « règles d’inférence et d’action socialement approuvées

sur lesquelles les gens prennent appui pour accomplir leurs activités de la vie courante,

attendant des autres qu’ils en fassent de même » (Idem : 149). Il se forme une « connaissance

de sens commun des structures sociales » (Idem : 150), savoirs expérientiels qui sont l’objet

de l’ethnométhodologie. A. Coulon présente cette discipline en termes assez simples :

« L’ethnométhodologie est la recherche empirique des méthodes que les individus utilisent pour donner sens et en même temps accomplir leurs actions de tous les jours : communiquer, prendre des décisions, raisonner » (A. Coulon ; 1987/1996 : 26).

Mais quelle plus-value le concept d' « ethnométhode » apporte-t-il par rapport à la

« représentation sociale » ? La principale difficulté, quand on utilise les concepts

interactionnistes, c’est de déduire les « cadres de référence » appliqués aux situations par les

acteurs sociaux, à partir des observations empiriques, et sans projeter les schémas du

chercheur ou les types d'explication à la mode. Pour interpréter les phénomènes observés, il

n’apparaît pas pertinent de se limiter à des critères formels ou de sens commun, l'analyse des

critères réels devient un passage obligé. On pose même, ici, l'hypothèse qu'il existe un

décalage conséquent entre les taxonomies officielles et les processus réellement mis en œuvre,

en particulier en raison de procédures « ad hoc » appliquées lors de l'opérationnalisation du

Référentiel formel par l'acteur : interprétation de celui-ci, adaptation aux spécificités de la

situation, ajustements de l'acteur par rapport à ses propres conceptions et compétences, etc.

L'ethnométhodologie apporte alors des concepts-outils pertinents pour analyser ces processus

interprétatifs. A. Coulon (1987/1996) nous en présente une synthèse.

A la notion de « modèle », l'ethnométhodologie substitue celle d' « accomplissements

continus des acteurs » (A. Coulon ; 1987/1996 : 27). L'hypothèse gnoséologique d'une

« constance de l'objet » de la sociologie traditionnelle s'efface devant celle de « processus » :

« la réalité sociale est constamment créée par des acteurs, n'est pas une donnée préexistante »

(Idem : 27). Pour saisir ce mouvement de co-construction du sens par les acteurs,

l'ethnométhodologie privilégie l'indexicalité de leurs discours à l'analyse littérale des énoncés.

En d'autres termes, on recherche dans le texte les indices qui font référence à la situation

d'énonciation pour analyser les modes de communication implicites des acteurs, et la façon

dont ils construisent les relations signifiantes entre le texte et le contexte :

Page 247: UN REFERENTIEL, POUR QUOI FAIRE

247

« L’intelligibilité de nos échanges, au lieu de souffrir de leur nature indexicale, en dépend

plutôt, et c'est la connaissance des circonstances de l'énoncé qui nous permet de lui attribuer un sens précis » (A. Coulon ; 1987/1996 : 23).

Les déictiques, pronoms personnels, possessifs, etc., en sont un bon exemple : en français, le

choix du « tu » ou du « vous » communique des informations, en fonction de la situation, sur

le choix du positionnement de l'énonciateur. Mais l'indexicalité ne se réduit pas aux seuls

déictiques, elle intègre tous les indices du texte qui puisent leur sens dans le contexte :

caractéristique, certes, des déictiques - « je » dont le sens est induit par référence à

l'énonciateur, « ici » qui signifie le lieu de l'énonciation, etc. -, mais aussi de toutes les formes

rituelles pour se présenter, engager la discussion, ouvrir une séance ou la clore, etc., et de

toutes les significations induites par les rapports entre l'objet du discours et les situations. Ces

formes indexicales (« indicateurs » de la linguistique) nous informent sur les modes

d'interaction, sur les règles de la situation d'énonciation, sur les jeux de positionnement, etc.

Les « indicateurs de la linguistique » sont donc un type d'« indicateurs langagiers » (ch. 6, &

6), qui nous permet d'accéder spontanément aux cadres conceptuels des acteurs face à un

contexte donné, ceux du moins qui seront sollicités pour apprécier la situation et réagir de

façon appropriée. L'accountability est une des facettes de ces processus cognitifs d'adaptation

sociale. Cette capacité intuitive des individus s'articule avec l'indexicalité, pour donner du

sens aux situations. H. Garfinkel en donne une définition plus fonctionnelle qu'objective :

« L'idée qui les guide (les études ethnométhodologiques) est que les activités par lesquelles les membres organisent et gèrent les situations de leur vie courante sont identiques aux procédures utilisées pour rendre ces situations descriptibles (accountable). Le caractère « réflexif » et « incarné » des pratiques de description (accouting practices) et des descriptions constituent le cœur de cette approche » (H. Garfinkel ; 1967 / 2007 : 51).

Par conséquent, l'« accoutability » est cette faculté d'observer et de décrire les situations de la

vie courante, et de pouvoir en rendre compte, dans tous les sens du terme91. Elle apparaît

ainsi intrinsèque aux situations que nous partageons quotidiennement :

« Tout contexte organise ses activités aux fins de rendre ses propriétés – en tant qu'environnement organisé d'activités pratiques – décelables, racontables, enregistrables, rapportables, dénombrables, analysables – bref observables-et-descriptibles (accountable) » (Idem : 95). A. Coulon assimile l'« accoutability » à des « patterns ».

91 « L'« accountability» comporte plusieurs aspects. A l'idée de rendre compte s'ajoutent celles de rendre des comptes et de répondre de ses actes et de son identité » (note du traducteur dans H. Garfinkel ; 1967/2007 : 46). Pour bien saisir ce concept, il semble pertinent de se référer aux différentes significations de « account » et « accountable » en anglais.

Page 248: UN REFERENTIEL, POUR QUOI FAIRE

248

« Un pattern, c'est un modèle d'arrière plan, c'est une catégorie qui donne sens à l'expérience sociale sans cesse renouvelée. Il faut comprendre pattern comme ce qui est « accountable », c'est à dire rapportable-observable-descriptible, qui renvoie à un sens et donc à un processus d'interprétation dans la mesure où, comme le souligne Jacqueline Signorini, « le langage est le milieu naturel d'exhibition et de confection des patterns ». Nous sommes en effet sans cesse à la recherche de « patterns » dans la conduite de nos conversations quotidiennes, sinon nos échanges n'auraient pas de sens » (1993 : 204).

Ne retrouve-t-on pas ici la notion de schémas-type de la vie quotidienne, c'est-à-dire la

conception de la représentation d'A. Schutz ? L'accountability serait alors une capacité à se

représenter notre environnement et à communiquer cette représentation. Dans ce cas, en quoi

l'accoutability, cette action descriptive, se différencie-t-elle des représentations sociales, selon

la définition d'E. Goffman ? Ce concept apporte-t-il quelque chose de nouveau par rapport

aux travaux du sociologue des interactions ? Il ne semble pas que ce soit le cas en termes

d'observations et de concepts opératoires, qui sont les points forts de l'interactionnisme. En

revanche, H. Garfinkel, à travers ce concept, problématise l'articulation entre le contexte et le

texte, ce qui n'est pas négligeable. Les jeux de représentation existent à partir du moment où il

y a situation de communication, et ils n'ont pas forcément besoin de discours pour se

construire, dans la mesure où ils reposent sur des habitudes intériorisées par les acteurs

(habitus). Mais ces jeux sont aussi observables-et-descriptibles, c'est à dire « accountables ».

Et la description fait alors appel, de fait, au langage, elle propose même une conception de ces

jeux de représentations, une façon de les traduire en langage. L'accountability serait ainsi le

miroir de l'indexicalité. Avec cette dernière, le texte acquiert de la signification en rapport

avec les situations du contexte, alors qu’avec l’accountability, ce sont les jeux de

représentation intuitifs qui sont traduits par des mots acceptés et reconnus par tous les

membres de la communauté. L'indexicalité et l'accountability sont donc deux processus de

référenciation, qui articulent la signification du texte avec le contexte auquel il est fait

référence : le premier autour de la deixis qui construit le discours à partir de la situation

d'énonciation, le second en formant des conceptions, c'est à dire des signes linguistiques en

relation de référence avec les situations d'énonciation dans lesquelles ils sont utilisés. On aura

l'occasion de revenir sur ces processus dans le chapitre suivant. Mais comment ces processus

se transforment-ils en cadre de référence, pour un ensemble de membres d'une même

communauté ? Le concept de « réflexivité » apporte une dimension complémentaire pour

analyser la façon dont se construisent les ethnométhodes. Les partenaires qui s'impliquent

dans une communication construisent ensemble la situation. « Au fur et à mesure qu'ils

parlent », ils « choisissent les éléments dont ils ont besoin dans l'immédiat » (A. Coulon ;

1993 : 46). Par là même, ils définissent ensemble le contexte commun de leurs discours.

Page 249: UN REFERENTIEL, POUR QUOI FAIRE

249

Un énonciateur choisit son discours et sa mise en scène afin de rendre compte

(account) de son expérience de façon compréhensible pour ses interlocuteurs, mais il anticipe

aussi la façon dont ceux-ci se représentent la situation afin d'ajuster sa communication aux

jeux de représentations sociales (au sens où ceux-ci sont décrits par E. Goffman). Cette action

de co-construction de la situation, qui se forme spontanément lors des interactions, les

ethnométhodologues l'appellent « réflexivité ». Elle produit un cadre de référence partagé par

le groupe. Cette réflexivité va de soi, elle n'a pas besoin d'être réfléchie.

« La réflexivité de ce phénomène (l'accountability des activités ordinaires) est une propriété singulière des actions pratiques, des circonstances pratiques, de la connaissance de sens commun des structures sociales et du raisonnement sociologique pratique. C'est cette réflexivité qui nous permet de situer et d'examiner l'occurrence de ces différents éléments ; en tant que telle, elle fonde la possibilité de leur analyse » (...) et de « découvrir les propriétés formelles des actions pratiques « de l'intérieur » de situations réelles, en tant que réalisations continues de celles-ci » (H. Garfinkel ; 1967/2077 : 46). « La réflexivité désigne donc les pratiques qui à la fois décrivent et constituent un cadre social » (A. Coulon ; 1987/1996 : 37).

Il y a des cadres de référence qui sont propres à un groupe, partagés uniquement par lui en

rapport avec sa propre histoire, et des cadres qui sont plus génériques, institués et partagés par

une plus grande communauté, dans la mesure où un ensemble de situations vécues sont

similaires : c'est le cas des situations de la vie quotidienne, du moins dans une société où les

modes de vie sont standardisés, mais c'est aussi le cas de l'école ou des situations

professionnelles. Il se forme ainsi des cadres de référence, en rapport avec les types de

situations dans lesquels ils sont pertinents, des « référentiels implicites ». On notera ici que le

terme de « référentiel » n'a pas de majuscule, à l'inverse du Référentiel des sciences de

l'éducation, qui est un cadre de référence d’un certain type (selon un schéma-type particulier),

mis en place collectivement par les membres d'un corps professionnel, pour évaluer la

prestation de candidats. Il a semblé effectivement important, pour éviter les confusions, de

différencier l'objet de recherche (Référentiel) des processus cognitifs observés pour étudier

cet objet (référentiels implicites). Tels que définis ici, ces derniers sont des ethnométhodes,

construites, formées, structurées, par des acteurs qui agissent régulièrement de pair. Bien

entendu, un Référentiel d'évaluation correspond à cette définition, puisqu'il émane d'un

ensemble de personnes, qui agissent ensemble, au cours d'examens, de formations, de

recrutements, etc. et qui se coordonnent pour définir un cadre commun. Mais, justement, le

« etc. » permet ici de bien situer le problème. Le Référentiel d'évaluation n'est pas le produit

d'un seul groupe de pairs, mais d'un ensemble de groupes qui se rencontrent, discutent,

s'affrontent, se mettent plus ou moins d’accord, font des concessions, etc. P. Perrenoud nous

fournit quelques pistes de réflexion sur ce phénomène, à partir de son expérience personnelle.

Page 250: UN REFERENTIEL, POUR QUOI FAIRE

250

« Sur de pareils thèmes le consensus n’est ni possible, ni souhaitable. Lorsqu’on cherche l’unanimité, le plus sage est de rester très abstrait et de dire, par exemple, que les enseignants doivent maîtriser les savoirs à enseigner, être capables de donner des cours, de gérer une classe et d’évaluer. Si l’on s’en tient à des formulations synthétiques, chacun conviendra probablement que le métier d’enseignant consiste aussi, par exemple, à « gérer la progression des apprentissages » ou à « impliquer les élèves dans leur apprentissage et leur travail ». L’accord sur ces évidences abstraites peut cacher de profondes divergences quant à la façon de s’y prendre » (P. Perrenoud ; 1999 : 14, 15).

Le canton de Genève est une unité administrative beaucoup plus restreinte qu’un territoire

national, comme la France, ou à plus forte raison international, comme la communauté

européenne. Il est donc possible d’imaginer la complexité des processus et des négociations

mis en place pour l’élaboration, en France, du RNCP (répertoire national des certifications

professionnelles), ainsi que de la multitude des actions humaines et des régulations qui sont

sollicitées, d’abord au sein des administrations, puis lors des relations entre les divers

partenaires sociaux, à différents niveaux. Il n'y a donc pas, « tout simplement », un

Référentiel d'évaluation, mais un ensemble de référentiels implicites qui s'imbriquent les uns

dans les autres. Si nous souhaitons observer, d'une part, comment se structurent ces

référentiels implicites au cours des situations de communication, d'autre part, comment les

différents groupes s'impliquent autour de ces référentiels communs, les négocient, les ajustent,

etc. (par exemple, dans le cas de jurys tripartites, professionnels, formateurs, administration),

avec tous les enjeux que cela sous-tend, il est souhaitable de différencier le Référentiel, qui est

le produit institutionnel de ces jeux de représentation (plus ou moins formalisés), et les

référentiels implicites qui ont conduit à cette institutionnalisation (souvent sous la forme d'un

modus vivendi) et, surtout, qui continuent à agir, au sein de ce cadre institutionnel, en tant que

référentiels autonomes. Les « espaces de réflexivité » seront donc tous ces lieux où se forment

et se structurent les référentiels implicites. L'expérience montre que les situations d'examen,

en raison des discussions entre les correcteurs pour ajuster leurs appréciations, sont des

espaces où s'exprime la réflexivité professionnelle, mais ils sont loin d'être les seuls. Tous les

lieux de communication plus ou moins institutionnalisés (du moins périodiques et réguliers)

sont des espaces de réflexivité générateurs de référentiels implicites. Ainsi les concepts

utilisés dans un Référentiel formel n'ont-ils souvent de sens qu'en référence à des situations

professionnelles où se constituent et se communiquent les référentiels implicites : par

exemple, dans le milieu éducatif, prendre du recul, savoir se positionner, prendre en compte la

situation, être à l’écoute, etc. On reviendra sur ces questions lors de l'analyse des critères de

jugement des examinateurs (cf. expérience N° 1, ch. 12). Dans l'immédiat, on évoquera

quelques concepts supplémentaires qui précisent les cadres de l'analyse ethnométhodologique.

Page 251: UN REFERENTIEL, POUR QUOI FAIRE

251

Tout d'abord, celui de « membre » que H. Garfinkel a emprunté à T. Parsons, avant de

s'en démarquer progressivement en raison de son nouveau contexte de recherche : le membre

n'est pas seulement celui qui fait partie du groupe et qui adopte les règles de fonctionnement

institutionnelles en vigueur au sein de celui-ci, c'est aussi celui qui a assimilé et qui maîtrise

les ethnométhodes pour s'adapter aux modes de communication du groupe :

« Devenir membre, c'est s'affilier à un groupe, à une institution, ce qui requiert la maîtrise progressive du langage institutionnel commun (…) Une fois affiliés, les membres n'ont pas besoin de s'interroger sur ce qu'ils font. Ils connaissent les implicites de leurs conduites et acceptent les routines inscrites dans les pratiques sociales (…) Un membre (…), c'est une personne dotée d'un ensemble de procédures, de méthodes, d'activités, de savoir-faire, qui la rendent capable d'inventer des dispositifs d'adaptation pour donner sens au monde qui l'entoure » (A. Coulon; 1987/1996 : 44).

Par conséquent, devenir membre d'un groupe socioprofessionnel, c'est acquérir la maîtrise des

modes de communication pour s'adapter à un environnement en mouvement, c'est s'approprier

les ethnométhodes de celui-ci, ou encore découvrir le sens des référentiels implicites du

milieu professionnel. Cette ritualisation qui officialise, pour le nouveau postulant, sa qualité

de membre, n'est-elle pas une dimension des examens : remises de prix, fêtes, promotions,

etc. ? Mais si la notion de « membre » permet de discerner certains enjeux des examens, elle

ne donne pas, à elle seule, une bonne visibilité de ce qui se joue au moment de l'interaction.

Celle de « perspective », empruntée aux interactionnistes (H.S Becker), ouvre de nouveaux

horizons. Elle traduit « un ensemble d'idées et d'actions coordonnées, qu'une personne utilise

pour résoudre un problème dans une situation donnée » (A. Coulon ; 1993 : 76). Ainsi

conceptualisée, la notion de « perspective » oriente notre observation sur certains outils, tels

les études de cas, régulièrement utilisés, en recrutement, en formation et lors des examens.

Comment le candidat se projette-t-il dans une représentation ? Quelles perspectives préconise-

t-il face à une situation donnée ? De fait les concepts, pour analyser les interactions,

apparaissent pertinents pour modéliser les processus d'évaluation et tout à fait adaptés pour

traduire les jeux de représentation qui se construisent lors des situations d'évaluation :

positionnement, mode, modalisation, présupposés, région (face à face et coulisse), condition

de félicité, etc. L'évaluation apparaît ainsi sous la forme de jeux de représentations sociales,

dont l'enjeu est de devenir membre (d'un groupe socioprofessionnel, d'une communauté, d'une

socio-culture, d'une entreprise, etc.) et dont l'objet est l'adaptation à un référentiel implicite.

Pour cela, le postulant doit montrer aux jurys ce dont il est capable, capacité qui se traduit

bien plus par des facultés de décodage et d'adaptation aux modes de communication

implicites (conditions de félicité) que par des performances chiffrables et quantifiables.

Page 252: UN REFERENTIEL, POUR QUOI FAIRE

252

3) Les savoir faire et la question de la compétence :

Les Référentiels, aujourd'hui, se structurent sur le modèle de la « compétence ». Les

objectifs de la formation sont traduits en « compétences », identifiables / observables et

jugées importantes pour exercer le métier. On peut donc ici parler d'ethnométhodes adaptées à

l'exercice d'une profession. Pour qu'il soit possible de s'y référer de façon collective, ces

« compétences » doivent être descriptibles et observables (accountable). L'activité qui

consiste à les décrire pour les inscrire dans un Référentiel est donc une forme d'accountability,

elle modifie la façon dont les acteurs réfléchissent à leur métier, elle construit des

représentations implicites de celui-ci. On peut ainsi discerner divers processus qui conduisent

à la formation de ces représentations sociales. Les systèmes de régulation entre partenaires, au

cours des évaluations, constituent un espace au cours duquel les dites « compétences » sont

transformées en objets descriptibles et observables, et inscrits dans des processus dont

l'objectif est leur identification (accountable). Mais aussi, lors des négociations entre les

organismes de formation professionnelle et l'administration, les « mêmes » compétences sont

discutées, définies, précisées, et inscrites dans des processus d'apprentissage. Tous ces

mécanismes sont justifiés au regard des systèmes de fonctionnement – de production, de

communication, de gestion, etc. - dans lesquels l'apprenant aura à s'inscrire (« les fonctions à

remplir ou à assumer »), au cours de son exercice professionnel92. Mais ces compétences sont

aussi le produit des jeux institutionnels qui privilégient certains modèles, en l'occurrence, de

nos jours, celui de la compétence : par exemple, l'intervention des institutions qui demandent

aux milieux professionnels de modéliser leurs diplômes à travers les fiches du RNCP

(Répertoire National de la Certification Professionnelle). La normalisation européenne est une

raison fréquemment invoquée par les institutions pour justifier leurs interventions et leurs

exigences. Mais bien d'autres processus participent aussi de cette définition des

ethnométhodes reconnues par une communauté professionnelle. Certains courants

sociologiques formulent une hypothèse sur la généralisation de la référence à la

« compétence », qui aurait acquis une certaine notoriété ces dernières décennies, en raison de

l’évolution des relations de travail au sein des entreprises. Depuis que le MEDEF l'a

popularisé, à la suite de ses assises de Deauville, en 1998, il a été relayé par les institutions

nationales ou internationales, et n'a cessé de se développer au point de devenir une référence

incontournable (pages 265 à 270). C'est dans ce contexte qu'il nous faut situer la notion de

compétence pour cerner toutes les dimensions de sa signification.

Page 253: UN REFERENTIEL, POUR QUOI FAIRE

253

3-1) Les diverses définitions de la compétence :

La compétence apparaît comme un concept générique pour signifier un ensemble de

phénomènes, qui privilégient certaines ethnométhodes dans un milieu professionnel :

procédures, processus cognitifs, systèmes de référence, etc. Si on se réfère à la définition de

G. Le Boterf (1994), la « compétence » est une « mobilisation de ressources » pour agir (p.

17), un « acte d’énonciation » (p. 19), un « système, une organisation structurée qui associe de

façon combinatoire divers éléments » (p. 22), un « savoir intégrer » (P. 23), « c’est avoir

autorité pour… et les moyens de l’exercer » (p. 28), c’est un « savoir agir » (p. 32)

« reconnu » (p. 35), mais c’est aussi une « unité bi-polaire » qui allie « situation

professionnelle » et « sujet acteur » (p. 50), un ensemble construit de « représentations

opératoires » (p. 53), une « intention » qui communique un sens, une « signification » aux

actes (p. 66), des « savoirs mobilisables » (p. 73) : « savoirs théoriques » (p. 73), « savoirs

procéduraux » (p. 84), savoirs faire procéduraux » (p. 87), « savoirs expérientiels » (p. 89),

savoirs faire sociaux (p. 102) ; des « savoirs faire cognitifs » (p. 108) ; mais aussi, à la marge

du système, des « pratiques professionnelles et performances » (p. 117) et des « boucles

d’apprentissage » (p. 122). De telles définitions attirent notre attention sur la complexité des

phénomènes et leur enchevêtrement : elles sont tout à fait adaptées aux interventions sur le

terrain (formation, conseil, etc.), dans la mesure où elles fournissent un modèle systémique

(une sorte check-list pour les praticiens) de tous les domaines à envisager en fonction des

problématiques posées par les partenaires. Par ailleurs, l’auteur s’appuie sur de nombreux

travaux scientifiques pour argumenter sa conception. Mais une définition si large n’est guère

satisfaisante pour la recherche, car elle ne permet pas de saisir l’essentiel (au sens défini au

chapitre 4) des processus cognitifs qui sont mis en jeu par les acteurs. Et elle est difficile à

exploiter dans le domaine de l’évaluation (voire de la formation au niveau opérationnel), dans

la mesure où il y a une trop grande diversité de phénomènes à observer. Quelles dimensions le

concept de compétence apporte-t-il en sus des autres concepts qui définissaient les capacités à

acquérir en cours de formation ? Cette problématique est aussi formulée, en d'autres termes,

par J.P. Bronckart et J. Dolz :

« Sans verser dans le purisme conceptuel, il nous paraît évident qu’on ne peut raisonnablement penser » la problématique de la formation en usant d’un terme qui finit par désigner tous les aspects de ce que l’on appelait autrefois les « fonctions psychologiques supérieures » » (dans J. Dolz & E. Ollagnier ; 2002 : 35).

92 C'est l'aspect « rendre des comptes » de l' « account ».

Page 254: UN REFERENTIEL, POUR QUOI FAIRE

254

Peut-être ce flou est-il « entretenu » pour favoriser l’appropriation du concept par des milieux

professionnels fort différents (cf. expérience de P. Perrenoud citée ci-dessus ; 1999). Ne peut-

on faire ici l’hypothèse que cette multiplicité des caractéristiques du concept de

« compétence » est la conséquence de l’appropriation successive de celui-ci par différents

champs professionnels, qui a conduit à un élargissement de sa signification, par une

multiplication des situations et des contextes dans lesquels il est en usage et, de ce fait, des

attributs qui lui sont rattachés pour le définir ? Par exemple, dans le milieu de l’éducation

populaire, le BEATEP, qui faisait référence à des « capacités », cède la place en 2002 au BP

JEPS qui a introduit le concept de « compétence ». Cela a-t-il modifié, pour autant, les

méthodes d’évaluation des professionnels, des formateurs, ou des conseillers pédagogiques et

des inspecteurs de l’administration, qui participent à ces évaluations ? N’est-ce pas plutôt le

concept de « compétence » qui a été ajusté pour construire un Référentiel qui corresponde, à

la fois aux consignes institutionnelles (en particulier celles de l’Europe), à la fois aux habitus

des examinateurs sollicités pour participer aux jurys ? On préfèrera donc se recentrer sur les

définitions de la « compétence » qui nous sont proposées par les milieux scientifiques.

Lors du colloque de Metz sur « compétences et contextes professionnels », E. Brangier

et C Tarquinio (1997 : 85, 86) nous ont présenté diverses approches disciplinaires de la

compétence. On retiendra la psychologie, qui apparaît dans les années 1990, et qui traduit des

« possibilités de réponses (…) à l’égard de l’environnement » ou qui s’inspire de la

conception « psycholinguistique » initiée par N. Chomsky ; l’ergonomie pour qui les

compétences sont des « ensembles stabilisés de savoirs et de savoirs-faire, de conduites-types,

de procédures-standards, de types de raisonnement que l’on peut mettre en œuvre sans

apprentissage nouveau » (M. de Montmollin & J. Leplat ; 2001 : 11 et 41) ; les sciences de

l’éducation (G. De Landsheere, G. Malglaive) pour lesquels elle est « une capacité

d’accomplir une tâche de façon satisfaisante » ou encore, un « système intériorisé

d’apprentissages nombreux, orienté vers uns classe de situations scolaires ou

professionnelles » (G. Malglaive ; 1990/1993 : 123) ; la sociologie qui s’interroge « sur les

déterminations sociales de l’activité compétente » et surtout sur « le problème de la

reconnaissance de la compétence » ; enfin les sciences de la gestion pour qui c’est « un

instrument managérial ». Mais on pourrait aussi noter les approches « par les aptitudes », « les

savoirs ou les connaissances », « le savoir faire », le « savoir être » ou les « compétences

cognitives » (E. Brangier et C Tarquinio ; 1997 : 86-88), ou encore différencier « une

approche organique », une « approche stratégique du travail de conception » ou « cognitive »

(M. E. Bobillier Chaumon dans E. Brangier, N. Dubois, C Tarquinio ; 1997 : 174, 175).

Page 255: UN REFERENTIEL, POUR QUOI FAIRE

255

La multiplicité des définitions et des caractéristiques de ce concept semble donc aussi induite

du fait de son appropriation par de nombreuses disciplines. Chacune discerne un angle

nouveau pour traiter de ce concept, en fonction de ses présupposés méthodologiques

disciplinaires. Ces différentes définitions ont l’intérêt d’enrichir considérablement la

découverte de l’objet - plus précisément de son référent, c'est-à-dire de la représentation des

phénomènes rassemblés autour ce concept - : les unes introduisent une conception

pragmatique, comme la linguistique, les autres une analyse procédurale et cognitive, comme

l’ergonomie ou la psychologie, les autres une approche plus prescriptive, comme les sciences

de l’éducation et les sciences de la gestion, ou encore une étude plus critique comme la

sociologie ou certains auteurs des sciences de l’éducation. Mais ces définitions ne se

recoupent pas forcément : les phénomènes étudiés par les unes correspondent-ils vraiment à

ceux étudiés par les autres ? Sans prétention à résoudre en quelques lignes ce chantier

colossal, on résumera ici ces différentes approches pour en abstraire les caractéristiques

essentielles en rapport avec notre objet de recherche, les processus et systèmes d’évaluation. Il

ne s’agit pas tant d’étudier toutes les dimensions de ce concept, trop vaste, que de conserver

celles qui ont une fonction lors des interactions entre l’évaluateur et l’évalué : comment celui-

là construit-il son jugement de valeur sur celui-ci, ou encore son appréciation ? - Son

assessment pour reprendre l’expression de certains collègues outre-Atlantique (G. Scallon ;

2004 : 14, 15).

3-2) La compétence linguistique :

P. Bronckart et J. Dolz nous brossent un rapide historique sur la genèse de cette notion :

« Le terme de compétence est attesté dans la langue française depuis la fin du XVème siècle ; il désignait alors la légitimité et l’autorité conférée aux institutions pour traiter de problèmes déterminés (un tribunal est compétent en matière de …) ; depuis la fin du XVIIIème siècle, sa signification s’est étendue au niveau individuel et il désigne depuis lors toute capacité due au savoir et à l’expérience (…) L’expression de compétence linguistique a été introduite par Chomsky (1955) dans le cadre d’un article qui constitue l’un des textes fondateurs de la « révolution cognitive » en sciences humaines. L’objectif de l’auteur était alors de combattre le béhaviorisme linguistique et plus spécifiquement la thèse selon laquelle le langage s’apprend par essais/erreurs, conditionnements, renforcements, etc. Pour lui, l’extrême rapidité de l’acquisition, par l’enfant, des principales unités et structures linguistiques, tout comme la rapidité de récupération du langage à l’issue des liaisons organiques périphériques, ne pouvaient s’expliquer en termes d’apprentissage ou de déterminisme du milieu ; ces phénomènes attestaient au contraire de l’existence d’une « disposition langagière » innée et universelle. La compétence linguistique désigne cette disposition (…)

Page 256: UN REFERENTIEL, POUR QUOI FAIRE

256

Le terme a été repris par divers linguistes centrés à la fois sur les dimensions pragmatiques du langage et sur la problématique de l’enseignement des langues. Dans l’ouvrage fondateur de ce courant, Hymes (1973/1991) soutient notamment que, s’il existe peut être une compétence syntaxique idéale, celle-ci ne suffit pas pour que se développe une maîtrise fonctionnelle du langage ; cette maîtrise implique la capacité d’adapter les productions langagières aux enjeux communicatifs et aux propriétés du contexte et de telles capacités font nécessairement l’objet d’un apprentissage social. Hymes propose alors que l’enseignement des langues vise à développer ces compétences de communication, qui se différencient en compétences narrative, rhétorique, productive, réceptive, etc. » (dans J. Dolz & E. Ollagnier ; 2002 : 31, 32).

Les différentes dimensions de cette « compétence linguistique » seront approfondies dans la

partie méthodologique. On en cernera seulement ici quelques aspects essentiels pour la suite

de l’exposé. N. Chomsky, pour définir son concept, réinterprète la dichotomie de F. de

Saussure entre la parole et la langue : il oppose ainsi la performance, qui est de l’ordre de la

production hic et nunc, à la compétence qui exprime l’idée d’une structure profonde. Pour le

linguiste, cette dernière concerne les constructions phonologiques, sémantiques et

grammaticales implicites (la grammaire universelle), qui permettent à deux individus de la

même communauté linguistique de construire une syntaxe commune, et ainsi, de se

comprendre et communiquer. La performance langagière est l’actualisation de la compétence

dans une situation de communication donnée. Pour N. Chomsky, la compétence est innée, ce

qui a été largement contestée (pages 83 à 94). D.H. Hymes (1973/1991), dont les travaux sont

fondés sur une approche ethnologique, a mis en valeur l’insuffisance des conceptions de N.

Chomsky pour interpréter les compétences inhérentes à toute communication sociale, apprises

par tous les membres d’une même communauté culturelle. La compétence linguistique /

grammaticale, existerait-elle sans une compétence plus large de communication, qui offre du

sens à tout évènement qui survient dans notre environnement :

« Un enfant normal acquiert une connaissance des phrases, non seulement grammaticale, mais aussi comme étant ou non appropriées. Il acquiert une compétence qui lui indique quand parler, quand ne pas parler, et aussi de quoi parler, avec qui, à quel moment, où, de quelle manière. Bref, un enfant devient à même de réaliser un répertoire d’actes de parole, de prendre part à des évènements de parole et d’évaluer la façon dont d’autres accomplissent ces actions. Cette compétence, de plus, est indissociable de certaines attitudes, valeurs et motivations touchant à la langue, à ses traits et à ses usages et est tout aussi indissociable de la compétence et des attitudes relatives à l’interrelation entre la langue et les autres codes de conduite en communication (cf. Goffman) » (1973/1991 : 74).

La compétence linguistique n’est donc qu’un aspect de la communication, autrement dit une

des diverses compétences de communication qui s’expriment sous la forme de conduites

normalisées d’une communauté culturelle. Ces modes de communication sont intériorisés très

tôt et ils acquièrent leur signification à travers les relations de référence avec les modes

implicites, les systèmes de rôles (routines), les façons de faire, les attentes réciproques, etc.

Page 257: UN REFERENTIEL, POUR QUOI FAIRE

257

« Il est inhérent à la nature d’un groupe social ou d’une communauté d’avoir une spécialisation, une diversité des rôles et, donc, des connaissances et des compétences liées à ces rôles » (Idem : 41).

Ainsi les compétences langagières s’imbriquent-elles dans un ensemble plus vaste de

compétences socioculturelles qui génèrent des cadres de référence contextuels communs et

indispensables à la signification du texte, dimension pragmatique du discours sur laquelle on

aura l’occasion de revenir (cf. partie linguistique de la méthodologie). La compétence est ainsi

un concept qui a rapidement eu vocation à être élargi à d’autres champs disciplinaires.

3-3) La conception ergonomique :

Pour les ergonomes, la compétence est un concept qui est entré de façon assez récente

dans leur champ disciplinaire, d’abord sous forme de problématiques dans les années soixante

dix, puis de façon conceptuelle, par emprunt aux linguistes au début des années quatre vingt

(M. de Montmollin (1984), dans M. de Montmollin, J. Leplat ; 2001 : 11-13). L’ergonomie

étudie « l’adaptation du travail (et de la machine) à l’homme ». Si ce terme est adopté pour

nommer cette discipline après la seconde guerre mondiale, les précurseurs sont beaucoup plus

anciens puisque L. de Vinci et J. Borelli, au 16ème et 17ème siècle s’étaient déjà penchés sur

l’observation de l’activité humaine. C’est à la fin du 19ème siècle et surtout au début du 20ème

que se développent les premiers travaux scientifiques, en particulier avec la création du

CNAM en 1913 (H. Monod, B. Kapitaniak ; 1999/2003 : 3-10). Physiologistes, médecins,

psychologues ont participé à l’essor de cette discipline, avant qu’elle ne s’affirme de façon

autonome dans les années cinquante. M. de Montmollin (1986/1996 : 21-33) nous expose les

« frontières » qui ont permis à la discipline de se démarquer des sciences « voisines »

(médecine du travail, physiologie, psychologie expérimentale, psychologie du travail, du

personnel, des organisations, sociologie du travail et anthropologie). Les ergonomes ont

travaillé sur les caractéristiques anthropométriques (hauteur, taille, poids, etc.), l’effort

musculaire (contractions musculaires, consommation d’oxygène, rythme cardiaque, etc.),

l’influence de l’environnement (chaleur, froid, poussières, agents toxiques, etc.), les

performances auditives, visuelles, olfactives, les rythmes circadiens, les effets du

vieillissement (1986/1996 : 11-12). Deux courants principaux ont émergé :

« Le premier courant, le plus ancien et aujourd’hui le plus américain, considère l’ergonomie comme l’utilisation des sciences pour améliorer les conditions de travail (…) Le second courant plus récent et plus européen considère l’ergonomie comme l’analyse spécifique du travail humain en vue de l’améliorer » (1986/1996 : 6-7).

Page 258: UN REFERENTIEL, POUR QUOI FAIRE

258

Ainsi, si « l’ergonomie classique » s’est centrée sur le « composant humain », le courant

européen a pris en compte le travailleur comme acteur dans le système, et introduit la question

de la compétence :

« On entend ici par compétences l’articulation des connaissances concernant les appareils et les phénomènes dont ils sont le siège ainsi que les procédures qui règlent leur utilisation, des savoir-faire issus de l’expérience, moins formalisés mais plus immédiatement disponibles, des modes de raisonnement, opérations de traitement des informations qui surviennent au cours du travail (dans le cas d’un diagnostic, par exemple), et des métaconnaissances, organisation à un niveau supérieur des conduites intelligentes » (1986/1996 : 83).

Ce courant (cognitif) de l’ergonomie étudie les raisonnements des acteurs, les modes de

connaissance, le partage de ces connaissances, les communications au sein des équipes, la

division du travail, l’expérience des opérateurs, les stratégies mises en œuvre en fonction des

situations, les erreurs humaines, l’interface avec les logiciels, etc. Ces recherches introduisent

aussi une différence entre le travail prescrit et le travail réel, ou encore entre la tâche et

l’activité, l’analyse de l’activité se décomposant en plusieurs types :

« L’analyse (de la tâche) reprend et précise la description du travail prescrit : objectifs (par exemple hiérarchisés en sous objectifs), procédures et contraintes explicitées par les consignes et les aides en ligne, « conditions de travail » (physiques, organisationnelles, concernant l’information, comme les outils de communication, les écrans, etc.). (…) L’analyse de l’activité comme comportements permet la reconstitution fine des séquences d’action qui aboutissent à la réalisation des tâches. Elle introduit une première prise en compte des aspects collectifs du travail (par le biais de l’analyse des interactions) (…) L’analyse de l’activité comme logiques d’action est aujourd’hui, sans doute, le domaine le plus étudié et aussi le plus difficile. Il s’agit de chercher à reconstituer les enchaînements (les « cours d’actions », les « histoires » pour reprendre quelques concepts utilisés) qui préparent, déclenchent et conduisent, et donc expliquent les actions des opérateurs. (…). Les ergonomes ont ainsi décrit différentes variétés de « raisonnements » (inférences, déductions, analogies…), de « traitements de l’information », de « diagnostics », de « constructions et résolutions de problèmes », de « prises de décision », de « stratégies » … » (1986/1996 : 50-53).

Cette description des travaux des ergonomes a clarifié l’approche de la « compétence ». En ce

qui concerne l’analyse de la tâche (du travail prescrit), les deux courants de pensée adoptent

les mêmes méthodes (1986/1996 : 56). Mais, pour analyser la complexité de l’activité et des

interactions humaines, les chercheurs européens ont multiplié leurs observations sur les

processus cognitifs mis en œuvre par les acteurs, et plus seulement sur les tâches prescrites.

La compétence est, pour les ergonomes, « un concept de l’ordre de la description, non de

l’évaluation » (M. de Montmollin ; 2001 : 13) :

« Il reste à savoir comment on peut l’identifier à partir de cette – ou de ces – activité(s) (…) Cette activité a une double facette, externe – manifeste et observable – interne – cachée et inobservable. Cette dernière ne peut être atteinte qu’à partir de la précédente. Analyser l’activité commence toujours par recueillir les données sur cette activité – données fournies par l’observation au sens large » (J. Leplat, dans M. de Montmollin & J. Leplat ; 2001 : 46).

Page 259: UN REFERENTIEL, POUR QUOI FAIRE

259

Les observations au sens large sont des observations stricto sensu, « des déplacements, des

gestes, des regards », mais aussi des verbalisations par entretien ou in situ, en « faisant

librement « parler son travail » par l’opérateur », ou encore des simulations dans certains cas,

« pour vérifier après coup les hypothèses » (M. de Montmollin, 1986/1996 : 58, 59).

« C’est à partir de l’étude de l’activité mise en œuvre dans ces différentes conditions que pourra être élaboré un modèle de l’activité. La définition de la procédure suivie par le sujet constitue un premier modèle de l’activité (…). On a une première manière de définir la compétence : à ce premier niveau, elle serait le modèle de l’activité mise en œuvre pour exécuter les tâches d’un domaine » (J. Leplat : idem : 46).

Pour M. Mazeau (idem : 89, 90), cette « analyse des compétences » conduit à une

« décomposition fine, en classes opérationnelles » de l’adaptation des opérateurs aux

« situations de travail auxquelles il est confronté » : savoir « quoi faire », « comment le

faire », « quand le faire », « où », « avec qui », « pourquoi » ? Ces questions orientent la

collecte, dans les « situations normales », mais aussi les « situations difficiles », « rares ou

inconnues, impliquant la mobilisation de connaissances diverses pour résoudre le problème

rencontré ». Cet auteur soulève aussi la question de la « dimension collective des

compétences », en définissant « l’opérateur collectif comme l’ensemble des personnes

coopérant pour atteindre un but ». Il identifie ensuite les « obstacles à la coopération au sein

des groupes » (Idem : 91). J. Leplat, dans un article sur « les compétences collectives »,

insiste davantage sur les processus cognitifs mis en œuvre par les acteurs pour collaborer

autour d'une tâche commune. On retrouve ici une conception du « référentiel », très proche de

celle du « référentiel implicite » exposée dans les paragraphes précédents :

« L’activité collective qui exige la coordination des activités individuelles nécessite, elle aussi, l’élaboration d’une représentation de référence dite souvent référentiel commun (…) Le référentiel commun n’est pas défini une fois pour toutes, mais comme les compétences, il évolue. Au début, les communications verbales jouent un rôle majeur, mais avec la pratique, on observe un certain nombre de transformations. Le langage des communications se simplifie et devient plus opératif par rapport à la tâche (Falzon, 1989). Souvent, aussi le rôle des communications verbales devient moins crucial, car d’autres mécanismes sont mis en œuvre :

- l’exploitation des références temporelles fondées sur des régularités de déroulement de l’action ; - l’usage de références externes : connaissant à quel moment de l’action du co-équipier il faut intervenir et de quelle façon, il n’est plus nécessaire que ce dernier le signale explicitement ; - l’usage d’une même catégorisation des conditions (…) - l’extension spatio-temporelle de ce référentiel : avec l’expérience, le groupe peut prendre en compte un champ plus vaste » (J. Leplat ; idem : 165, 166).

Page 260: UN REFERENTIEL, POUR QUOI FAIRE

260

L’auteur montre aussi en quoi ces référentiels implicites peuvent être sources d’erreurs, en

particulier quand on interprète les actes de l’autre en fonction de ce référentiel « commun »,

alors qu’il ne l’est pas. Mais ces quiproquos et ces mésententes n’occultent pas, pour autant,

la pertinence de ces systèmes de référence implicites dans le travail d’équipe, en raison de la

plus value ergonomique qu’ils apportent. Par conséquent, on peut faire l’hypothèse que les

professionnels, en situation d’évaluation, se réfèrent spontanément à ceux-ci pour juger de la

compétence des candidats, d’autant que les enjeux sont importants pour éviter les

malentendus lors de situations critiques : l’ « incompréhension de la situation » par le novice

peut avoir de graves conséquences.

De la définition des psycholinguistes et des ergonomes, on peut abstraire quelques

caractéristiques essentielles de la compétence, à disposition de l’individu pour son adaptation

à toutes sortes de situations :

- tout d’abord, la compétence est un ensemble de schèmes, de routines intériorisées, soit par

apprentissage, soit par expérience du sujet, soit par adaptation aux contraintes, qui

s’articulent entre elles en fonction du contexte de leur exécution ; on pourrait qualifier

cette partie de la compétence d'« habileté », en référence au concept anglo-saxon de

« skill ». Ces habiletés sont directement observables, lors des mises en situation ;

- ensuite, c'est une mobilisation de ressources, matérielles (outils, matériaux, etc.),

immatérielles (connaissances déclaratives et procédurales, conceptions, etc.) ou

organisationnelles (travail d'équipe, sollicitations d'aide, etc.). Ces ressources sont donc

intégrées aux habiletés décrites ci-dessus, afin de pouvoir accomplir la tâche prescrite ;

- une troisième dimension, ce sont les processus cognitifs, fondés sur les structures

langagières, mis en œuvre pour mémoriser les procédures, coordonner les différentes

activités, discerner les ressources à mobiliser en fonction de celles-ci, mais aussi pour

analyser le contexte afin d'adapter les actions aux particularités de chaque situation, etc. ;

- enfin, une dernière dimension, ce sont les systèmes de référence et de communication,

communs à un collectif socioprofessionnel, pour interpréter les situations de travail et

réagir rapidement, de façon appropriée.

Ces quatre dimensions constituent des attributs observables pour identifier la compétence :

habiletés, ressources mobilisées, procédures langagières et cognitives, référentiels communs

de situation. Bien entendu, cette description ne vise pas à occulter les autres dimensions de la

compétence, mais il est apparu important, ici, de préciser quelques dimensions observables.

Page 261: UN REFERENTIEL, POUR QUOI FAIRE

261

On peut faire l’hypothèse qu’elles guident inconsciemment les examinateurs lors des

évaluations. Les autres conceptions de la compétence auront l'intérêt de situer les différents

contextes dans lesquels ce concept est évoqué et exploité, soit par rapport à des domaines

d'application - c'est le cas des sciences de l'éducation, des sciences de la gestion ou du conseil

en entreprise -, soit à des champs disciplinaires confrontés à l'essor de ce concept dans des

univers qui les concernent : c'est le cas de la sociologie ou des sciences juridiques.

3-4) La compétence et les milieux professionnels (formation, conseil) :

Les milieux de la formation professionnelle ont certainement contribué, de façon

conséquente, à l'essor du concept de « compétence », dans la mesure où celui-ci correspond à

leurs préoccupations : l'apprentissage de capacités adaptées aux situations professionnelles.

Pour B. Rey (1996 : 29), « la construction de « référentiels » et de « socles » de

compétences », dans les milieux scolaires, est un dérivé des taxonomies et de la pédagogie par

objectifs. A la suite des travaux sur les représentations sociales, il semble plus exact de

l’analyser comme une conséquence de l’appropriation, par les milieux professionnels, d’un

concept qui tend à se généraliser, mais cela ne nuit pas à la pertinence de la critique de cet

auteur. Cette représentation sociale a orienté les professionnels vers une acception très

comportementaliste, où la compétence est une (ou un ensemble de) tâche(s), « dont

l'accomplissement est un comportement observable. Si le comportement a lieu, (l'enseignant)

en infère que la compétence est acquise. » (Idem : 31). F. Conne et J. Brun (dans J. Dolz &

E. Ollagnier ; 2002) illustrent aussi ce point de vue, en étudiant l'introduction de ce concept

dans les programmes d'enseignement des mathématiques (plans d'étude romands) :

« Le terme de compétence se substitue aux savoirs et aux objectifs, en tant qu'opérateur de la hiérarchisation des activités en classe » (2002 : 98).

Il faut bien convenir que l'introduction d'un nouveau concept ne modifie que rarement les

fonctionnements des acteurs d’un système, du moins dans l’immédiat. Mais cette conception

taxonomique, en revanche, n'est guère adaptée au milieu de la formation professionnelle :

« Si l'on passe du domaine pédagogique à celui de la formation professionnelle, la révision de la notion de comportement s'impose encore avec plus de clarté. Si dans ce domaine on cherche l'unité de comportement pertinente du côté des mouvements successifs au travail, on ne trouvera guère un principe de découpage indiscutable. En effet, on risque alors comme dit Malglaive de se perdre dans « une infinité d'actes moteurs aussi bien que mentaux devenus insignifiants ». En revanche, dans l'activité de travail où l'opérateur intervient dans un dispositif technique qui transforme un objet, on peut découper des étapes beaucoup moins contestables ; ce sont celles qui correspondent aux états successifs de la transformation de l'objet ou aux phases successives de la procédure » (B. Rey ; 1996 : 34).

Page 262: UN REFERENTIEL, POUR QUOI FAIRE

262

Pour cet auteur, la compétence se libère ainsi du carcan positiviste pour une conception plus

fonctionnelle. Il cite plusieurs auteurs :

« Les compétences forment des ensembles structurés dont les éléments se combinent, s'agencent, s'ordonnent selon des hiérarchies afin de répondre aux exigences des activités qui doivent être réalisées » (P. Gilbert & M. Parlier). « Une compétence se définit comme un système de connaissances conceptuelles et procédurales, organisées en schémas opératoires et qui permettent, à l'intention d'une famille de situations, l'identification d'une tâche-problème et sa résolution par une action efficace » (P. Gillet).

« L'exercice d'une compétence » devient ainsi « un projet », une « action sur le monde » qui

est définie « par son utilité technique ou sociale ». Le contexte spécifique de la formation

professionnelle a donc induit une acception plus téléologique de la compétence, qui rejoint

« la plupart des définitions données par d'autres chercheurs en sciences de l'éducation » :

« à savoir a) qu'une compétence comprend plusieurs connaissances mises en relation, b) qu'elle s'applique à une famille de situations, c) qu'elle est orientée vers une finalité » (L. Allal dans J. Dolz & E. Ollagnier; 2002 : 79).

La compétence est ainsi un ensemble de réponses fonctionnelles à un ensemble de tâches

prescrites qui correspondent à une situation de travail. B. Rey propose alors une troisième

conception de la compétence, comme « puissance génératrice ».

« Ainsi la compétence linguistique dont parle Chomsky n'est pas du tout un comportement. C'est un ensemble de règles qui régissent les comportements langagiers, sans être ni observables ni accessible à la conscience du sujet. Mais son existence est attestée par le fait qu'elle rend compte d'abord de l'apprentissage de la langue, ensuite de la capacité à produire une infinité d'énoncés nouveaux, enfin de l'indépendance des énoncés par rapport à la situation » (1996 : 37, 38). Ainsi, la compétence « est conçue comme une capacité générative susceptible d'engendrer une infinité de conduites adéquates à une infinité de situations nouvelles » (1996 : 41).

Les problématiques propres aux sciences de l'éducation ont donc conduit les chercheurs à

centrer leur focus sur les processus cognitifs qui structurent les compétences.

« La question des conditions d'apprentissage de la capacité est décisive (…) Cette question du mode d'acquisition des capacités transversales est essentielle pour le pédagogue, car quel serait l'intérêt de telles capacités si l'on ne savait pas comment les faire apprendre par les élèves ? » (B. Rey ; 1996 : 72).

Ces réflexions enrichissent la conception introduite par les ergonomes européens. Les

discussions autour des « compétences transversales », notion introduite dans les programmes

scolaires, en sont un bon exemple, ainsi que celles autour de la notion de « capacité », prisée

par les milieux de la formation professionnelle, que l’auteur définit comme un ensemble de

« connexions, puis des mise en réseaux à la fois de connaissances, mais aussi de procédures

qui finissent par prendre forme d'organisations mentales stables » (P. Gillet cité par B. Rey).

Page 263: UN REFERENTIEL, POUR QUOI FAIRE

263

Mais il montre aussi la difficulté à identifier, à plus forte raison à isoler, de telles capacités

transversales. Les capacités restent tout au plus la façon de nommer les « objectifs généraux

des taxonomies » :

Si « le repérage d'une identité structurelle entre plusieurs compétences paraît offrir une assise objective » à cette notion, « l'existence d'une capacité, même dans ces cas privilégiés, demeure douteuse : c'est l'analyste, psychologue ou pédagogue, qui isole dans la complexité d'une compétence spécifique ce qui est commun avec la complexité d'une autre. Or du repérage d'une telle identité formelle à l'affirmation d'une opération mentale unique réellement effectuée dans les deux situations, il y a un saut qu'on ne peut franchir qu'avec précaution » (B. Rey : 1996 : 69).

Pour cette raison, on a limité, dans ces travaux, l’utilisation de la notion de « capacité » au

concept générique (à la catégorie) qui qualifie les différentes « structures mentales

stabilisées » (connaissances, conceptions, compétences, etc. – cf. page 303) sans préjuger de

l'existence de capacités transversales ou fondamentales, qui pourraient être sous-jacentes à

celles-ci. Les discussions sur ce sujet n'en sont pas moins intéressantes pour attirer notre

attention sur certains processus cognitifs qui sont essentiels dans la formation de ces

capacités, telle la signification (« le sens que le sujet donne à chacune des situations » - Idem :

201) ou l'intentionnalité, c'est à dire le projet de l'acteur qui le conduit à utiliser telle ou telle

capacité. On retrouve ici les intuitions de la phénoménologie d’E. Husserl. Mais notre objet

concerne plus l’évaluation (les capacités observables) que la pédagogie (les motivations).

P. Pastré et R. Samurçay ouvrent des perspectives opérationnelles plus adaptées à

notre objet de recherche. Ces auteurs mettent en valeur, puis définissent ce qu’ils nomment

« concepts pragmatiques », avec « l’idée de faire porter la formation des opérateurs

principalement sur ces concepts » :

« Ces concepts pragmatiques apparaissent explicitement dans le discours des opérateurs. On pourrait dire qu’ils constituent, au moins en partie le savoir de la profession : ils ont d’abord existé « en acte », dans les « manières de faire » utilisées pour maîtriser diverses situations, avant d’être verbalisés pour devenir plus facilement communicables (…) A la différence d’une connaissance à base de concepts scientifiques, les représentations à base de concepts pragmatiques ne retiennent que les relations qui sont utiles par rapport au but correspondant à la situation et à la fonction de l’opérateur. (…) Avec les concepts pragmatiques, il semble que l’on puisse articuler de façon assez étroite l’usage et la définition » (R. Samurçay & P. Pastré ; dans M. de Montmollin & J. Leplat ; 2001 : 107, 111).

Ces concepts ne sont pas produits par des conceptualisations de type scientifique, mais dans

un rapport de référence avec les situations à travers lesquelles ils acquièrent du sens. P. Pastré

évoque « l’intelligence de la situation », « de plus en plus requise ». C’est en s’inscrivant dans

les situations professionnelles que les concepts pragmatiques prennent de la signification pour

les acteurs. L’auteur met alors en valeur l’articulation entre les dimensions procédurales et

l’élaboration des processus de conceptualisation :

Page 264: UN REFERENTIEL, POUR QUOI FAIRE

264

« double dimension présente dans toute compétence : dimension spécifique liée plus particulièrement au métier, dimension générique liée à l’élaboration d’outils cognitifs plus généraux ; le rôle central de la conceptualisation des situations dans la construction des compétences ; le rôle respectif de l’exercice de l’activité et de l’analyse de l’activité dans le développement des compétences, notamment le rôle décisif joué par l’activité réflexive d’analyse de l’action » (P. Pastré ; idem : 156).

Ainsi la différence introduite par les cognitivistes entre le procédural et le déclaratif s’exprime

ici à travers une nouvelle différenciation : la « double dimension de la connaissance,

opératoire et prédicative ».

« (Celle-ci) se retrouve dans les concepts qui permettent de construire un modèle pertinent et efficace d’une situation professionnelle. Les concepts sont à la fois des outils pour l’action, permettant de prélever l’information pertinente pour agir, donc de faire un diagnostic de la situation et ainsi d’organiser l’action. Mais en tant qu’élément de la forme prédicative de la connaissance, ils s’inscrivent aussi dans une relation signifiant-signifié qui en objective la signification et permet d’en fournir une définition » (P. Pastré ; idem : 158).

Cette approche cognitiviste est particulièrement importante pour aborder les processus

d’évaluation mis en œuvre plus ou moins consciemment par les acteurs du monde

professionnel, car elle vient compléter la conception du « référentiel commun », proposée par

J. Leplat (ci-dessus). L’hypothèse en est enrichie : si on admet, à la suite des travaux de P.

Pastré et R. Samurçay, que les agents d’un milieu socioprofessionnel possèdent un ensemble

de concepts pragmatiques pour parler de leurs situations professionnelles, il y a de fortes

probabilités qu’ils soient en mesure, à partir de la discussion sur des situations de travail et de

l’utilisation plus ou moins pertinente des concepts pragmatiques par un novice, d’apprécier si

le candidat a suffisamment acquis « l’intelligence des situations » pour être en phase avec le

référentiel implicite du milieu… et éviter ainsi des malentendus préjudiciables dans les

situations ordinaires de travail. Ce concept semble d’ailleurs assez proche de celui de « savoir

d’action » de J.M. Barbier, du moins dans sa dimension « process ». G. Le Boterf, dont on a

évoqué les conceptions en introduction de ce paragraphe, apporte quelques arguments

complémentaires sur l’utilité de ces représentations du monde professionnel :

« La représentation opératoire constitue, pour le sujet, un moyen d’agir sur sa propre pensée, en la représentant et en l’objectivant (…) Le travail sur les représentations est au cœur des processus de résolution de problèmes » (1994 : 60, 61). « Savoir sélectionner et transmettre les informations pertinentes par rapport à l’enveloppe du problème à traiter ; Savoir échanger par le moyen d’un langage commun opératif commun à l’ensemble du groupe » (2000/2009 : 202).

Page 265: UN REFERENTIEL, POUR QUOI FAIRE

265

L’auteur apporte ainsi des arguments sur la relation de ces représentations avec l’intention du

sujet qui sélectionne l’information, ou avec ses « cadres interprétatifs mémorisés ». Cela le

conduit vers la notion de « réflexivité » qui permet de traduire cet effort de réflexion des

groupes sociaux sur leurs propres pratiques. Mais il la conçoit plus comme un acte de

réflexion du sujet sur son action, à l’instar des modes d’analyse qui se sont développées dans

les milieux professionnels avec les évaluations formatives / formatrices ou avec les « analyses

de la pratique » :

« L’axe de la réflexivité, c’est l’axe de la distanciation. Il correspond à la métacognition, c'est-à-dire au retour réflexif du sujet à la fois sur ses pratiques et sur les ressources qu’il possède et utilise. Se distancier, c’est établir une distance entre soi et son activité, entre soi et ses ressources. En se donnant un statut d’extériorité, le sujet n’est plus immergé dans un problème mais se positionne face à un problème. (…) La réflexivité est essentielle dans la construction du professionnalisme. Le retour sur soi même est nécessaire pour réactiver et expliciter les ressources (savoirs, savoir-faire, réseaux d’expertise…) auquel on a fait appel et qui ont été combinées et mobilisées » (Idem : 133, 162).

Il réintègre cependant la dimension collective de cette réflexivité dans son discours, quand il

parle de la compétence comme un savoir agir ensemble, un « savoir coopérer » :

« La construction progressive et permanente de représentations partagées. Face à la complexité des problèmes à résoudre, des situations à diagnostiquer, des innovations à promouvoir, il est nécessaire que les référentiels individuels convergent vers un référentiel commun, vers la constitution d’un « espace de problème » partagé » (Idem : 205).

On a déjà évoqué cette notion de référentiel commun, à partir des conceptions de J. Leplat et

des compléments apportés par les travaux de P. Pastré et R. Samurçay. Lier l’émergence de

celui-ci au concept de « réflexivité », défini au paragraphe précédent, est un angle qui

apparaît pertinent pour enrichir l’hypothèse développée tout au long de l’approche

ergonomique de la compétence. Les activités métacognitives, à travers des espaces de

communication aménagés par le microcosme socioprofessionnel, conduisent à l’élaboration

de concepts pragmatiques adaptés aux pratiques professionnelles. L’ensemble de ces concepts

constitue un référentiel commun : un ensemble de conceptions acquises par tous les membres

d’une communauté, qui conduit à une adaptation réciproque lors des situations de travail

partagées. La seconde expérience (pages 611 à 657) qui a été poursuivie dans un réseau

d’animateurs professionnels, a mis en exergue la fonction de la formation professionnelle,

dans l’acquisition et l’intériorisation de ce référentiel (en l’occurrence autour de la « notion

de projet »).

Pour donner toute sa dimension à cette hypothèse, il apparaît maintenant important de

l’inscrire dans les contextes sociologiques et juridiques qui communiquent de la signification

à ces activités, du moins pour les acteurs sociaux que nous sommes.

Page 266: UN REFERENTIEL, POUR QUOI FAIRE

266

3-5) Analyse sociologique et juridique de la compétence :

Pour les sociologues, la compétence « ne peut s'appréhender que dans le cadre d'un

rapport social ». Elle représente une « relation socialement établie entre valeur d’usage et

valeur d’échange de la force de travail », qui « résulte d’un processus de socialisation et prend

place dans une division du travail dont tout emploi, même le plus isolé, est solidaire »

(Alaluf ; 1986 cité par A. Dupray, C. Guitton, S. Montchatre; 2003 : 7-12). C'est donc à

travers l'analyse des rapports de pouvoir entre les partenaires sociaux qu'est analysé ce

concept, qui a pris de plus en plus d'importance dans le monde du travail. A partir de

l'argument que la compétence professionnelle « se constate lors de sa mise en œuvre en

situation professionnelle », les organisations patronales revendiquent pour l'entreprise le

privilège « la repérer, en lien avec les institutions branches d'une part, le système éducatif et

les salariés d'autre part », mais surtout « de l'évaluer, de la valider et de la faire évoluer ». Une

position, on s'en doute, qui suscite bien des débats. M. Stroobants résume bien un avis qui

semble prédominant chez les sociologues français qui se sont consacrés à cette question :

« Il semblerait qu'au nom de la logique de compétence, plusieurs pratiques contribuant à l'affaiblissement des relations collectives ont été développées » L'auteur cite en particulier : « les méthodes d'évaluation des compétences répertoriées dans les référentiels (qui) sont devenues si sophistiquées qu'elles sont souvent confiées à des bureaux de consultants privés (…) On assiste alors à une privatisation et à une technicisation d'une partie de ce qui relevait autrefois de la négociation collective » (dans J. Dolz & E. Ollagnier ; 2002 : 70, 71).

S. Le Corre apporte une analyse complémentaire sur les modes de gestion qui sont

intrinsèquement liés à l'essor de cette conception :

« (La gestion des compétences) promeut une définition élargie des postes de travail et des modalités souples d'affectation des personnes à ces postes qui trouvent leur traduction dans le vocabulaire utilisé : les termes « d'emploi », de « fonction », de « missions », de « filières professionnelles » remplacent ceux de « postes » de « tâches » et de « catégories statutaires et fonctionnelles » (…) La description des dispositifs et des principes de gestion des compétences montre tout d'abord que les employeurs attendent des salariés, y compris d'exécution, qu'ils soient capables de s'adapter non à des postes de travail définis en termes de procédures fixes, mais à des situations de travail changeantes, reliées les unes aux autres, et d'en garantir les résultats de production » (dans A. Dupray, C. Guitton, S. Montchatre; 2003 : 55).

Avec la conception sociologique, la « compétence » est ainsi repositionnée dans son contexte

social d'usage. La compétence aurait-elle de la signification, pour les salariés, en dehors de la

reconnaissance sociale dont elle est l'expression et des bénéfices que confère cette position ?

Et s'il n'existait pas ce jeu de reconnaissance, les travailleurs seraient-ils motivés à se former ?

Dans ce contexte, la « question de l'évaluation est évidemment tout à fait cruciale », puisque

c'est à travers ces modalités d'évaluation que se construit cette reconnaissance.

Page 267: UN REFERENTIEL, POUR QUOI FAIRE

267

« Les enquêtes qui portent sur ce thème ne sont pas encore assez nombreuses, mais elles commencent à fournir une vision informée des pratiques dans des contextes très différents (…) Alors que le mode dominant d'évaluation en Allemagne est « critérié » et que le contenu des grilles d'évaluation est soumis à un contrôle serré du Betriebsrat et doit donner lieu à un accord explicite, il est depuis 1990 en France, parallèlement au développement du modèle de la compétence, exclusivement construit sur des objectifs. Le modèle repose ainsi sur le postulat de base de « l'impératif de progrès » qui « concerne autant les pratiques de travail et professionnelles que les conduites sociales ». Bien entendu, le contenu d'un tel modèle n'est pas négocié. Ce qui est évalué dans ce cas est la performance dont on déduit mécaniquement la compétence. Cette performance dépend assurément de l'investissement du salarié dans son travail, mais elle dépend aussi de facteurs qui peuvent lui échapper totalement » (F. Piotet dans A. Dupray, C. Guitton, S. Montchatre; 2003 : 40).

L'essor de la compétence s'accompagne donc d'une individualisation des relations salariales

de plus en plus marquée, au détriment des négociations collectives et « au profit des salariés

les plus en mesure de jouer le jeu des carrières ouvertes » (S. Le Corre). Pour analyser cette

évolution, F. Piotet replonge dans les racines historiques qui ont conduit des corporations de

« métier » du moyen-âge jusqu'à l'« ordre industriel et procédural de la qualification » avec

une « classification des postes », amorcée au début du 20ème siècle, mais surtout mise en

place après la seconde guerre mondiale. L'intervention de l'État a été décisive, en France du

moins, pour instituer ce système, qui « remplira correctement son rôle régulateur des marchés

du travail et de la concurrence pendant une trentaine d'années » (F. Piotet). C'est dans un

contexte de concurrence de plus en plus vive que, de nos jours, ce modèle est mis à mal au

profit du modèle de la compétence, et des modes de gestion moderne qui sollicitent une

adaptation et une mobilité plus importantes des salariés. La conception sociologique nous

apporte donc des informations sur le cadre de référence implicite dans lequel s'insèrent les

Référentiels de compétences, qui sont élaborés en collaboration avec les représentants des

organisations patronales et syndicales. L'institutionnalisation du RNCP n'est pas qu'une

normalisation administrative, elle exprime des enjeux sociaux qui sont implicitement perçus

par les acteurs et qui structurent les modes relationnels mis en œuvre. Mais le point de vue

sociologique ne reflète qu'un des aspects de la problématique, certes pertinent pour

comprendre l'ampleur prise par cette conception, de nos jours : il ne faut pas oublier que ce

concept a surgi bien avant ces phénomènes d'institutionnalisation, d'abord comme outil au

service de l'étude de nos processus cognitifs (linguistique et ergonomie), ensuite comme outil

de gestion des modalités de formation : et c'est bien à ce titre qu'il nous interpelle ici.

Le réduire à de nouveaux modes de management du capital humain dans les entreprises et à

une redistribution des cartes orchestrée par le patronat serait, pour le moins, simpliste.

Page 268: UN REFERENTIEL, POUR QUOI FAIRE

268

Il est certain que les sociologues cités ci-dessus n'ont pas une vision si réductrice de la

compétence, mais il n'est jamais inutile de rappeler que, si un nouveau système se développe

et s'institue en lieu et place d'un système qui décline, ce n'est jamais l'œuvre de quelques

acteurs « avant-gardistes » ou « médiateurs » - même si ceux-ci jouent un rôle important dans

la diffusion des idées et des conceptions -, mais bien une convergence d'intérêts et de

dynamiques sociales qui participent activement à ces restructurations à différents niveaux :

l'administration par le biais de l'institutionnalisation du RNCP, les milieux de la formation

professionnelle qui cherchent à s'adapter aux besoins de la vie sociale, le conseil en

entreprises qui privilégie les modes participatifs et collaboratifs, les nouvelles conceptions de

management pour s'adapter à un monde très mobile, les syndicats qui souhaitent valoriser

l'effort de formation des salariés, la justice qui statue sur les modes de contractualisation, etc.

Il n'est pas certain, quand un tel phénomène s'amplifie, que tous les acteurs aient les mêmes

conceptions autour des mêmes notions et termes utilisés. Il est même plus probable qu’elles

divergent profondément : la multitude des approches et des définitions, évoquée au début de

ce paragraphe, ne plaide-t-elle pas en ce sens en ce qui concerne les phénomènes dont il est ici

question ? Mais ces approches sociologiques ont introduite une dimension fondamentale : les

conceptions de la compétence sont aussi fonction des positions que les acteurs occupent dans

le système. Elles font ainsi émerger des hypothèses sur ces jeux d’acteurs et sur la façon dont

les modes relationnels s’instituent entre eux.

Pour les approches juridiques, la compétence est abordée par rapport à « l’opération de

classification, (qui) s’inscrit pour sa part dans le cadre des relations collectives et exprime

l’état du compromis entre les partenaires sociaux à un moment donné ». Les recherches dans

ce domaine apportent des éléments d'information complémentaires sur les jeux d’acteurs, en

particulier par l'étude de la jurisprudence, des conventions collectives, des contrats-types, des

cadres règlementaires ou de la loi. Ce sont surtout les questions contractuelles qui sont des

objets de discussions pour les juristes. Effectivement, un contrat a une valeur contraignante à

partir du moment où il est librement consentie par les parties en présence.

« La rationalité juridique est alors purement formelle, elle ne s'intéresse pas à la finalité des actions, simplement aux formes légitimes qui doivent y présider. Par exemple, la règle selon laquelle les conventions légalement formées tiennent lieu de loi à ceux qui les ont faites (article 1134 du code civil) habilite les personnes juridiques à passer des contrats qui les obligent juridiquement, indépendamment du contenu du contrat lui-même (sous la réserve que la formation d'un contrat soit exempte de vice du consentement et respecte les règles d'ordre public) » (M.L. Morin dans A. Dupray, C. Guitton et S. Monchatre ; 2003 : 169).

Page 269: UN REFERENTIEL, POUR QUOI FAIRE

269

La notion de compétence s'immisce ainsi progressivement dans la jurisprudence, du moins

dans les discussions doctrinales : le « licenciement pour insuffisance professionnelle »

apparaît un motif récurrent qui induit l'appel à cette notion :

« la loi de 1973, en posant l'exigence d'une cause réelle et sérieuse pour tout licenciement, a conduit progressivement à la précision jurisprudentielle des contours de la compétence, par le biais du contentieux sur l'insuffisance professionnelle » (V. Wauquier dans A. Dupray, C Guitton et S. Monchatre ; 2003 : 152).

Ces situations conduisent la justice, non à définir le concept de compétence qui ne relève pas

de son champ théorique (du moins dans son acception professionnelle), mais à demander aux

contractants de faire cet effort de définition objective.

« L'exigence d'éléments objectifs traduit l'idée selon laquelle l'employeur doit extérioriser et expliciter son jugement sur la compétence du salarié. Le caractère objectif est celui en vertu duquel les juges vérifient que l'incompétence du salarié s'incarne dans des manifestations extérieures susceptibles de vérification. Ces manifestations extérieures doivent s'appuyer sur des faits imputables au salarié. L'insuffisance professionnelle ne peut donc exister seulement dans l'esprit de l'employeur. Les juges doivent pouvoir vérifier quelles étaient les fonctions confiées au salarié et la nature de l'insuffisance professionnelle alléguée » (Idem : 152).

Autour de cette « question de l'objectivation » de la compétence, se greffent d'autres

problématiques, en particulier celle de la formation des salariés, l'incompétence ne pouvant

justifier un licenciement, ou autres mesures de rétorsion, « quand l'employeur n'a pas satisfait

à son obligation d'adapter le salarié à l'évolution de son emploi » (idem : 153), obligation qui

n'est exigible de l'employeur « que si l'inadaptation du salarié a pour origine l'évolution de son

poste » (idem : 155). Ainsi, si la compétence est invoquée par la jurisprudence, c'est en

relation avec l'obligation de formation professionnelle, pour ajuster les savoirs faire du salarié

aux fonctionnalités du poste. Mais elle peut aussi être invoquée au sujet de l'affectation d'un

salarié à un nouveau poste de travail, qui est de la prérogative du patron en raison du lien de

subordination intrinsèque au contrat de travail. Une évolution du poste est autorisée, à

condition que « ni la rémunération, ni son niveau hiérarchique, ni son degré de subordination

(ne soient) modifiés », mais aussi que les compétences du salarié soient en rapport avec ce

nouveau poste (idem : 156-160). La question de la compétence fait donc référence, pour les

juristes, aux obligations liées au contrat de travail et aux conventions collectives. P. Caillaud

et C. Guitton, lors de ce même séminaire (CEREQ – 10/2001 à 02/2002), ont approfondi,

chacun à leur manière, l'étude des conventions collectives, l'un en insistant sur la « valeur

juridique du diplôme », l'autre en privilégiant l'analyse de la « gestion des compétences » et

de la « négociation collective ». C'est au lendemain de la seconde guerre mondiale (entre

1945 et 50) que l'État intervient pour fixer un cadre règlementaire aux négociations

collectives. Ce sont les arrêtés Parodi-Croizat :

Page 270: UN REFERENTIEL, POUR QUOI FAIRE

270

« Ces grilles (…) classaient les salariés en plusieurs groupes professionnels. La description des emplois reposait sur l'application de deux critères essentiels : le salaire effectif et les connaissances nécessaires sanctionnées par un diplôme. Ce système rigide perd sa valeur avec la loi du 11 février 1950 qui, en restituant aux partenaires sociaux le pouvoir de fixer librement le niveau des salaires, fait de l'opération de classification des emplois un domaine d'intervention de la négociation collective de branche » (P Caillaud; dans A. Dupray, C. Guitton et S. Monchatre ; 2003 : 117).

Ces grilles introduisent un rapport entre la classification des emplois et la qualification

reconnue par le diplôme, mais aussi l'expérience appréciée à partir de l'ancienneté. A partir du

moment où ces classifications sont du domaine conventionnel, les diverses branches vont

évoluer différemment pour faire face aux contraintes de ces règlementations. Dans certains

cas, les anciennes « grilles Parodi » seront maintenues, voire améliorées par la « précision et

le détail de la description des emplois, dans des grilles désignées sous le nom de « Parodi

améliorées » » (P. Caillaud). Dans d'autres cas, « un « lien juridique fort » a été conservé

entre l'emploi et le diplôme, en particulier dans certaines professions (sanitaires, sociales,

juridiques, d'enseignement) où les autorités publiques ont maintenu une exigence de

qualification pour l'exercice de certaines pratiques professionnelles, « grilles désignées sous le

nom de « fonction publique aménagée » (idem). Mais, dans la plupart des branches, en raison

de la diversification des emplois et de la complexification de l'organisation du travail, le lien

entre le diplôme et l'emploi s'est assoupli. Un nouveau type de grilles, dites « à critères

classants », est apparu dans les années 1970, à la suite des accords de Grenelle.

« A partir de 1975 se développent des grilles à critères classants, qui intègrent la notion de compétences requises par l'emploi comme critère d'évaluation et de classement des emplois. Il revient désormais aux entreprises d'élaborer leurs propres grilles sur la base des critères négociés au niveau de la branche. Cette évolution rapproche les classifications d'emploi du « travail réel » mais « réduit la portée régulatrice » des classifications de branche » (C. Guitton ; idem : 141).

Il y a ainsi un assouplissement des cadres imposés par les conventions collectives et une

adaptation aux contextes locaux. On comprend mieux les arguments des sociologues qui

analysent cette évolution comme un « recul » de la fonction remplie par les conventions

collectives, au détriment des travailleurs. Ces dernières n'ont plus comme rôle de favoriser

l'émergence de nouveaux droits collectifs, mais d'encadrer les modalités de « gestion de la

compétence », « l'enjeu portant désormais sur la définition des procédures collectives

d'évaluation des compétences individuelles des salariés » (C. Guitton). Cette tendance est

accrue avec l'apparition, dans les années 1990, d'une « nouvelle génération de classifications

de branche qui introduisent une référence aux compétences acquises par le salarié » (Idem).

Page 271: UN REFERENTIEL, POUR QUOI FAIRE

271

L'évaluation de la compétence individuelle des salariés, qui est conduite au sein de

l'entreprise, assouplit encore les liens d'obligation entre la qualification des emplois, fondée

sur une « grille à critères classants » et la qualification des salariés, attestée par un diplôme ;

les compétences professionnelles des salariés sont de plus en plus évaluées au sein des

entreprises. L'institution des CQP, mis en place à la même époque, vise à renfoncer la

reconnaissance de la fonction formatrice du travail en entreprise (formation en alternance),

mais aussi à renforcer la position patronale dans l'appréciation finale pour l'acquisition du

diplôme. Ainsi que le note C. Guitton :

« A partir de 1991, les prérogatives de validation conférées aux partenaires sociaux sous l'égide des CPNE (commissions paritaires nationales de l'emploi) ont introduit une brèche dans le monopole étatique. Les partenaires sociaux ont désormais une responsabilité propre en matière de validation des acquis de la formation professionnelle en alternance, à travers la création paritaire des certificats de qualification professionnelle (CQP) » (Idem : 132).

L’émergence des Référentiels de compétences (en particulier avec l’institutionnalisation du

RNCP) n’est-elle pas liée à ce contexte ? On peut faire l'hypothèse que si les pratiques ont

évolué, au sein des branches professionnelles, de façon différente, entre d'une part les grilles

« Parodi améliorées », d'autre part celles à « critères classants », et enfin celles de « fonction

publique aménagée », c'est bien que les enjeux sociaux n'y étaient pas les mêmes, ni les

modes de relation avec l'État, en particulier pour la dernière catégorie. Les types de

compétences évaluées ne seraient donc pas identiques dans les trois cas. Le concept de

« compétence » se serait ainsi structuré, en fonction des phénomènes de modes, avant de

s’instituer. En d’autres termes, les modes d’évaluation par les compétences, concept qui

s’impose dans les Référentiels officiels, n’est-il pas une mode sociale adaptée au contexte

actuel ? Certainement son histoire est-elle encore trop récente pour que se dégagent des

tableaux sur le modèle de l’idéaltype de M. Weber. Mais nous avons assez de distance

aujourd’hui (quinze à vingt ans) pour discerner certains liens entre l’engouement pour ce

concept, l’émergence des conventions collectives à critères classants et l’institutionnalisation

du RNCP (Répertoire National de Certification Professionnelle). Si cette hypothèse se

confirme, les conceptions du métier qui se dégagent dans chaque milieu professionnel doivent

refléter ces différents types de compétence. C’est cette étude qu’on proposera à partir d’une

dernière expérience de la partie expérimentale, l’analyse des discours des diverses branches

professionnelles sur les métiers en fonction des conventions collectives et des conceptions de

la compétence. Mais, pour interpréter ces résultats, il n’est pas superflu de borner un peu plus

le concept de compétence, en approfondissant l’analyse des enjeux sociaux qui se profilent

derrière ses définitions.

Page 272: UN REFERENTIEL, POUR QUOI FAIRE

272

3-6) Savoir être et compétence « éthique » :

Plusieurs critiques ont été formulées sur l’extension du concept de « compétence »,

pour tout évaluer. En particulier, S. Bellier Michel, lors du colloque de Metz sur les

« compétences et contextes professionnels » (E. Brangier, N. Bubois, C. Tarquinio, 1997),

nous interroge sur la notion de « savoir-être », utilisée dans les Référentiels aussi bien des

entreprises que des formations. Elle critique, en particulier, l’utilisation du concept de

« compétence » pour qualifier ce que les acteurs signifient par savoir-être :

« Nous trouvons en effet des termes qui relèvent de six catégories distinctes : des qualités morales (honnêteté, courage, sens moral...), des typologies caractérologiques (calme, nerveux, autoritaire, secondaire, passionné...), des aptitudes et des traits de personnalité (sociabilité, extraversion, force du moi, maîtrise de soi, dépendant du groupe...), des intérêts (manuel, artiste, imaginatif, sociable...) et enfin du comportement (capacité d’animation initiative, adaptabilité, réactivité aux événements...) » (S. Bellier Michel ; idem : 8).

Le fait de parler de « compétences transversales » pour qualifier ces « savoir-être » ne résorbe

en rien ces confusions. Si les savoir être interviennent dans les processus d’évaluation, du moins

dans les modes de communication au sein des milieux socio-professionnels, faut-il pour autant parler

de compétences :

« En désignant, le savoir-être comme une compétence transversale, on fait jouer aux dimensions psychologiques, telles qu’elles ont été modelées par le social, un rôle discriminant dans le système de pouvoir des organisations. On inscrit la relation individu / organisation au sein même des problématiques de pouvoir – d’autorité et de décision dirait Enriquez (1988) – tout en maintenant l’illusion de parler de gestion » (S. Bellier Michel ; idem : 11).

M. de Montmollin adopte une position assez proche. Pour lui, aussi, « l’ergonome ne propose

jamais l’évaluation des personnalités » (2001 : 58). Il reconnait les enjeux sociaux, ainsi que

les problématiques éthiques qui se glissent derrière l’appréciation de ces savoir-être, mais le

concept de compétence, défini par cette discipline, n’est guère adapté à celle-ci :

« Ce doit être terriblement difficile de pénétrer – rapidement toujours, semble-t-il en quelques entretiens, ou au mieux quelques séances d’assessment – dans l’intimité de la personnalité d’un candidat, pour le recruter, l’orienter ou le former, dans la perspective de fonctions où l’on fait l’hypothèse que, précisément les qualités profondes, « humaines », de communication, d’ouverture, de commandement, de décision… sont décisives. « Savoir-être », dit-on » (Idem).

Par conséquent, il ne semble pas pertinent de tout englober sous le concept de

compétence, position qui génère des ambiguïtés lors des situations d’évaluation, auxquelles

les sociologues nous ont sensibilisés - à partir des discussions et critiques émises lors de

l’introduction de ces « savoir-être » dans le jugement des compétences au sein des entreprises.

Page 273: UN REFERENTIEL, POUR QUOI FAIRE

273

Tout aussi ambigüe est la notion de « compétence éthique », qui se développe dans les

professions où l’engagement de l’individu est important. Les milieux sociaux de l’expertise

ont été particulièrement moteurs dans la définition de ces « nouvelles compétences éthiques »

(A. Guellil, S. Guitton-Philippe ; 2009), dénommées aussi « savoir-faire sociaux » (G. Le

Boterf ; 1994 : 102-107). L’objet n’est pas ici de critiquer l’évaluation de ce type de capacités

pour exercer ces professions, les praticiens sont les mieux placés pour juger et font souvent

preuve d’arguments convaincants. Mais l’amalgame entre « compétence » et « éthique »

masque la différence des processus cognitifs, par là même l’interaction entre ces processus, et

surtout le positionnement éthique différent que cela induit en matière d’évaluation, ainsi que

l’a relevé M. de Montmollin. C’est une chose d’être en mesure d’analyser une situation de

communication, de collecter des informations pertinentes en fonction d’une problématique,

d’analyser des discours, de traiter statistiquement des données, d’inférer des résultats à partir

de ces démarches, bref un ensemble de processus cognitifs qui relèvent de compétences ; c’est

une autre d’avoir la force de caractère de tenir tête à un commanditaire qui cherche à infléchir

les résultats dans un sens qui lui soit favorable, de refuser d’obéir à un ordre qui est contraire

aux principes moraux de notre société (cf. par exemple, le test de S. Milgram), de respecter la

déontologie de la profession et de ne pas abuser de sa position dominante pour obliger un

subordonné à des actes répréhensibles, etc. Les sciences juridiques ne traitent d’ailleurs pas de

la même façon un défaut de compétence et une transgression des règles morales93. Il s’agit là

de deux processus d’appréciation différents que la jurisprudence nous permet de distinguer :

dans le premier cas, les juristes étudient les rapports entre le poste de travail et les

compétences du salarié pour estimer ses responsabilités et celles de l’employeur, alors que,

dans le second, ce sera la responsabilité de la personne qui a fait l’acte qui sera recherchée. E.

Durkheim, dans sa thèse sur La division du travail social (1930/2007), qu’il a construite à

partir de l’étude des fondements juridiques de notre société, différencie les processus sociaux

qui sont en jeu à travers la « solidarité organique », dans laquelle s’inscrivent les premiers

phénomènes dont la reconnaissance des compétences, et ceux qui sont sous-jacents à la

« solidarité mécanique », à l’instar des valeurs morales, de la déontologie ou de l’éthique. Que

certains milieux professionnels considèrent fondamental d’évaluer ces capacités ne signifie

pas pour autant qu’elles puissent l’être sur le modèle de la compétence.

93 A ce titre, on pourrait discuter ici de la « note de vie scolaire », introduite dans les collègues et lycées, et qui engendre bien de confusions sans apporter de nouveaux outils éducatifs. Car si la note est un moyen adopté, de nos jours, pour exprimer l’évaluation d’une compétence, la transgression des règles sociales d’une communauté a toujours été gérée, traditionnellement, par l’application d’un système de sanctions, plus ou moins explicité.

Page 274: UN REFERENTIEL, POUR QUOI FAIRE

274

4) Modélisation des référentiels implicites :

Les évaluations n’ont pas de sens indépendamment des différents contextes dans

lesquelles elles s’exercent. Les actions d’évaluation ont des finalités qui s’expriment sous

forme de valeurs, elles ont aussi des fonctions sociales en rapport avec les autres modalités de

fonctionnement de la société. Par ailleurs, elles s’inscrivent dans des représentations sociales,

qui organisent ces finalités et de ces fonctions et qui constituent des cadres de référence pour

donner du sens aux interventions. Les référentiels implicites sont donc des représentations

sociales, ensemble de conceptions et pratiques qui structurent les Référentiels d’évaluation,

aussi bien lors de leur construction que de leur exploitation. La compréhension de cet

ensemble apparaît ainsi un exercice qui s’opère à différents niveaux d’une hiérarchie

pyramidale : chaque phénomène (ou, plus exactement, ensemble de phénomènes conjoints)

acquiert de la signification en s’intégrant dans un niveau supérieur qui lui procure des cadres

de référence. On a évoqué cette structure hiérarchique à partir des propositions d’A. Schutz,

on aura l’occasion d’y revenir avec celles d’E. Benveniste, en linguistique, ou de R. Barthes,

en sémiologie : tous ces modèles permettent d’appréhender la complexité de ce phénomène

sous des angles divers. Le modèle proposé ci-dessous, pour étudier les référentiels implicites,

est une modélisation cognitive, construite pour approcher cet ensemble de phénomènes

complexes, en s’appuyant sur différents champs d’investigation. Elle n’a pas la prétention à

englober l’exhaustivité de ces phénomènes, en raison de la complexité de ceux-ci ; son

objectif est de cerner différentes méthodes de recherche pour chaque niveau et d’offrir des

outils pour étudier l’articulation entre ces différents niveaux, c'est-à-dire d’analyser la façon

dont se construisent les systèmes de référence. En étudiant, pour chaque niveau d’ordre, les

problèmes propres à la collecte des informations et à leurs traitements, on espère poser des

bases solides pour favoriser l’étude des processus cognitifs entre ces niveaux (processus de

référence). Comment un ensemble de phénomènes se structure-t-il en représentations (ou

apprésentations) : scripts, habitus et autres modes d’action ou de parole, etc. ? Comment ces

représentations et apprésentations sont-elles subsumées en catégories significatives (concepts,

critères, etc.), à partir desquelles sont inférés les processus d’appréciation ? Comment ces

catégorisations et ces typologies justifient-elles des décisions ? Comment s’articulent-elles

avec les conceptions des acteurs ? Autant de questions ouvertes sur la référenciation.

Page 275: UN REFERENTIEL, POUR QUOI FAIRE

275

4-1) La modélisation des niveaux de référenciation :

a) Le niveau de l’aperception phénoménologique :

La modélisation des référentiels implicites, développée dans les paragraphes précédents,

s’articule donc autour de quatre niveaux. Le premier niveau est celui de l’aperception intuitive

des phénomènes : ces phénomènes peuvent être des images sensorielles, des sons, des

perceptions tactilo-kinesthésiques, qui peuvent être immédiates, remémorées ou surgir du

fond de notre mémoire, de notre inconscient, ainsi que l’a mis en valeur S. Freud. Les travaux

de la psychologie génétique, en particulier J. Piaget et L. Vigotsky, ont mis en exergue un

autre phénomène important. Cette aperception phénoménologique n’est pas innée et

instinctive (du moins ne l’est-elle qu’en partie, et certainement dans une faible proportion),

mais elle se construit. Les phénomènes perceptifs se coordonnent dans une aperception

globale (au sens d’E. Kant) et la constance d’un mode de coordination génère une relation

permanente. Ainsi se construisent des schèmes. Cette construction schématique peut s’opérer

de deux façons typiques, soit par répétition, l’action du sujet est alors plus prégnante, soit en

raison d’un lien récurrent entre deux phénomènes, par exemple l’odeur et l’objet ; dans ce cas,

c’est l’aperception de l’objet qui est prégnante. A partir des théories d’A. Schutz, on a choisi

de réserver le terme de représentation au premier type de schème et de nommer

apprésentation le second. J. Piaget a schématisé ces phénomènes avec sa modélisation de la

genèse de l’intelligence : dans la phase d’assimilation, le sujet s’approprie son univers ; dans

la phase d’accommodation, le sujet découvre les obstacles ; cela le conduit à une adaptation et

une intériorisation de schémas pertinents pour se mouvoir dans son environnement. Cette

modélisation est peut être plus réduite que la proposition faite ici, dans la mesure où J. Piaget

a privilégié, du fait de sa démarche scientifique, l’action du sujet à la coordination intuitive

des sensations récurrentes, c'est-à-dire la représentation par rapport à l’apprésentation. Mais la

modélisation proposée ici est dans la même logique que celle de l’auteur genevois et fait

référence à ces travaux et à ceux de son école. Au fur et à mesure que se construisent ces

rapports entre les perceptions - relations de significations -, ils apparaissent dans notre

intellect comme spontanément co-occurrents, intuitivement liés : ils forment un seul et même

phénomène. Par exemple, quand nous voyons un panneau sur le bord de la route, ou une

graphie écrite sur un papier, un mur, une enseigne, ces perceptions constituent « en soi » un

phénomène signifiant, sans que nous soyons obligés de remonter à l’origine génétique de leur

formation. Notre cerveau opère donc, de facto, une rationalisation ergonomique essentielle.

Page 276: UN REFERENTIEL, POUR QUOI FAIRE

276

Sans cela, il n’y aurait pas d’intelligence possible. Par conséquent, 1° quand une

conjonction s’opère par répétition ou récurrence entre deux phénomènes (par exemple, son et

image, ou encore odeur et image), au bout d’un certain temps, cette relation nous apparaît

comme un seul et unique phénomène de signification ; 2° les phénomènes ne résultent pas des

seules sensations primaires, ce sont aussi des schèmes, produits des connexions (et vections)

qui se sont formées au cours de notre développement sensori-moteur, et qui sont perçus

immédiatement et spontanément : par exemple, l’observation d’un « acte » n’est pas

seulement le produit d’une sensation, mais aussi d’une construction. Notre aperception des

phénomènes se modifie ainsi, se transforme et, de ce fait, évolue. L’aperception que nous

avons aujourd’hui de l’univers n’est pas celle que nous avions à quatre ans ou à dix ans. Pour

un scientifique, ce premier niveau, qui est celui de l’observation, est déjà complexe en soi.

Les phénomènes observés ne peuvent jamais être « pris-pour-argent-comptant », il existe

toujours une relativité de l’objet en fonction de sa genèse. C’est certainement en raison de

cette complexité que la revue de la littérature (que l’on pourrait aussi nommer phase

conceptuelle) a une place si importante lors des recherches scientifiques, du moins en sciences

sociales et humaines. La première difficulté est donc d’identifier les phénomènes observés,

leur nature (au sens de leur ontogenèse), leur composition, leurs attributs, mais aussi les

relations qui les distinguent ou les rassemblent, etc. Mais ces procédures que nous appliquons

aux phénomènes n’ont pas de sens pour-elles-mêmes : leur sens s’ancre dans la référence aux

représentations et apprésentations, pour lesquelles elles sont sollicitées. Quelles

apprésentations induisent ces phénomènes mis en valeur par la procédure ? Dans quelles

représentations s’inscrivent-ils ? Et cela vaut pour chaque objet, acte, parole ? A ce niveau, la

modélisation nous guide de deux façons, au moins : d’abord pour observer dans quelles

mesures cette articulation avec les autres niveaux correspond réellement à la façon dont

procèdent les acteurs. Ont-ils besoin de se référer à des représentations ou des apprésentations

pour donner du sens aux phénomènes ? Ou n’est-ce pas l’inverse, le phénomène étant le

référent invoqué, par exemple, lors d’un litige entre correcteurs au cours d’un examen ? Mais

elle nous guide aussi pour conduire notre réflexion sur nos choix méthodologiques. Par

exemple, si nous utilisons le traitement des textes par logiciel, les éléments sur lesquels

s’opèrent les traitements sont des graphies, et non des sons phonétiques. Certes certains textes

soumis à l’analyse sont des transcriptions dactylographiées d’enregistrement oral. Mais les

procédures des logiciels s’appliquent-elles à ces formats ? Plus exactement, apportent-elles les

mêmes informations pour des expressions orales (retranscrites) ou pour des textes dont le

format original est l’écrit : documents de presse, textes de lois, fiches standardisées, etc. ?

Page 277: UN REFERENTIEL, POUR QUOI FAIRE

277

Par exemple, avec le matériel écrit, il est possible d’étudier les modalisations verbales (savoir,

pouvoir, devoir, vouloir / faire ou être), mais pas les modalisations non-verbales (mimiques,

rires ou sourires, intonations, silences, etc.), qui jouent pourtant un rôle tout aussi important

dans la communication. Chaque mode de collecte se centre sur un type d’observations donné.

Chaque procédure d’un logiciel94 valorise l’observation d’un type de processus : ainsi,

l’organisation propositionnelle syntaxique (TROPES), la récurrence des cooccurrences

(ALCESTE), etc. Par ailleurs, elle ne le fait qu’au niveau de la structure superficielle du texte

(au sens de N. Chomsky). Enfin ces éléments n’acquièrent de significations qu’en référence à

un contexte : la situation d’entretien, le concept étudié, l’objectif de la recherche, etc. C’est

tout cet ensemble qu’il convient d’interroger pour donner du sens aux phénomènes observés :

une « juste » signification. Par exemple, le logiciel TROPES permet d’avoir une vue

synthétique des modalisations verbales. En rapport avec les formes d’ancrage (pronoms

personnels, constructions des phrases, etc.) et avec le temps des verbes, il est possible d’avoir

un nombre d’informations important sur les positions de l’énonciateur. Mais ces informations

n’ont du sens qu’en référence à une situation de collecte (interaction interviewer / interviewé),

à la question qui a été posée, au sujet du discours, à la problématique qui justifie la démarche,

etc. La modalisation verbale exprime un état (E. Benveniste ; 1966 : 197), du sujet à la forme

active, du complément indirect à la forme passive : l’état de volonté, de pouvoir, de savoir,

etc. Cet état peut être celui du locuteur (« je ») sans ou avec co-locuteurs (« nous »), de (ou

des) interlocuteur(s) (« tu, vous ») ou bien des objets du discours (« il(s), elle(s) », groupes

nominaux, etc.). La valeur de l’information est différente 1) s’il s’agit du locuteur qui

s’exprime sur un de ces états dont il est le dépositaire, 2) s’il énonce un état de son (ses) co-

locuteur(s), on entre alors dans les jeux d’interaction, 3) s’il parle à la troisième personne, il

communique alors un avis ou une appréciation sur les objets du discours. Mais cet état lui-

même peut être sujet à discussion, en fonction du contexte, du cotexte (environnement interne

du discours), des cadres de référence des partenaires, etc. Et nous n’avons évoqué ni les temps

des verbes, ni les modes temporels, ni, de surcroît, tout l’accompagnement para-verbal. Bien

des éléments sont donc à prendre en compte pour donner un début de signification fiable à

chacun de ces verbes. Et on pourrait montrer qu’il en est de même pour toute unité du

discours (signifiant de la linguistique). Par conséquent, le sens ne dérive pas seulement, ainsi

que le postulait F. de Saussure, du rapport signifiant / signifié, mais aussi des rapports de

référence avec les autres niveaux d’ordre.

94 Bien entendu, il y a plusieurs procédures dans chaque logiciel.

Page 278: UN REFERENTIEL, POUR QUOI FAIRE

278

b) Le niveau des représentations et apprésentations :

Pour leur donner du sens, nous inscrivons les phénomènes dans des relations avec

d’autres phénomènes. Chacun d’entre nous crée ces rapports de signification en fonction de sa

propre expérience. Les modes de formation de ces structures de sens ont fait l’objet d’étude

de la psychologie génétique, mais aussi, sur un autre modèle, de la psychologie cognitive.

Une question supplémentaire préoccupe cependant le sociologue : comment ces rapports de

signification ont-ils acquis un caractère universel, c'est-à-dire commun et partagé par tous les

membres d’une communauté ? Elle se double d’une autre question, qui intéresse plus le

linguiste, du moins le sémiologue : comment ces significations partagées s’incarnent-elles

dans des signifiants, c'est-à-dire des formes phoniques, graphiques, iconiques ? Qu’est ce qui

en fait un objet (ou un projet), digne d’avoir un nom reconnu par tous ?

On a défini deux types de processus : l’apprésentation, induction spontanée d’un

phénomène mémorisé à partir d’un phénomène présenté ou remémoré ; la représentation, qui

agence les phénomènes en rapport à un but, à une fonction, du moins à une adaptation (au

sens de J. Piaget). On pourrait dire que les premiers processus sont de l’ordre de l’ob-jet, les

seconds du pro-jet. Mais attention aux connotations ! Les processus d’apprésentation n’ont

pas plus d’objectivité (dans son acception scientifique) que les processus de représentation.

Les hallucinations, les mirages, mais aussi les illusions d’optique, nous rappellent la

subjectivité de l’apprésentation, ainsi que certaines influences culturelles sur nos

aperceptions. Par ailleurs, bien des représentations s’inscrivent dans une objectivité liée à nos

besoins élémentaires. La dichotomie apprésentation / représentation (ou ob-jet / pro-jet) ne

recoupe donc pas celle de nature / culture, ni celle de particularisme / universalisme (ou

individuel / social). Ce sont là des dimensions différentes. La représentation de « manger » est

signifiée par des apprésentations naturelles et, de ce fait, elle se structure autour d’une

rationalité objective (au sens des sciences de la nature). La façon de se procurer la nourriture

est, quant à elle, beaucoup plus conditionnée par la société, par ses modes de production et de

distribution ; mais elle s’inscrit aussi dans les schémas-types d’une culture : ordre du repas,

types de plats, façons de manger, etc. Ces schémas-types sont eux-mêmes modelés, au fil du

temps, par les contraintes sociales et les normes de communication. La notion de

« déterminisme », mise en avant par les sociologues de la reproduction, est donc à entendre

avec relativité : le « déterminisme » est plutôt à concevoir au sens de la linguistique, où la

détermination est une relation de dépendance intrinsèque aux structures de la communication.

C’est le cas, par exemple, de l’organisation hiérarchique de la syntaxe.

Page 279: UN REFERENTIEL, POUR QUOI FAIRE

279

Nos représentations sont donc fortement encadrées par nos habitudes de fonctionnement

et par les contraintes de l’organisation de nos échanges, ce qui leur confère une dimension

sociale. Par ailleurs la façon d’exprimer ces représentations sociales est aussi fortement

contrainte par les normes de la communication langagière. Pour analyser la structure des

représentations sociales, il existe donc plusieurs niveaux d’observation. Elles sont

effectivement cadrées, d’une part par les contraintes organiques de nos productions

collectives et de nos actions sociales, que leur finalité soit naturelle ou culturelle (organisées),

d’autre part par les modes de communication qui sont utilisés pour leur conférer une

signification sociale partagée (communiquées). De là surgit une ambiguïté du concept de

« cadre » et de « référenciation », dont le sens est fonction du point de départ (signifiant) et

du point d’arrivée (signifiée) (sens = direction), autrement dit du phénomène observé et du

phénomène évoqué par cette observation (signification induite), en d’autres termes de

l’apprésentant et de l’apprésenté. La représentation est-elle la façon de parler des actions

(parole -> actions), la succession fonctionnelle des modes d’action (actions -> fonction) ou

l’ensemble des aperceptions intuitives qui lient ces actions et les sensations / perceptions /

images que nous en avons (fonction -> mobiles) ? Tous ces attributs sont significatifs de la

représentation, ils se retrouvent dans les diverses définitions qui nous sont proposées par les

auteurs. On voit ainsi se dessiner l’articulation entre les processus de référence qui donnent

corps à nos représentations. Par conséquent ces dernières ont du sens lorsqu’elles se

combinent avec les apprésentations qui sont générées par les relations entre les trois niveaux,

phénomènes qualifiés d’ « inférence » : l’apparition d’un phénomène permet d’inférer son

apprésenté, inclus dans la représentation et, de ce fait, de lui donner une signification inscrite

dans un cadre de référence. Si je sors un billet de mon portefeuille, dans une file de

boulangerie, et que je dis seulement « un pour aujourd’hui », il n’est pas difficile d’inférer que

la vendeuse a l’habitude de me voir et qu’elle connaît le produit que je viens lui acheter

régulièrement. La communication en société repose ainsi sur un nombre très conséquent de

présupposés induits par nos représentations. Pour notre recherche, cette modélisation par

niveau d’ordre aiguise notre attention au moment de l’interprétation : interpréter, c’est se

fonder sur les éléments qu’il est possible d’observer (apprésentant) et sur les inférences qu’il

est possible d’en déduire (apprésenté). Si notre approche porte sur le discours de l’acteur, les

éléments observés sont de l’ordre de la parole, et non de l’action ou de la fonction - ici

entendue au sens phénoménologique du rapport entre actions et aperceptions sensorielles.

Page 280: UN REFERENTIEL, POUR QUOI FAIRE

280

A partir de nos connaissances du sens commun, c'est-à-dire des schémas-types de notre

culture, et de nos connaissances scientifiques, en l’occurrence celles de la sociologie

interactionniste, cognitive et de l’ethnométhodologie d’une part, de la psychologie génétique

et cognitive d’autre part, on peut déduire la signification de ces paroles. Par exemple la

volonté implique à la fois l’action, le « faire » modalisé par le « vouloir » (« vouloir faire ») et

l’état affectif du sujet qui est à l’origine de cette action. Ces implicites ne sont pas discutés, ni

discutables, mot par mot, sans quoi ce serait folie et la condition de félicité serait impossible.

Mais le chercheur qui utilise l’analyse des discours, lui, a besoin de connaître au moins

certains de ces processus cognitifs, de façon générique, pour fonder ses protocoles d’analyse.

c) Le niveau analogique et la formation des concepts :

A ce niveau, il n'est plus possible d'ignorer certains questionnements sur la façon dont

les concepts et les catégories focalisent notre attention sur des phénomènes concomitants (ou

co-occurrents), favorisent par répétition (récurrence) la formation de relations stables

(signification), puis organisent l’intégration de ces conglomérats phénoménologiques dans

des systèmes de référence, en lien avec des structures conceptuelles plus larges. C’est à

double titre que la fonction du « concept » nous intéresse dans cette recherche : d’abord, en

tant que « catégorie », élément constitutif de la méthodologie, au cours de laquelle sont

définis les attributs observables et leur fonction dans le système ; ensuite, en tant qu'« objet de

recherche », signifié du discours des acteurs, identifiable, analysable et classifiable, par une

méthode d’analyse textuelle. Il n’est pas question, ici, d’engager une réflexion philosophique

ou une discussion psycholinguistique qui nous conduirait bien loin de notre problématique,

mais seulement de réfléchir à la fonction des « concepts », afin de clarifier la construction de

la méthode : analyse des « concepts » utilisés dans la méthodologie et étude systématique de

la conception des acteurs telle qu’elle s’exprime dans leurs discours (identification de leurs

critères implicites). Mais, sans approfondir ces questions, il est tout de même possible

d’émettre un certain nombre de postulats hypothétiques, à partir des recherches de la

psycholinguistique (L. Vygotski, J.P. Bronckart et les cognitivistes), de la linguistique (F. de

Saussure et les sémiologues), et des conceptions sociologiques présentées ci-dessus (A.

Schutz, E. Goffman, H. Garfinkel).

Page 281: UN REFERENTIEL, POUR QUOI FAIRE

281

F. De Saussure (1916/1986) a révolutionné la linguistique en considérant que la

signification d’un mot n’est pas une simple relation entre un objet, produit de nos perceptions

sensorielles, et un son. À partir de la réflexion qu’il a conduite pour décrire le « signe »

linguistique (1916 : 28 à 35 et 97 à 103), il définit celui-ci comme une « union » entre un

« signifiant » et un « signifié », c'est-à-dire entre la forme (phonique ou graphique) du signe et

le concept signifié. Le « signifié » n’est donc pas l’objet auquel il est fait référence : au mot

« arbre » ne correspond pas l’objet, l’arbre tel qu’on le voit ou on l’imagine, mais son

concept. Une conception assez proche est développée, à la même époque, par C.S. Peirce, et

par C.W. Morris qui nomme ce signifié « designatum ». L’objet auquel fait référence ce

« designatum » sera appelé par C.W. Morris le « denotatum ». La dénotation serait donc le

processus opératoire qui lie l'objet et le concept signifié. Dans les écrits plus récents de la

linguistique, on appelle ce « denotatum » le « référent » du signe. Mais le « référent »

linguistique est-il l’objet nommé ou la représentation de celui-ci ? La dénotation passe par la

construction de la référence et du référent (référenciation). Le « concept » n’est donc ni la

forme linguistique du signe, ni l’objet dénoté, il est le produit du système de référence, le

signifié du signe, en rapport avec un référent, lui-même produit de la construction de l'objet

aperceptible. Il donne ainsi du sens au signifiant qui lui sert de support d'expression. Mais en

différenciant la langue et la parole, c’est à dire le système des signes langagiers et la « partie

individuelle du langage », F. De Saussure cerne l’objet de la linguistique (la langue), définit

son statut autonome de discipline et renvoie à d’autres disciplines le soin de résoudre les

questions de communication sociale. Cette posture a été très productive pour la linguistique,

mais elle a aussi mis entre parenthèse la recherche sur la construction de la signification.

Les théories de L. Vygotski (1934 / 1997), en intégrant les progrès de la psychologie

et de la linguistique de son époque, apportent ici leur contribution. Lorsque l’enfant utilise un

mot pour la première fois, il est encore bien loin d’en maîtriser toutes les dimensions

conceptuelles. Ce sont les généralisations (associations, collections, chaînes) qui, en

s’agglutinant autour du mot et en se recomposant, conduisent à la formation progressive du

concept. Les formes phonétiques / graphiques sont en relation d'association avec des

perceptions, des sensations, des schémas types, ainsi qu'avec d’autres concepts, mais de façon

fragmentaire et non unidimensionnelle. Cet ensemble d’associations, en se généralisant sous

forme de collections, puis en s’insérant dans des chaînes conceptuelles, constitue

progressivement des pseudo-concepts, puis des concepts, une fois la structure globale

stabilisée (pages 414 à 423). L’auteur insiste ainsi sur le rôle moteur des concepts

scientifiques communiqués à l’enfant, pour structurer ses représentations (1997 : 272-274).

Page 282: UN REFERENTIEL, POUR QUOI FAIRE

282

Il l’illustre à travers une expérience sur l’acquisition des « rapports adversatifs » (bien que) et

les « rapports de causalité » (parce que). L’acquisition de nouvelles structures signifiantes

offrent de nouveaux outils conceptuels pour réorganiser les représentations de l’univers.

L’enfant parvient ainsi à élaborer des conceptions de plus en plus complexes. Cette

structuration de la pensée par l’acquisition d’un langage formel a aussi été l’objet des

recherches d’A.R. Luria, avec des adultes analphabètes vs lecteurs. (J.V. Wertsch, dans B.

Schneuwly & J.P Bronckart ; 1985 : 146). Différentes recherches psycholinguistiques nous

fournissent des illustrations de ces acquisitions syntaxiques progressives, par exemple le

conditionnel chez les enfants (J.P. Bronckart et ass. ; 1983). Les constructions conceptuelles

se diversifient et s’enrichissent ainsi progressivement, à partir des structures déjà existantes. Il

semble plus aisé de l’illustrer par un exemple : reprenons celui de « manger ». Ce signifiant

est en relation avec diverses sensations internes, plutôt agréables, mais aussi avec des

schémas-types de la vie quotidienne qui conduisent à l'obtention de la nourriture. Il semble

acquis assez tôt lors de l'apprentissage du langage par l'enfant. Pourtant on pourrait faire

l'hypothèse que, dans la plupart des cas, ce n'est pas « manger » qui est, au niveau de

l'ontogenèse, le premier signifiant relié aux schémas-type et sensations en question. D'autres

mots ou locutions, de façon indifférenciée par le petit enfant, font aussi référence à ces

schémas, et certainement de façon plus précoce : par exemple, « à table », « j'ai faim »,

« bibi », « miam », etc. A l'origine, on peut penser, à partir du moins de la phase de

« collections », que de nombreux signifiants sont en rapport avec le même signifié

(synonymie), au même titre que de nombreux signifiés sont en rapport avec le même

signifiant (homonymie). La différenciation de ces signifiants et signifiés (« table », « faim »,

« manger », etc.) ne semble possible qu'avec l'acquisition de la syntaxe, qui accompagne

l'appropriation, par l'enfant, des modes d'ancrage du discours en fonction des diverses

situations d'énonciation (deixis, prédication, hiérarchie syntaxique, etc.). Au fur et à mesure

que cette différenciation s'opère, les relations entre signifiants sont structurées, les uns par

rapport aux autres, et réciproquement entre signifiés : dans notre exemple, « j'ai faim », « c'est

l'heure de manger », « à table ».

Plusieurs hypothèses paraissent alors enrichir cette analyse :

1° Les phénomènes d'homonymie, qui résultent des processus de coordination psycho-

sensori-moteurs, amorcent la formation du concept en rassemblant les phénomènes signifiés.

Le concept ne se réduit donc pas à un simple phénomène d'association, mais à une succession

d'opérations autour du même signifiant, qui s'échelonnent dans le temps.

Page 283: UN REFERENTIEL, POUR QUOI FAIRE

283

2° Réciproquement, les phénomènes de synonymie précèdent et induisent la constitution de

genres, de types, puisque les différents signifiants vont progressivement voir leur sens se

préciser autour d' « une même idée », d'un même ensemble référent - en l'occurrence, dans

notre exemple, celui de « manger ». Le concept qui sera conservé pour regrouper les autres

(plus exactement qui occupera une place privilégiée dans la nouvelle structuration syntaxique)

sera alors générique, il acquiert un statut particulier, celui de fonction ou de catégorie, selon

que le processus privilégié soit l'action (représentation) ou l'attribution (apprésentation).

3° Au fur et à mesure de la généralisation, de la différenciation et de la structuration du

concept, les rapports de signification ne se limitent plus à des relations entre le signifiant et

des schémas-type ou des sensations, mais se généralisent vers d'autres concepts avec lesquels

il constitue des chaînes conceptuelles / en rapport de signification / avec des chaînes

signifiantes. En d'autres termes, au fur et à mesure que les structures syntaxiques acquièrent

de la signification, en elles-mêmes, indépendamment du contenu, il n'est plus utile de lier le

concept avec des référents de l'univers sensible, les relations sur la chaîne des signifiants

créent de la signification. Par exemple, « avaler, c'est manger vite ce que tu as dans

l'assiette ». Cette conceptualisation n'a d'ailleurs pas besoin d'une définition en extension,

comme dans l'exemple précédent, la simple récurrence de la co-occurrence du mot (signifiant)

avec certains attributs (adjectifs, compléments de noms, attributs du sujet, etc.), avec certains

prédicats (verbes, modes temporels, etc.) ou certaines modalisations (adverbes, modalisations

verbales, déterminants, etc.) vont donner de plus en plus de sens à ce mot. Le concept devient

autonome par rapport aux référents du monde sensible et aux schémas-type de la vie

quotidienne. Sa signification est induite par la mémorisation de ses relations avec les autres

concepts : « avale ce médicament », « avale le d'un coup », « il avait faim et a tout avalé »,

etc.

Il paraît difficile d'aller plus loin sur ces hypothèses, dans la mesure où cela nous

orienterait vers des protocoles expérimentaux de psychologie génétique et cognitive. Mais

nous avons déjà suffisamment de travaux scientifiques sur la question pour les poser comme

postulats hypothétiques. Par ailleurs les différentes observations faites au cours des analyses

de discours confortent ces présupposés. N'est-ce pas l'adéquation avec les méthodes

d'investigation qui justifient la pertinence des postulats ? Fondement du paradigme, le postulat

conserve sa valeur aussi longtemps qu'il est en concordance avec les modalités empiriques de

la pratique scientifique (en l'occurrence, l'analyse des discours) et qu'il n'est pas contredit par

de nouvelles découvertes scientifiques. Mais, pour comprendre ce lien entre ces postulats et la

méthodologie, il nous faut maintenant traiter du quatrième niveau, celui de l'interprétation.

Page 284: UN REFERENTIEL, POUR QUOI FAIRE

284

d) Le niveau des interprétations et la fonction des connaissances :

Le paragraphe précédent a permis de préciser la notion de concept, sa fonction

générique et sa formation génétique. Ce premier pas est essentiel pour définir le critère,

concept à valeur catégorielle et/ou prédicative. Mais nous avons vu aussi que les divers

attributs, fonctions, modalisations, etc. qui caractérisent le concept sont dépendantes, voire

induites par l'insertion de celui-ci dans les chaînes conceptuelles, ou « conceptions ». Les

relations entre concepts génèrent ainsi des ensembles de significations mémorisées : les

« connaissances ». Ce terme n'est pas limité, ici, à son acception scientifique, mais à toute

forme de conception intériorisée par un individu humain, y compris la connaissance d'une

personne, de son travail, de sa ville, de son quartier, etc. Bien entendu la connaissance ne se

réduit pas à la chaîne conceptuelle qui en permet la mémorisation, elle inclut aussi divers

systèmes de référence avec les schémas-type et les aperceptions qui donnent de la

signification au concept. Notons cependant qu'il peut y avoir mémorisation par

apprésentations, schémas-type, etc., sans qu'il y ait connaissance. C'est le cas, par exemple,

des habitudes, des jeux de positionnement, des modes de communication, etc. Mais, à

l'inverse, peut-on parler de « connaissance » sans une réflexivité sur nos actions et nos

sensations intuitives ? Aussi adoptera-t-on, pour l'instant, le postulat qu'il n'y a pas de

connaissance sans conceptualisation, c'est-à-dire sans expression langagière de ces formes de

représentations et d'apprésentations qui nous guident intuitivement dans notre univers

quotidien. Y a-t-il connaissance quand la mémorisation d'un concept ne repose que sur la

conceptualisation (apprentissage « par cœur » des définitions, récitation des phrases et des

mots) sans que les systèmes de référence des niveaux représentatif / apprésentatif et aperceptif

soient sollicités ? Nous retrouvons ici une problématique récurrente en éducation. Elle ne sera

pas approfondie ici, mais son existence est suffisante pour illustrer à quel point la formation et

la mémorisation des concepts sont de plus en plus autonomes de notre univers sensible au fur

et à mesure de la structuration de nos conceptions. Lorsque ces dernières sont entièrement le

produit d'échanges langagiers (par exemple, cours magistraux, lectures, etc.), n'ont-elles pas

besoin, pour acquérir du sens, d'être inscrites dans les champs de référence de l'apprenant, que

ce soit au niveau des représentations (projets), des apprésentations (intuitions) ou des

aperceptions (sensations, sentiments, etc.). Le signifié (concept) n'est donc pas

intrinsèquement lié au signifiant (mot), mais il résulte aussi de constructions référentielles.

Page 285: UN REFERENTIEL, POUR QUOI FAIRE

285

La signification d'un mot ne se trouve pas inscrite dans un lexique que les jeunes

générations doivent découvrir et intérioriser, conception qui s'est généralisée avec la mode

encyclopédique des dictionnaires. Ce sont les contextes dans lesquels l'utilisation de ce mot

est privilégiée, qui déterminent (au sens de la linguistique) les significations dominantes.

Celles-ci s'instituent, au fur et à mesure de l'utilisation récurrente du mot dans des contextes

donnés, sous forme d'un « lexème » (signifié) plus ou moins stable, qui sanctuarise les

principaux attributs, fonctions, modes, etc. significatifs du mot / concept (traits sémantiques

du lexème). Les contextes d'utilisation, privilégiés en raison de nos modes de communication

et des représentations sociales dominantes (modes et représentations qui se sont souvent

institués historiquement au moment de la génération du concept) constituent les cadres de

référence dans lesquels s'inscrit l'apprentissage. Le sens du mot est engendré par

l'institutionnalisation de son usage. Les autres significations, dérivées, métaphoriques,

ironiques, vont être induites par l'utilisation particulière du mot, dans un autre contexte. C'est

alors, par analogie aux représentations, schémas-type, apprésentations, modes ou genres, etc.

référents du concept, que le mot (signifiant) acquiert sa nouvelle signification dans le

nouveau contexte : par exemple, le « requin » dans le monde des affaires, les « joies » du

retour des vacances, la « tête » d'épingle, etc. Cette partie un peu technique sera reprise dans

la méthodologie, l'important ici est de préciser le modèle et son application.

Le concept est un produit de la récurrence des cooccurrences (rapports répétitifs du

mot avec les autres mots). Mais il est aussi le produit des systèmes de référence : contexte de

l'énonciation, jeux de positionnement entre acteurs, représentations mises en scène ou

communiquées, aperceptions induites lors de l'échange (concomitance du mot et de certains

phénomènes sociaux). Le critère est un concept qui a une fonction générique, catégorielle ou

prédicative, c'est-à-dire 1) il rassemble un certain nombre de phénomènes, 2) il induit un

certain raisonnement logique. Par ailleurs, 3) il intègre les phénomènes observés et les

processus logiques dans un champ de référence constitué et structuré, c'est-à-dire un ensemble

de connaissances. Ces trois dimensions sont celles qui ont été définies, à partir de l'analyse

des conceptions du critère et de l'indicateur, lors de la revue de la littérature (pages 323 à

336). Mais les analyses du paragraphe précédent nous conduisent à penser - aussi longtemps

que sont valides, empiriquement et scientifiquement, les postulats hypothétiques posés - que

ces processus de catégorisation et de prédication sont propres à tous les concepts, puisqu'ils se

structurent au moment de la formation de nos conceptions. Les critères apparaissent ainsi

comme des concepts qui ont un statut particulier, dans la mesure où ils assument une position

charnière, centrale et structurante, vis-à-vis des autres concepts, une position générique.

Page 286: UN REFERENTIEL, POUR QUOI FAIRE

286

On retrouve ici la notion de « référent - noyau », proposée par J.C. Abric (page 237),

mais surtout on en discerne le fondement. Certains concepts jouent un rôle clef / charnière

dans les processus de référenciation du fait :

1- des rapports de référence avec certains schémas-type (représentations) ou

intuitions sensibles (apprésentations), fondamentaux pour la collecte

d'informations pertinentes (niveau aperceptif) ;

2- des relations de signification avec les autres concepts au sein des structures

langagières mémorisés, connaissances ou conceptions.

Dans la mesure où, lors d’une interview ou d'une enquête, les observations sont

essentiellement fondées sur une collecte d'éléments langagiers, c'est cette dernière dimension

qui a été étudiée, ici, en priorité : les concepts les plus significatifs en matière de structuration

du discours sont discernés, puis ils sont corrélés aux éléments de la situation d'énonciation qui

leur servent de cadres de référence. Mais on peut aussi envisager la démarche inverse, ainsi

que l'ont montré la démarche sociologique d'E. Goffman ou l'ethnométhodologie : observer en

premier lieu les processus de communication, puis analyser les formes de discours qui se

greffent sur ceux-ci. Dans tous les cas, que la démarche soit plutôt analytique (analyse des

discours) ou ethnographique, ces deux approches s'enrichissent pour identifier la logique des

systèmes de référence dans une situation sociale donnée. On voit ainsi se dégager un

paradigme (MEO) : l'étude systématique des co-occurrences et des constructions syntaxiques

dans un texte donné (interview ou écrit) permet d’analyser les relations conceptuelles

privilégiées, ou conceptions dominantes, au moins par rapport à la situation de collecte. Les

rapports de référence de ces constructions conceptuelles (catégorielles ou prédicatives) avec le

contexte de l'énonciation offrent diverses informations sur les processus signifiés : il est alors

possible d'en déduire leur fonction référentielle. La position des termes co-occurrents nous

fournit aussi, en raison des significations induites par l'organisation syntaxique, des

informations sur la logique implicite de ce système de référenciation : par exemple, le mot

« savoir » apparaît-il plutôt en position de substantif (le savoir), de verbe (savoir quelque

chose) ou de verbe modal (savoir faire) ? Enfin, l'analyse de l'organisation syntaxique permet

de remonter vers les termes qui assurent une position charnière dans le propos, signifiant ainsi

des concepts clefs ou génériques. La diversification des processus d''analyse discursive

permet donc d'identifier les critères à travers les conceptions des acteurs et de les rapporter à

des processus de communication, représentatifs des interactions qui sont en jeu. Les méthodes

d'analyse des discours seront précisées dans la partie méthodologique.

Page 287: UN REFERENTIEL, POUR QUOI FAIRE

287

4-2) L'application du modèle :

a) Le modèle et les concepts sociologiques :

Nous avons maintenant un modèle, de type cognitif, constitué de quatre niveaux

d'analyse, de quatre points d'ancrage pour nos observations. Il est posé comme postulat aussi

longtemps que les recherches en psychologie génétique et cognitive n'auront pas permis de

comprendre l'ensemble de ces processus cognitifs. On postule donc que la formation des

concepts et leurs diverses imbrications, connexions et interactions, conduisent à la

structuration implicite de ces niveaux d'appréhension de la réalité, indispensables à la

communication entre humains. Ce modèle est un guide pour notre étude des processus de la

référence, il nous permet de situer l'intérêt des matériaux collectés (entretiens, écrits,

observations ethnographiques, enregistrements vidéo, etc.), pour observer les processus

cognitifs, dans la perspective d'analyser l'élaboration ou l'utilisation des Référentiels

d'évaluation. On s'aperçoit vite que ces processus n'ont pas de sens indépendamment de

certains cadres sociaux, dérivés de nos représentations sociales. A ce titre, les chercheurs ne

sont pas mieux lotis que les acteurs sociaux en situation d'évaluer, ils ont besoin de

s'interroger sur la fonction de leur objet de recherche pour sélectionner les phénomènes à

observer et donner du sens aux actions. On rejoint donc, sur ce point, l'ethnométhodologie. Il

y a tout de même une différence qui légitime la position du chercheur : là où les acteurs

sociaux font référence aux champs de connaissances qui leur sont propres, ou à divers

systèmes de valeurs, le chercheur préfère s'appuyer sur les connaissances scientifiques,

sociologiques et sémiologiques, etc. De là, certainement, ce besoin d'ajouter à la revue de la

littérature des sciences de l'éducation (chapitre 5), celle sur les concepts sociologiques, ci-

dessus, et celle sur les concepts sémiologiques et linguistiques, dans les chapitres 8, 9 et 10.

Bien entendu, cette présentation ordonnée ne reflète que partiellement la construction d'une

recherche qui s'est structurée progressivement, par des aller-retours entre les différents

domaines scientifiques, progression qui a permis de préciser un certain nombre de questions.

Qu'est-ce que les examinateurs, ou les formateurs / enseignants, évaluent réellement, ou plus

exactement, que sont-ils en mesure d'évaluer ? La récente mode des Référentiels de

compétences est-elle adaptée aux préoccupations et aux conceptions (et connaissances) des

professionnels ? En quoi, les concepts sociologiques et les outils d'analyse des discours

peuvent-ils clarifier les enjeux et apporter de nouvelles perspectives ? C'est à ces questions

qu'il convient maintenant d'apporter une réponse synthétique.

Page 288: UN REFERENTIEL, POUR QUOI FAIRE

288

L'habitus est, si l'on reprend la définition d'E. Panofski, une « force d'habitude ». Par

ailleurs P. Bourdieu le définit à plusieurs reprises comme un « schème générateur ». En cela,

le sociologue s'est clairement inscrit dans une perspective constructiviste, dominante en

Europe à son époque : le « schème » apparaît comme une structure intellectuelle qui

s'intériorise à force d'habitudes et qui favorise l'adaptation de l'individu à son environnement.

Enfin, en raison de l'option matérialiste de l'auteur, l'habitus est conçu en rapport avec les

besoins physiologiques de l'individu qui s'adapte aux marchés de la production et de la

distribution. Certes le sociologue s'est aussi intéressé aux questions culturelles, mais il les a

analysées, le plus souvent, en termes d'images sociales, de jeux de positionnement et de

conquêtes de marché. Aussi n'apparaît-il pas incongru de limiter l'utilisation de ce concept

aux phénomènes qui relèvent des niveaux aperceptif et appresentatif. L'habitus est un

ensemble de références communes, de l'ordre de l'intuition. La question de la représentation

sociale est plus complexe, dans la mesure où nous avons au moins deux acceptions

scientifiques différentes de ce concept, celle plus ethnographique d'E. Goffman et du courant

sociologique de l'interactionnisme symbolique, et celle plus globale de S. Moscovici et de son

école. L'approche européenne a eu l'intérêt d'introduire des problématiques directement liées

aux préoccupations des professionnels, en particulier en étudiant l'espace intermédiaire entre

la sphère des images et celle des conceptions, ou l'adaptation des conceptions scientifiques par

les professionnels aux besoins de leur pratique, ou encore les processus d'objectivation et

d'ancrage. Mais elle souffre aussi, pour son approche empirique, de cette globalité. Diverses

méthodes sont exploitées (l'approche sociologique traditionnelle, l'approche qualitative par

entretiens ou par questions ouvertes, l'observation ethnographique, diverses formes d'analyse

des discours), sans qu'il soit toujours possible de discerner si les phénomènes observés

convergent dans une même structure objective. Il n'est donc pas toujours aisé d'identifier les

phénomènes de communication qui relèvent de la représentation sociale, ni de les différencier

empiriquement des concepts proches - par exemple, celui de mythe (D. Jodelet, E. Coelho

Paredes : 2010). Quelles sont les relations logiques entre ces deux concepts ? Que le mythe

soit l'ancêtre de la représentation sociale ou, plus précisément, que le premier soit propre aux

sociétés primitives et que la seconde concerne plutôt les sociétés modernes, ne nous éclaire

pas pour autant sur leur structure respective, ni sur les raisons sociales, organiques, qui ont

engendré ces différences. Aussi, pour clarifier les relations entre ces divers processus, on

préfère, à l'instar des anglo-saxons, limiter dans un premier temps le concept de représentation

sociale aux formes de communication, qui sont suffisamment codées, dans leur intention et

dans leur forme, pour être compréhensibles par tous les membres de la communauté.

Page 289: UN REFERENTIEL, POUR QUOI FAIRE

289

Bien entendu ces représentations sociales sous tendent des schémas-type et des images

symboliques. La signification des uns et des autres est inférée en raison des formes de

l'organisation sociale et des habitudes de communication. Il n'y aurait donc pas de

représentation sociale sans habitus. Mais le concept de représentation sociale ne saurait être

réduit à une somme d'habitus intégrés sous forme de schémas-type, car, dans ce cas, elle ne

s'en différencierait pas. La représentation, de surcroît, re-présente. C'est une partition rejouée,

présentée à nouveau, qui par ailleurs s'institue sous forme de « rôle ». L'acte a une autre

signification que la reproduction d'une habitude, dans la mesure où il s'insère dans un système

de communication qui a ses règles, ses modes de fonctionnement et ses codes plus ou moins

ritualisés. C'est peut-être à ce titre, sur le plan phylogénétique, que le mythe, générateur de

rites et de croyances, est l'ancêtre de la représentation sociale, qui serait alors une forme

évoluée des modes de communication générés à l'origine par lui. Une hypothèse difficile à

vérifier, dans la mesure où le mythe est un mode de communication des sociétés orales, mais

qui peut tout de même nous orienter pour analyser la différence entre les deux types de société

et inférer certains facteurs d'évolution à partir des traces que nous ont communiquées les

premières légendes écrites. D'un point de vue ontogénétique, mythes et représentions sociales

apparaissent le produit de la dialectique entre représentation et apprésentation95, c'est-à-dire

entre les schémas-type issus de nos habitus et les significations de ceux-ci, induites par des

images, des sons, des rites, etc., symboles institués par l'usage, et auxquels ils font référence,

de façon spontanée et intuitive. En d'autres termes, quels rites, images et sons, sont

spontanément évoqués pour signifier les habitus, leur donner du sens ? N'oublions pas que les

mythes existent essentiellement dans les sociétés orales, où la notion de temporalité est

différente de nos sociétés modernes qui vivent avec l'écrit, mais aussi avec les calendriers,

avec l'heure, etc. Notre conception de l'histoire n'existe pas dans les sociétés orales : les

raisons objectives qui ont conduit à la naissance des habitus ou des rites sont oubliées depuis

longtemps, seuls les mythes ont persisté à travers les légendes qui sont contées, mémorisées

par apprentissage, par ré-citation. Ces mythes ont évolué au fil du temps, autour de structures-

type stables, en intégrant les évènements qui ont marqué profondément la société à chaque

époque importante, à l’instar du mythe de Marko en Yougoslavie (M. Eliade ; 1969 : 54).

95 Il s'agit ici, pour éviter toute confusion, de différencier la représentation, versus de l'apprésentation, qui est une forme d'évocation immédiate du projet d'un acte (intériorisée par répétition de l'acte et coordination sensorimotrice avec l'objectif / objet) et la représentation individuelle ou sociale du projet d'un acteur, dont les actions sont observées et interprétées en fonction d'un cadre de référence de type intuitif. La représentation est spontanée, alors que la représentation individuelle ou sociale est une forme de construction dans laquelle entre en jeu l'analogie avec d'autres situations. Il n'est pas simple, cependant, de différencier les termes, dans la mesure où nos représentations sociales sont le produit de ces représentations spontanées.

Page 290: UN REFERENTIEL, POUR QUOI FAIRE

290

On peut alors émettre l'hypothèse que les représentations sociales ont introduit cette

temporalité, sous forme d'histoire évènementielle et de rationalité fonctionnelle, dans les

mythes traditionnels. Les représentations sociales apparaîtraient donc comme un ensemble de

codes et de modes de communication, structurés par des cadres de référence socialisés par

l'usage, qui ont par ailleurs une signification symbolique en rapport avec des images, des rites

cultu(r)els et des expressions phoniques, des « façons de parler » (E. Goffman ; 1981 / 1988).

Elles intègrent les habitus et leur communiquent une signification. A la différence de

l'habitus, la représentation sociale introduit déjà une forme de réflexivité, mais seulement, par

analogie, à partir des schémas-type et des apprésentations intuitives (images au sens large)

qu'offre / autorise la culture commune du groupe. La représentation sociale serait ainsi

l'ensemble du système de référence qui se construirait entre le niveau apprésentatif et le

niveau analogique. En limitant ainsi le champ de la représentation sociale, on redonne une

place à l'observation de ces phénomènes implicites, qui n'ont pas besoin de paroles pour

acquérir une signification sociale. Le cinéma muet de l’époque de Charlie Chaplin nous

montre ces systèmes de représentions et ces types de jeux, présents dans toutes nos

communications de la vie quotidienne. Le dernier film sans parole de P. Rabaté (2010), « ni à

vendre, ni à louer », en est un autre exemple, caricatural mais aussi très parlant, du moins

pour toute personne qui a connu, ou connaît encore, les joies du tourisme estival. Il est

possible de traquer les nombreuses significations qui émergent ainsi d'un film, c'est le rôle du

critique d’art. Pour nous, le plus intéressant, c'est le caractère social de ces signes,

immédiatement et intuitivement compréhensibles par un grand nombre de personnes, ainsi

que les raisons objectives de cette universalité. Le niveau des représentations sociales est donc

bien identifié, indépendamment du langage qui l'accompagne. Il se différencie ainsi assez

clairement de celui des concepts, même si, comme dans tout phénomène social, les frontières

restent assez floues. La représentation sociale devient concept à partir du moment où elle est

signifiée par un code phonétique précis. Le signifiant (le mot) exprime alors l'ensemble des

idées (sensations, sentiments, schémas, images, etc.) inscrites dans le système de

représentation sociale – par exemple, « repas » ou « manger ». Les concepts existeraient-ils

sans les représentations sociales qui génèrent cette signification, induite par des références

culturellement partagées ? Ces dernières pourraient-elles se constituer sans les habitus,

substrats mnémoniques de la re-présentation ? On différenciera donc trois types de relations

sociales, qui, bien qu'imbriquées l'une dans l'autre, constituent trois constructions différentes

de nos références culturelles communes : habitus, représentations sociales, conceptions.

Page 291: UN REFERENTIEL, POUR QUOI FAIRE

291

On limitera la notion de représentation sociale aux aspects non verbaux de la

communication (cinéma muet) et aux constructions symboliques qui servent de référence à

l'action collective. La notion de conception, en revanche, est de l'ordre du langage. Au même

titre qu'il existe une dichotomie entre habitude / habitus, représentation individuelle /

représentation sociale, on peut différencier conception individuelle et conception collective.

La recherche consistera donc à identifier les conceptions qui sont « proches », de celles qui

sont beaucoup plus « éloignées », ainsi que les raisons qui expliquent rapprochement et

éloignement. Les techniques d'analyses de discours, présentées dans la partie méthodologique,

auront pour but d'outiller ces comparaisons entre conceptions, et par là même de définir plus

précisément ce concept, tel du moins qu'il sera utilisé dans les présents travaux. Mais ce

travail comparatif sur les conceptions n'a pas de signification en lui-même, sans les rapports

de référence avec les jeux de représentations sociales et avec les habitus. Les premiers sont

indispensables pour analyser ce qui se joue à travers la communication, les seconds pour

référer les modalités de la communication aux contraintes de l'organisation sociale. Ainsi,

pour expliquer les choix de l'énonciateur, l’analyse des modalités langagières discernées dans

les discours a besoin d'être référée au contexte du discours et aux représentations sociales

mises en scène par lui. Contraintes de communication et modes culturels de la société sont des

cadres de référence indispensables pour comprendre les discours.

Niveaux de référenciation Concepts sociologiques Modes d'apprentissage Modes d'évaluation

Aperceptif Apprésentatif

Habitus Habitudes, exercices, façons de faire, choix des mots, etc.

Collecte d'indices significatifs

Apprésentatif Analogique

Représentation sociale Schémas-type, images, comparaisons, mises en situation, confrontations, expériences, etc.

Indicateurs de référence, mécanismes de l’indication

Analogique Interprétatif

Conception Connaissances, questions, discussions, échanges, etc.

Critères, concepts, inférences logiques

Ainsi, à chaque niveau, se structurent des mécanismes différents de la pensée, qui se

traduisent par certains modes opératoires de nos jugements et certains modes de socialisation :

le premier niveau est générateur de schèmes par répétitions et coordinations ; le second niveau

est celui où tout prend sens, en référence à nos modes de communication et à nos croyances,

institués au cours des âges ; le troisième niveau est celui où le langage permet de traduire les

modes de pensée en discours cohérents et adaptés à nos représentations sociales. A chaque

niveau se développent, de ce fait, des modes d’apprentissage différents et complémentaires.

Page 292: UN REFERENTIEL, POUR QUOI FAIRE

292

La grammaire s’est surtout attachée à l’étude du niveau logique, celui des interprétations. Elle

a surtout privilégié les relations entre les formes du discours et les pensées qui s’expriment :

les raisonnements, les contradictions, les argumentations, etc. E. Durkheim (1938/1969) a mis

en valeur la fonction sociale des joutes dialectiques dans la formation de cette logique

moderne. N. Chomsky (1966/1969) a particulièrement insisté sur le rôle de la linguistique

cartésienne de Port Royal pour formaliser cette réflexion logique à partir de l’étude du

langage (cf. ci-dessous). Mais l’ensemble des mécanismes de nos représentations sociales ont

été beaucoup moins soumis à l’étude, du moins jusqu’aux travaux de E. Goffman et de S.

Moscovici. L.J. Prieto (1966) a certes analysé, de façon sémiologique, les « mécanismes de

l'indication » à partir des rapports entre messages et signaux ou, à un niveau plus abstrait

entre le signifié (classe de messages) et le signifiant (classe de signaux). L'auteur distingue

ainsi trois phases dans le phénomène d’indication : notificative, « la production d'un signal

indique au récepteur que l'émetteur se propose de lui transmettre un message », (Idem : 29) ;

significative, le signal indique au récepteur que le message est un de ceux dont il connait le

code ; et celle reçue des « circonstances dans lesquelles le signal est produit » (Idem : 47).

Cependant l’auteur a privilégié, de façon très conséquente, l’analyse de « l'indication

significative », par rapport à la notification, négligée car elle est conçue comme instantanée,

simple et sans effort (idem : 79), et aux circonstances guère abordées. Or la notification

pourrait-elle avoir lieu sans les représentations sociales qui communiquent du sens aux

signaux en fonction de schémas-type, et les circonstances auraient-elles de la signification

sans les cadres de référence qui structurent les univers de référence ? Encore une fois les

schémas dichotomiques de F. de Saussure (signifiant/signifié) illustrent leur pertinence, en

tant que cadres scientifiques, pour analyser les phénomènes de la signification, mais ils le font

aussi au détriment de l'analyse des phénomènes de la référence sans lesquels la signification

ne pourrait pourtant pas s’inscrire dans le réel de l’action quotidienne. Si on prend un signe

comme un panneau rond et rouge avec un rectangle blanc au milieu, il signifie certes un

« sens interdit » quand il est à une intersection de plusieurs routes. Mais il ne concerne que

certains acteurs et schémas-type : les véhicules et non les piétons. Un même panneau qui pend

au bout d’une ficelle sur une porte de WC n’aura pas la même signification. Il en aura encore

une autre s’il est fixé sur une porte de bureau dans un lieu public. Pourtant, par analogie avec

la signification d’origine, la plus courante, et par connaissance des modes culturels de notre

société, dans chaque situation, il est compris de tous les membres. Ce sont ces phénomènes

qu’il nous faut approfondir pour cerner la fonction des phénomènes de référenciation dans la

formation de nos conceptions et les enjeux sociaux autour de ces processus.

Page 293: UN REFERENTIEL, POUR QUOI FAIRE

293

b) Le modèle de la compétence :

Mais alors qu'advient-il, dans ce cas, de la compétence ? Le concept de

« compétence » recoupe, nous l'avons vu, une grande diversité de phénomènes. Il peut s'agir

d'un point fort qui en explique la généralisation si rapide, mais aussi d'un point faible qui

induit de nombreuses ambiguïtés. Cette polysémie n'est pas sa seule faiblesse. On s'appuiera

sur un document de l'IGEN (inspection générale de l'éducation nationale) pour relever

certaines impasses et exposer la problématique. Dans leur « Rapport à Monsieur le Ministre

de l'Éducation nationale », les inspecteurs généraux entérinent l'évolution vers les

compétences, mais en relèvent aussi plusieurs limites :

« Les compétences, comprises comme un ensemble intégré et fonctionnel, permettant de mobiliser toutes les ressources nécessaires pour répondre d'une façon adaptée à des situations multiples apparaissent bien désormais comme l'objectif de formation du futur citoyen. Mais au-delà de cette reconnaissance et de cette unanimité, force est de constater que la consécration de ce principe reste à ce jour peu aboutie, tant dans sa mise en œuvre dans l'acte d'enseignement que dans son contrôle et dans l'évaluation de son efficience » (A. Houchot, F. Robine ; 2007 : 45).

Après avoir inventorié les différentes expériences qui ont eu lieu chez nos voisins

francophones (Suisse romande, communauté française de Belgique, Québec) (idem : 22-29) et

avoir analysé la situation en France, en particulier les modalités générales de l'évaluation dans

les différentes disciplines en fonction de leur « histoire spécifique » (idem : 35-44), le rapport

relève plusieurs obstacles à la mise en œuvre d'un enseignement et d'une évaluation par

l'entrée des compétences : la confusion entre les différents termes « utilisés parfois d'une

façon indifférenciée » dans des « injonctions institutionnelles » qui multiplient formules et

prescriptions, un manque de cohérence entre les programmes, un manque de repères et

d'outils de formation pour les enseignants, et surtout, la communication avec les familles

(Idem : 46 ; 47). On relèvera donc deux types de problèmes : 1° la confusion entre les

différents concepts, et le manque de repères pour les professionnels, qui semble, en partie du

moins, la conséquence de ces confusions ; 2° le problème de communication avec les

familles, mais aussi celui de la cohérence des programmes, dans la mesure où celle-ci renvoie

à la complexité de la communication au sein de l'institution. Si les confusions et les

imprécisions semblent relever d'une généralisation et d'une globalisation du concept de

compétence en raison des modes sociaux qui ont porté ce « phénomène de mode » (pages 265

à 270), les questions de communication interpellent plutôt l'aspect réducteur du modèle.

Page 294: UN REFERENTIEL, POUR QUOI FAIRE

294

Effectivement, dans sa version contemporaine, le concept de compétence repose

fondamentalement sur le schéma proposé par N. Chomsky, à savoir sur une dichotomie entre

une structure profonde (compétence) et une structure de surface (performance). Ce modèle

s’inspire de la différenciation introduite par la grammaire de Port Royal entre la forme

physique du langage (interprétation phonétique) et la pensée générée par celui-ci

(interprétation sémantique) (1966/1969 : 62) : « un aspect physique externe qui a la forme

d’une séquence de sons » et « un aspect mental interne (une structure profonde qui véhicule

son sens) » (Idem : 70). Seules les performances sont observables, la compétence est donc

inférée à partir de l'observation de celles-ci. Ce modèle apparaît à la même époque que celui

des taxonomies de B.S. Bloom96, qui s'inscrivent dans le même type de schémas : des

objectifs généraux de l'éducation, des modalités de traitement des données et des observations

en fonction des situations de collecte possibles. Les objectifs généraux (capacités ou, de nos

jours, compétences) sont inférés à partir des performances des étudiants. Ce schéma a induit

les modélisations contemporaines de l’évaluation, telle celle de J. Ardoino et G. Berger :

critères, indicateurs et indices (1989). Ces modèles reflètent une conception devenue

dominante, à l'heure actuelle, en matière de Référentiels d'évaluation : un ensemble d'indices

observés, structurés par des indicateurs, en fonction de critères qui sont déterminés à partir

des objectifs généraux. Il paraît difficile de rejeter ces modèles par une simple critique.

D'abord ils ont montré leur pertinence pour analyser certains phénomènes : les travaux de N.

Chomsky sur la grammaire générative sont reconnus et respectés. Par ailleurs les Référentiels

se sont généralisés comme outils à disposition des professionnels, ils servent de repères pour

identifier les éléments à observer et leur donner du sens dans une structure conceptuelle

hiérarchisée. Mais ce type de modélisation est réducteur et ne montre à voir que le squelette

d'une réalité bien plus complexe.

1) Elle est trop générale : à partir des définitions des ergonomes et des linguistes (pages

254 à 259), on constate que la compétence englobe tous les concepts évoqués ci-

dessus : elle implique des habitus adaptés aux situations (routines, savoirs faire),

l'acquisition des représentations sociales du milieu professionnel (référentiel de J.

Leplat), la mobilisation de connaissances en fonction du contexte (conceptions

scientifiques et pragmatiques (P. Pastré, R. Samurçay), mais aussi des matériaux, des

personnes ressources, et enfin l'interprétation des situations, c'est-à-dire la réflexivité

et le développement de systèmes de référence adaptés aux situations.

96 Il est important de rappeler que les taxonomies ne sont pas l'œuvre d'un seul auteur mais d'un collectif d'universitaires américains et qu'elles reflètent une préoccupation de ce corps professionnel, en pleine croissance.

Page 295: UN REFERENTIEL, POUR QUOI FAIRE

295

Plus largement la compétence fait donc référence à tous les phénomènes de

construction de la signification et de la référence : si l'on conçoit que l'instruction

moderne (au sens d'Éducation Nationale) a pour but de générer des connaissances

adaptés à - et exploitables dans diverses situations, la compétence apparaît ainsi

comme un concept générique au sein duquel tous les objectifs généraux des

apprentissages scolaires peuvent être regroupés. Mais, au moment de l'utiliser dans le

domaine de l'évaluation, les choses se compliquent97. Si la compétence est le produit

d'un ensemble complexe de phénomènes, imbriqués les uns dans les autres de façon

complémentaire, il paraît difficile d'en avoir une vision globale à partir d'une

observation systématique des performances, car cela se traduirait par une trop grande

multiplication des indices et par une atomisation des observations, critique largement

étayée lors de approche des taxonomies. Ces écueils sont évoqués, à maints endroits,

dans le rapport, en référence avec les pratiques disciplinaires : « effet pervers lié au

découpage de la prestation en indicateurs disjoints, occultant chez l'élève le sens de

l'évaluation et provoquant des stratégies de contournement » (A. Houchot, F. Robine ;

2007 : 38), ou un « excès de formalisme » qui « empêche l'appropriation de cette

démarche par les professeurs ou conduit à des dérives » (Idem : 41), ou encore la

négligence de « compétences globales » pourtant essentielles pour la « résolution de

problèmes », comme « mobiliser ses connaissances », « utiliser les techniques

disponibles », « communiquer », (Idem : 43), etc. Ces critiques ont été aussi étayées

par des auteurs comme G. Malglaive ou B. Rey, il ne semble pas utile d'y revenir ici.

Pourtant les rapporteurs sont de fervents défenseurs de ce modèle : « le développement

des référentiels par compétences (…) a permis une approche plus objective et plus

précise des performances » (Idem : 39), ou encore « une évaluation des élèves sur la

base de compétences déclinées en critères ou indicateurs. » (Idem : 42). C'est là toute

l'ambiguïté d'un modèle, qui, à la fois, induit une réflexion sur les processus cognitifs

mis en jeu au cours d'un exercice, d'une activité ou d'une communication, mais aussi

occulte toutes les dimensions sociales des situations d'évaluation. L'analyse de la

compétence sous l'angle de la communication éclairera ce paradoxe et illustrera les

limites de ce schéma.

97 On rappellera seulement ici que, pour M. De Montmollin, le concept de compétence tel qu'il a été élaboré par les ergonomes n'a pas pour but l'évaluation, mais seulement la résolution de certains problèmes de communication et d'organisation du travail dans les entreprises.

Page 296: UN REFERENTIEL, POUR QUOI FAIRE

296

2) Le modèle de N. Chomsky a surtout été critiqué par la pragmatique (J.R. Searle, D.H.

Hymes) qui n'a pas manqué de montrer que bien des phénomènes sont exclus de cette

dichotomie performance / compétence. On propose, ici, d'aborder ce problème à partir

d'une analyse de la notion d' « indicateur », d'abord en raison de la littérature assez

abondante évoquée sur cette notion (pages 316 à 336), mais aussi dans la mesure où la

conception linguistique de l'indicateur98 est en rapport avec le schéma de la

compétence : l'indicateur linguistique permet d'identifier dans le discours un certain

nombre d'indices grammaticaux et sémantiques, reconnus par tous les membres de la

communauté qui possèdent les règles de la grammaire générative de la langue. Mais,

ainsi que le fait remarquer C. Kerbrat-Orecchioni (1996 : 11) en s'appuyant sur les

travaux de D.H. Hymes, si le modèle de N. Chomsky permet d'analyser les

compétences d'un individu à « produire et interpréter un nombre infini de phrases bien

formées », il n'est pas suffisant pour découvrir celles qui lui permettent de « maîtriser

les conditions d'utilisation adéquate des possibilités offertes par la langue ». L'auteur

évoque ainsi les éléments du contexte que tout individu de la communauté doit

apprendre à analyser et tous les principes qui sont intériorisés au cours des interactions

avec les autres membres de la société, le plus souvent inconsciemment, c'est-à-dire

ses « compétences de communication ». On ne peut donc réduire la notion

d'indicateurs langagiers aux indicateurs de N. Chomsky (phrase marker), ni à des

indicateurs morpho-syntaxiques comme dans la conception d'A. Martinet, elle intègre

aussi beaucoup d'éléments du contexte qui vont donner des significations particulières

au discours. Ces indicateurs langagiers s'inscrivent alors dans des représentations

sociales, c'est-à-dire des modes de communication qui sont institués au sein de la

société et qui sont appris par les individus aux cours des interactions avec les autres

(beaucoup dans l'enfance, mais aussi à l'âge adulte lorsqu'il faut s'adapter à de

nouveaux contextes culturels). Les principes de politesse sont un exemple intéressant :

ils sont liés aux représentations sociales, décrites par E. Goffman, à travers des notions

comme le « face work » (« faire face », « sauver la face », etc.) ou encore les

« territoires du moi ». On n'entrera pas ici dans la présentation de ces jeux de politesse,

bien connus et décrits par C. Kerbrat-Orecchioni (1996), on évoquera seulement

l'exemple du « principe de modestie », qui fait que, « dans nos sociétés (plus encore

dans d'autres sociétés), il est mal venu de se « vanter » (1996 : 61) :

98 L'utilisation de l'indicateur de N. Chomsky pour analyser un corpus (pages 333 à 336) offre une référence pour comprendre cette conception linguistique.

Page 297: UN REFERENTIEL, POUR QUOI FAIRE

297

« Toute infraction patente à la loi de modestie est impitoyablement sanctionnée (par le rire des témoins ou quelque remarque sarcastique), entraînant si elle se répète la stigmatisation du coupable (décrété immodeste, hâbleur, voire mégalomane...) » (C. Kerbrat-Orecchioni ; 1996 : 62, 63).

Ainsi les interactions conduisent à une régulation spontanée et à une intériorisation

des règles élémentaires de nos conduites en société. Les indicateurs sont très souvent

intériorisés et agissent de façon spontanée : « ça ne se fait pas, ce n'est pas correct ».

Certes les connaissances apprises à l'école relèvent plus de la conception que de la

représentation sociale et, à ce titre, les indicateurs linguistiques, de type grammatical,

apparaissent des outils méthodologiques adaptés (paradigmes MEO) à l'étude des processus

cognitifs mis en œuvre par les apprenants, ainsi que par les évaluateurs qui jugent leurs

prestations écrites ou orales. On aura l'occasion de revenir sur cette méthodologie au chapitre

suivant. Mais il ne faut pas oublier que les modes d'apprentissage à l'école n'engendrent pas

que des connaissances, ils génèrent aussi des habitus (cf. Curriculum caché - J.C. Forquin),

fondés sur des représentations sociales qui se sont instituées au cours des décennies

précédentes, voire des siècles (cf. choix sur les modalités d'enseignement (C. Lelièvre ; 1990),

grands débats pédagogiques (J. Houssaye ; 1994 ; 1995), etc.). Quand les enseignants

justifient leurs appréciations (bulletins scolaires, par exemple), ne se fondent-il pas sur ces

habitus et ces représentations ? Il y a au moins deux raisons à cela, l’une technique, l’autre

sociale. 1° Si tous les professeurs, en raison de leur formation disciplinaire, s'aperçoivent bien

d'un raisonnement mal fondé ou d'un argumentaire peu canonique, pour des raisons de

formation mais surtout de temps ils vont rarement jusqu'à une observation fine de la

construction des procédures logiques mises en œuvre par l'apprenant. L'appréciation se fonde

souvent par comparaison à des normes implicites, procédures et significations qu'ils ont

intériorisées au cours de leur formation. 2° L'évaluation n'est pas seulement une démarche

d'appréciation objective, c'est aussi un acte de communication, vis-à-vis de la personne

évaluée, vis-à-vis des partenaires, collègues, parents, etc. Par conséquent il est important, pour

communiquer, que la forme de l'évaluation s'adapte aux représentations de ces acteurs. Le

rapport de l'IGEN mentionne, par exemple, la résistance des parents à l'introduction d'une

évaluation par les compétences, étant « plus intéressés par les documents de synthèse offrant

une vision globale du travail de l'enfant » (A. Houchot, F. Robine ; 2007 : 29). Il souligne

plusieurs fois l'adaptation des professeurs aux représentations sociales des familles.

Page 298: UN REFERENTIEL, POUR QUOI FAIRE

298

« Soit, parce qu'ils ne peuvent pas résister à la pression sociale, soit parce qu'ils ne parviennent pas à sortir de la note chiffrée, les enseignants ont massivement conservé le bulletin traditionnel » (Idem : 46)

Pour affronter cette problématique, le schéma traditionnel de la compétence n'est plus

suffisamment ouvert. La question de la note, en particulier, est particulièrement sensible et

sujette à beaucoup d'incompréhension de part et d'autre. La note est l'archétype de l'indicateur

dans le système scolaire. La note n'a pas de signification en elle-même, mais avant tout parce

qu'elle est une référence simple et synthétique, reconnue par toute la communauté, dans

l'actuel système d'orientation. Celui-ci est fondé sur des habitus profondément ancrés dans

notre société républicaine, ceux des universités et des grandes écoles (P. Bourdieu ; 1985 ;

1989). Ces habitus se reproduisent puisque les enseignants sont issus de ses institutions. Mais

ces habitus resteraient marginaux s'ils n'étaient pas inscrits dans des représentations sociales

devenues dominantes : en particulier, l'école a pour fonction de préparer à une insertion

professionnelle. De bonnes notes garantissent l'entrée dans de bonnes écoles. Pas besoin de

commentaires superflus, la représentation sociale, ancrée dans un système de référence qui a

maintenant plusieurs décennies, voire plusieurs siècles pour certains aspects, permet un

codage rapide, efficace et partagée par tous. Les notes-clefs sont identifiées avec ce qu'elles

impliquent, par rapport à ce système : la « moyenne » pour passer au niveau supérieur, « 12 à

13 » pour une prestation moyenne mais suffisante, « 15 à 16 » c'est au moins ce qu'il faut pour

avoir de bonnes écoles, etc. Les mentions du baccalauréat et du brevet ou les appréciations

générales des conseils de classe (félicitations, encouragements) ont largement contribué à la

diffusion et au renforcement de ce cadre. Certes ces codages sont fluctuants, la docimologie a

par ailleurs mis en valeur les écarts aléatoires des notes. Mais ce sont bien plus les usages qui

fixent ces normes que les textes de loi. L'appréciation en cinq niveaux (de A à E) de la

circulaire du 6 janvier 1969 n'a pas fait long feu. Ce qui donne du sens aux notes, c'est la

façon dont les individus s'impliquent dans le système : « pour aller dans telle école, il me faut

au moins... dans telle et telle matière », « je me contenterai de tel type de filière, telle note me

suffira », « pour avoir le bac, il me suffit d'avoir la moyenne... mais le bac ne suffit plus à

notre époque », etc. De nombreux indicateurs existent ainsi, de façon informelle, dans les

représentations sociales de l'activité quotidienne de la classe, pour les professeurs et pour les

élèves, ou de l'activité quotidienne en famille, pour les parents et leurs enfants. Bien entendu,

pour un système aussi complexe que l'orientation scolaire, les communications implicites non

verbales ne suffisent plus. Pour réfléchir à l'orientation scolaire, il faut connaître la complexité

du système et cela passe par des discussions. Chaque individu élabore ainsi des conceptions.

Page 299: UN REFERENTIEL, POUR QUOI FAIRE

299

Il le fait à partir de ses propres représentations et ses façons d'agir au quotidien. Il en

résulte un mélange de représentations, de connaissances souvent très élémentaires, et de lieux

communs qui se diffusent de bouche à oreille : des représentations sociales au sens de la

psychosociologie européenne (S. Moscovici, D. Jodelet). Ces conceptions rudimentaires

constituent des critères pour orienter ses choix et ses stratégies. Les indicateurs sont donc

induits par les représentations sociales, les codes de communication implicites, les procédures

ritualisées, etc. : « ce que je dois faire au quotidien dans la classe ». Les critères sont induits

par une connaissance, plus ou moins approfondie, plus ou moins exacte, du système, et

surtout par une analyse des conséquences de chaque action. Pour conduire cette analyse, nous

faisons appel au langage, avec toutes les combinaisons logiques qu'autorisent nos

constructions grammaticales. Le langage permet ainsi une abstraction synthétique : les actions

dans la classe ne sont plus appréciées en tant que telles, en fonction des représentations

sociales de la vie quotidienne de la classe, elles sont codées en indicateurs, en vertu d'un

système qui a acquis une valeur sociale et qui s'est institué au cours des deux derniers siècles.

Bien entendu les notes n'ont de sens que pour les individus qui adhèrent, en termes de

représentations sociales, aux perspectives de ce système institutionnel. Si un jeune veut faire

les grandes écoles, devenir ingénieur ou faire polytechnique, le système de notes est intégré à

ses représentations sociales. Mais si, affichant de bonnes performances de « musicien » ou de

« joueur de foot », il veut devenir professionnel, le système de notes scolaires n'a plus la

même signification pour lui. Il n'en demeure pas moins que, pour s'insérer dans tous les

milieux professionnels, il aura besoin d'en comprendre les rites, les modes de communication,

les représentations sociales, ainsi que l'ont fort bien mis en valeur les études de H.S. Becker

sur Les musiciens de danse (1963/1985 : 103-144) ou sur les Mondes de l'art (1982/1988).

Tous les milieux professionnels font passer des épreuves aux postulants, que ce soit de façon

formelle (examens, entretiens, etc.) ou informelle (mises à l'essai, exercices pratiques, etc.).

Les modalités de ces épreuves et les indicateurs auxquels les acteurs se réfèrent sont puisés

dans le réservoir des représentations sociales, auxquelles les futurs professionnels auront à

s'adapter. Les critères d'évaluation sont alors les conceptions que les acteurs élaborent pour

justifier leurs choix (choix des mises en situation, mais aussi choix des modes professionnels

« importants » : « il doit savoir faire ça »), le plus souvent par réflexivité (accountability) : les

préparations et les régulations lors des examens sont un exemple de ces espaces de réflexivité.

Page 300: UN REFERENTIEL, POUR QUOI FAIRE

300

Mais il en existe bien d'autres et ces phénomènes d'adaptation n'ont pas lieu que lors

des épreuves formelles. Si un jeune apprenti débute, il ne connaît que très vaguement les us et

coutumes du métier : « ce qu'on attend de lui ». En discutant avec ses pairs, avec ses tuteurs,

avec sa hiérarchie, etc., il va découvrir en quoi sa représentation sociale (ses façons de faire,

de se positionner, de communiquer, etc.) est ou n'est pas suffisamment adaptée aux besoins du

métier et aux modes implicites du milieu professionnel. Il va donc construire une conception

rudimentaire, autour de concepts pragmatiques, pour ajuster sa représentation aux attentes du

milieu. Là encore, on retrouve la notion de représentation sociale dans son acception

psychosociologique. Ces concepts pragmatiques serviront de critères à ces jeunes

professionnels pour adapter leurs actions. On peut donc les identifier en analysant leur

discours, de façon plus ou moins intuitive. Ces critères seront plutôt pragmatiques ou plutôt

abstraits / génériques, selon qu'ils ont été forgés sur le mode de l'expérience (apprentissage,

alternance) ou sur le mode de la connaissance (formation plus théorique, conceptuelle). Ces

modalités ont une fonction différente, l'adaptation au terrain dans le premier cas, une vision

plus globale dans le second (cf. Travaux des cognitivistes (M.F. Ehrlich ; 1994), des

ergonomes (page 256), mais aussi de P. Vergès (page 231)). Par conséquent, l’évaluation ne

consiste pas à élaborer des méthodologies complexes de traitement de l'information, mais des

procédures codées et normées qui ont un sens donné dans un système de communication

implicite. Pour les professionnels, dans le quotidien de leur pratique, les outils d’évaluation ne

sont pas des procès méthodologiques complexes, mais des modalités d'action, d'expression et

de communication liées aux représentations sociales du milieu. On peut d'ailleurs, ici,

s'interroger sur les dérives de la démarche prescriptive : dans quelles mesures les

universitaires n'ont-ils pas projeté leurs propres conceptions de chercheurs et leurs propres

méthodes d'investigation de la réalité, sur les situations d'évaluation scolaire ? Or tout

professeur d'université sait pourtant fort bien qu'il passe beaucoup plus de temps à élaborer

ses outils méthodologiques de recherche que les outils d'évaluation de la prestation de ses

étudiants, lors des examens de fin d'année. L'élaboration des taxonomies par les universitaires

américains, en 1956, reste tout même une expérience originale et exceptionnelle. Par ailleurs

ces classifications sont adaptées à l'évaluation en milieu universitaire : est-il possible de les

transposer à l'école primaire ou au collège, c'est à dire auprès de jeunes qui n'ont pas encore

suffisamment développé leurs capacités hypothético-déductives ? Le débat reste ouvert. Dans

tous les cas, les enseignants, quand ils se les approprient, les adaptent au fonctionnement de

leur classe et aux représentations sociales de leurs élèves et des parents.

Page 301: UN REFERENTIEL, POUR QUOI FAIRE

301

Les rapporteurs de l'IGEN rappellent ainsi certaines évidences, dans notre société où

se sont développées la division du travail et la professionnalisation :

« L'expérience montre qu'il est très difficile d'avoir avec les parents des échanges dans les mêmes termes que ce que l'on tient entre professionnels. Cela n'est pas lié au statut social des parents, ni à leur niveau d'instruction mais aux objectifs mêmes de ces échanges qui ne sont pas de même nature. C'est une situation évidente dans tous les domaines où des usagers, des patients, etc. ont à faire à des professionnels qui doivent d'une part penser et organiser leur pratique et d'autre part l'expliquer : cela passe par une reconstruction » (A. Houchot, F. Robine ; 2007 : 33).

On retrouve ici la problématique abordée par E. Goffman à travers le concept de « région » :

les jeux de représentation ne sont pas les mêmes dans les régions antérieures (avec les

enfants), les régions postérieures (coulisses) et les zones intermédiaires avec l'extérieur (la

relation avec les parents et les partenaires). Non seulement, les outils d’évaluation ont besoin,

pour avoir du sens, d'être modelés sur les représentations sociales de la discipline (types de

pratiques, symbolismes, schémas-type, etc.), mais, de surcroît, ils ont besoin, pour être

opérationnels, de s'insérer dans des systèmes de communication des différents acteurs, ce qui

influe sur la forme, autant de l'épreuve que de la diffusion des résultats.

Toutes ces préoccupations de l'inspection générale illustrent les limites du schéma

classique d'une compétence appréciée à l'aune des performances. Derrière le choix des modes

d’évaluation s'exprime une conception sociale considérée « légitime » et une représentation

sociale par rapport aux enjeux de la situation, et derrière des indices de performance, un

ensemble d'habitus privilégiés par l'usage. L'apprentissage (en formation ou sur le tas) passe

par le développement de ces habitus pour atteindre les performances souhaitées, mais aussi

pour s'adapter aux modes de communication implicites du milieu social. Les méthodes

d’évaluation ne sont donc pas élaborées en fonction de critères mûrement réfléchis par des

experts, mais, de façon plus ou moins consciente, en fonction des modes de communication

codés par le milieu social. L'évaluation, bien loin de se réduire à un exercice d'observation et

de jugement des performances ou à une collecte d'indices en fonction de critères, est avant

tout un système de communication que l'évaluateur a besoin de concevoir pour donner du sens

à ses interventions et remplir sa mission.

Dans le chapitre suivant, on s’attachera donc à analyser les Référentiels d’évaluation

au regard de leur fonctionnalité, c'est-à-dire des fonctions qu’ils sont censés remplir dans le

système des représentations sociales et des habitus du milieu professionnel. Afin

d’approfondir l’analyse des processus cognitifs mis en jeu, on précisera ensuite les concepts

de « critère » et d’ « indicateur ».

Page 302: UN REFERENTIEL, POUR QUOI FAIRE

302

Chapitre 7 : Définitions du « Référentiel »

1) Le Référentiel pour les milieux de l’éducation :

Le Référentiel apparait comme un outil qui sert de référence aux professionnels de

l’éducation pour orienter leurs actions d’évaluation, voire leurs actions pédagogiques censées

prolonger l’évaluation. Il est souvent constitué d’ « objectifs » et de procédures (et/ou

processus) qui sont destinées à évaluer ces premiers. On retrouve, par exemple, cette

démarche dans un ouvrage élaboré par une équipe de la MAFPEN (1992) : « construire un

référentiel pédagogique : une exploitation des tests d’évaluation 6éme » :

« A partir des constatations précédentes, il est donc possible d’élaborer un référentiel de formation-élève pouvant aider à bâtir un projet pédagogique (…) Principe conducteur : une fiche d’objectifs à atteindre à la fin de chaque trimestre correspondant à une séquence d’évaluation sommative (…) Il ne reste plus alors qu’à élaborer, pour chaque trimestre, un projet pédagogique qui répartit les taches, exercices, recherches, thèmes, leçons, textes et travaux divers, correspondant à ces objectifs » (1992 : 47).

C’est une démarche similaire qui nous est proposée par « l’équipe de circonscription »

d’Angoulême III, dans sa proposition pour articuler les directives de sa hiérarchie, à savoir les

programmes scolaires et l’esprit de la loi d’orientation du 10 juillet 1989 (décret du 6

septembre 1990) :

« Les compétences que doit acquérir l’élève (cf. la brochure « Les cycles à l’école primaire ») sont les objectifs pour le maître. Un référentiel d’objectifs est un recueil qui définit le champ dans lequel il faudra travailler mais il reste à chercher toutes les activités qui devront être mises en œuvre pour que l’élève fasse les apprentissages avec l’action médiatrice du maître ; c’est un espace à explorer et non un trajet linéaire à suivre étape par étape. C’est ce degré de liberté supplémentaire par rapport au programme qui permet de mieux répondre à l’exigence de la Nouvelle politique d’adapter l’enseignement aux difficultés des élèves (…) Le référentiel d’objectifs est vraiment un R.O.C. parce que toute une pédagogie interactive peut se construire dessus ! Certes, c’est le chemin qui fait la promenade et non son terminus, c’est aussi la réalisation de ce document qui en fait la valeur pour ceux qui l’ont rédigé, mais c’est en pensant qu’il peut aussi être utile à d’autres que nous le publions » (M. Ménard, 1994).

Le document se présente ensuite sous forme de tableaux. Les principaux objectifs sont

déclinés à partir des instructions officielles de 1985 (« répartition en deux années du

programme « Cours Élémentaire ») et du document sur « les cycles à l’école primaire »

(« prise en compte des compétences attendues en fin de cycle »). Le tableau fait ainsi

correspondre les « rubriques I.O. » des premières, avec une déclinaison plus précise des

compétences inscrites dans le second. Puis des colonnes « répartition dans le cycle »

permettent de noter à quel moment celles-ci sont-elles acquises (GS, CP, CE1, CE2 ou CE1,

CE2, CM1, CM2). Les auteurs proposent de reprendre les « codes proposés par le

ministère » : « 1 – acquis ; 2 – à renforcer ; 3 – en cours d’acquisition ; 4 – Non acquis ».

Page 303: UN REFERENTIEL, POUR QUOI FAIRE

303

On a ainsi une appréciation graduelle des acquisitions (à partir du code ci-dessus), mais aussi

une vision longitudinale (quand ont-elles été acquises ?). Quelques colonnes supplémentaires

permettent d’affiner l’observation (par exemple, l’apprentissage des nombres : centaines,

milliers, millions, etc.).

Ces « objectifs » correspondent soit à « des connaissances », soit à des « savoir-faire »

méthodologiques. On les retrouve, sous une forme similaire, dans la brochure du ministère de

l’éducation nationale (2002) : Qu’apprend-on à l’école élémentaire ? Les nouveaux

programmes (Paris : CNDP). Celle-ci est constituée de textes généraux qui définissent, pour

chaque discipline, les objectifs de l’enseignement et des orientations pédagogiques, pour

guider la pratique des enseignants, puis des tableaux qui listent les « compétences devant être

acquises en fin de cycle », sous deux rubriques : « être capable de » et « avoir compris et

retenu ». Il y a donc alternance de procès d’évaluation des « compétences » et des

« connaissances », et de processus pédagogiques pour les acquérir.

Y. Abernot (1996) précise le concept de « Référentiel », pour exprimer les processus

mis en jeu à travers ces pratiques :

« le référentiel de tel niveau n’est pas une interprétation du programme, mais l’ensemble de ce que l’élève devra savoir faire à la fin du cycle de cours. Bien entendu, la décision d’insister sur tel ou tel point reste à l’appréciation de l’enseignant. Les manières de parvenir aux savoir-faire sont également de sa responsabilité et tout son talent pourra s’y employer. En revanche, ce à quoi il doit aboutir est précisé, ce qui facilite considérablement sa tâche. Si la problématique de représentation d’une compétence par une note reste entière, au moins cette compétence est–elle mieux définie par les performances censées l’établir et la révéler » (1996 : 64).

Cette conception du Référentiel, ainsi que le mentionne cet auteur, s’est surtout développée

dans l’enseignement technique. Les ouvrages de B. Porcher et de C. Letemplier, inspecteurs

de l’éducation nationale, nous permettent de mieux saisir les enjeux qui ont conduit à cet

essor :

« Tous les diplômes des formations professionnelles sont désormais élaborés à partir d’un « référentiel des activités professionnelles » qui décrit l’ensemble des tâches qui pourront être confiées au titulaire du diplôme. Ce référentiel constitue la base contractuelle de chaque formation. Il est utile aux enseignants pour mieux percevoir les objectifs professionnels et pour engager le dialogue avec les tuteurs chargés de participer à la formation en milieu professionnel. Il éclaire les employeurs qui souhaitent accueillir les jeunes formés. Cependant, cette description globale des activités professionnelles ne permet pas une organisation rationnelle de la formation et de la certification. Le « référentiel du diplôme » remplit cette fonction en précisant les capacités et les compétences nécessaires à l’accomplissement des activités professionnelles, et en décrivant les savoirs et les savoir-faire associés » (Préface de L. Jourdan, inspecteur général de l’éducation nationale ; 1992 : 3).

Page 304: UN REFERENTIEL, POUR QUOI FAIRE

304

On a ainsi deux types de Référentiels : un qui définit les « activités professionnelles

que sera appelé à exercer le titulaire du diplôme » (RAP) (B. Porcher, C. Letemplier ; 1992 :

8) et qui se décline en un « champ d’activité » (définition, contexte professionnel, délimitation

des activités) et en une « description des activités » (fonctions, tâches et conditions

d’exercice) (2003 : 13), l’autre qui « rassemble les capacités, compétences, savoir-faire et

savoirs nécessaires à l’obtention du diplôme » (2003 : 14). Ce second, le « Référentiel de

certification » (RC) a remplacé le « Référentiel du diplôme » : « son contenu est plus

structuré » (2003 : 40). Ces deux types de Référentiels sont complétés par un troisième qui se

construit à partir des deux premiers, le « Référentiel de formation » (RF) :

« Le référentiel des activités professionnelles, le référentiel de certification et les programmes d’enseignement général sont les outils de référence de l’enseignant (…) Le référentiel de certification n’est pas un référentiel de formation, mais permet de le construire » (2003 : 39).

Décliner ainsi chaque profession en « fonctions, tâches et conditions d’exercices » (RAP)

permet ensuite de préciser les « compétences, savoir-faire et savoirs » qui sont utiles pour les

exercer (RC), puis des « définir des objectifs » en rapport avec ces « capacités » à acquérir,

pour organiser la formation (RF) :

« En pédagogie, un objectif est l’énoncé d’une intention décrivant le résultat attendu à la suite d’une action. Cette action peut être une activité, une leçon, un ensemble de séquences, une période de formation. Pour passer de l’intention à l’observation de la performance réelle de l’élève, il est très souvent nécessaire de définir des objectifs opérationnels sans pour autant fragmenter la formation en une succession d’apprentissages isolés. Il s’agit de contextualiser les compétences et définir les étapes nécessaires et préalables à leur maitrise » (2003 : 71).

Le Référentiel de certification sert ainsi de repère, à la fois pour évaluer les acquisitions des

élèves en rapport avec les fonctions qu’ils auront à accomplir dans leur vie professionnelle, à

la fois pour ajuster les séquences de formation en fonction des capacités restant à acquérir.

Si nous observons les Référentiels de compétences de certains diplômes, nous

constatons là aussi qu’ils sont souvent présentés sous formes de tableaux ou de listes qui

énoncent les « capacités » à avoir acquis ou requises, et les processus ou procédures par

lesquels il est possible d’observer l’acquisition de celles-ci. « Capacité » apparait ainsi comme

un terme générique pour regrouper les divers types d’objectifs de l’éducation ou de la

formation99 : des connaissances, des compétences ou savoirs faire, voire des « savoirs être ».

99 G. Scallon (2004 : 18), qui reprend Loacker, utilise aussi ce terme en ce sens : « la notion de capacité intègre des compétences, des savoirs, des attitudes, des dispositions des valeurs, la perception que l’individu a de lui-même (confiance en soi), etc. ». Le terme de « savoir » aurait pu aussi qualifier ces qualités génériques, mais il a acquis une connotation trop en lien avec un type de capacités : les « connaissances ».

Page 305: UN REFERENTIEL, POUR QUOI FAIRE

305

Ces « savoirs » correspondent généralement à des actions - qu’il est possible d’observer

directement - ou aux produits de ces actions, qui sont alors les objets de l’évaluation.

Observons, par exemple, l’outil de travail communiqué par la direction régionale et

départementale de la jeunesse et des sports de Rhône Alpes, à ces jurys pour le « BEATEP –

Evaluation de l’unité de formation pédagogique » :

Capacité à Le candidat a su Le jury repère Concevoir Elaborer une séquence d’animation

adaptée à un public et s’intégrant dans le projet de la structure ainsi que ces critères d’évaluation

1° La présentation de la séance et sa place dans le projet 2° Les objectifs (les intentions pédagogiques) 3° Le déroulement prévu de la séance 4° Les modalités d’évaluation

Réaliser Utiliser le support spécifique de l’option pour mettre en œuvre et réaliser la séquence d’animation. Gérer la participation du public

1° L’adaptation du support d’animation au public 2° L’implication du public dans la séance 3° La conduite de la séance par le candidat (gestion du groupe, du temps, des imprévus)

Evaluer Analyser la situation vécue. Faire un bilan et une argumentation

1° L’évaluation de la séance 2° L’analyse par le candidat du déroulement de la séance 3° La définition et l’utilisation des critères d’évaluation

Intégrer des connaissances théoriques à la situation d’animation

S’appuyer sur des connaissances théoriques de base concernant les courants pédagogiques, les mécanismes de communication et les phénomènes de groupe (…)

1° Les principales caractéristiques de la démarche pédagogique mise en place 2° Ses liens avec le ou les courants pédagogiques auxquels se réfère le candidat

On définira donc, dans un premier temps, le Référentiel sous cette forme objective,

celle d’un outil de référence dans lequel figurent des objets à évaluer (capacités, compétences,

objectifs de l’éducation ou de la formation, etc.) et des processus / procédures pour pouvoir

les observer. Cet outil a pour vocation d’orienter les professionnels, tant lors de la phase

d’évaluation en identifiant les phénomènes à observer (actions ou produits), que lors de la

phase pédagogique en précisant les formes d’actions éducatives ou de formation en lien avec

les « capacités » / « compétences » « à acquérir », ou les « objectifs » qui en sont déclinés.

Mais ce terme peut avoir un sens plus large lorsqu’il est utilisé par les chercheurs en sciences

de l’éducation. G. Figari en analyse les différents aspects : « référentiel cartésien, référentiel

en linguistique, référentiel et modèle, référentiel et système » (1994 : 44 à 51). J. Cardinet

l’utilise aussi dans un sens plus générique : « l’évaluation des programmes de formation, la

confrontation de référentiels multiples » (dans J. Colomb et J. Marsenach ; 1990 : 101). Il

conclue sa synthèse de la façon suivante :

Page 306: UN REFERENTIEL, POUR QUOI FAIRE

306

« il (l’évaluateur) est obligé de se décentrer et d’intégrer ses perceptions successives dans un cadre de référence plus large. Merci à nos amis de l’ADMEE-Canada de nous rappeler de façon aussi opportune que nos référentiels sont multiples et que nous avons tout à gagner à les confronter » (idem : 106).

Ainsi le concept de « Référentiel » ne se limite pas au tableau qui sert d’outil de référence aux

professionnels, il englobe plus largement ici la notion de « cadre de référence ». Eric Auziol,

de son côté, insiste sur l’importance d’ « expliciter le Référent ». Il reprend l’opposition

introduite par M. Lesne et J.M. Barbier entre « Référé » et « Référent » :

« le référé est constitué par l’ensemble des indicateurs qui nous permettent de saisir la réalité à évaluer ; les instruments d’évaluation nous servent à produire l’information qui est à la base du travail d’évaluation. Le référent, lui, comprend les objectifs de l’action, les critères et normes de jugements qui vont permettre de les apprécier en fonction du projet et des intentions des protagonistes. Selon une démarche logique, l’activité de mise au point du référent est première par rapport à la constitution du référé. (Nous remarquons pourtant que dans les pratiques d’évaluation les plus fréquentes nous rencontrons souvent l’inverse : la préoccupation pragmatique de la réalisation d’outils d’évaluation étant particulièrement présente) » (Idem : 45 et 46).

La première définition qu’on a adoptée ci-dessus est donc restrictive puisqu’elle ne fait

référence qu’au Référé de l’acte d’évaluation. Derrière l’outil (tableau ou liste) se profile un

Référent, un « cadre de référence », un système plus large d’ « objectifs », de « critères », de

« normes », etc. qui vont donner du sens à cet outil. Nous n’évaluons pas mécaniquement des

actions et des produits selon un standard fixé par le Référentiel, nous évaluons aussi parce que

cela a une signification, ou une fonction, dans un système plus global (apprendre, ça sert à

quelque chose ; se former, ça a un intérêt, etc.). C’est l’explicitation de ce Référent, ou du

moins son aperception implicite, qui donnent du sens à l’acte d’évaluation induisant, par la

même, la façon de mettre en œuvre les processus ou procédures d’évaluation. Cela ouvre tout

un champ de recherche pour découvrir les raisons implicites qui offrent cette signification à

l’acte d’évaluer et, de ce fait, orientent l’action des professionnels. C’est en ce sens que le

système des relations entre le Référent et le Référé constitue un objet essentiel pour

progresser dans la recherche. J.M. Barbier (1985) en a posé les premiers jalons100, à partir

d’une analyse des objets d’évaluation et des processus cognitifs mis en œuvre par les acteurs :

il en a dégagé des concepts essentiels, en particulier en précisant les définitions de

« l’indicateur » et du « critère », mais sans approfondir l’étude du système de Référence, c'est-

à-dire des rapports logiques entre le Référé (procédures, conduites, outils, modes

d’observation) et le Référent : système de signes qui en construit le sens. G. Figari propose

une piste pour amorcer cette étude en faisant appel aux concepts de la linguistique structurale.

Page 307: UN REFERENTIEL, POUR QUOI FAIRE

307

L’orientation apparait pertinente : la relation entre signe et objet est une piste à creuser pour

analyser la façon dont sont construits nos systèmes de référence. Dans la mesure où les

évaluateurs exploitent des outils langagiers, l’analyse de leurs conceptions est un moyen de

découvrir les rapports logiques qu’ils établissent avec l’objet évalué (Référé). Si l’homologie

entre les systèmes de référence des deux disciplines constitue donc un postulat de base qui

justifie l’utilisation des méthodes d’analyse des discours pour étudier la construction de la

Référence, cela s’arrête là. Le concept de « référence » n’a pas le même sens en linguistique

et en sciences de l’éducation – C’est d’ailleurs une des raisons qui a conduit à différencier, par

une majuscule, le Référent des sciences de l’éducation (et la Référentialisation) du référent (et

de la référentialisation) de la linguistique - L’analogie peut alors nous conduire dans des

égarements. Ainsi, G. Figari assimile le « signe », qui a un sens précis en linguistique, au

« signal », concept moins précis, dont la structure est différente101 :

« Dans notre champ d’étude, on pourrait dire que les pratiques courantes d’évaluation partent au contraire de l’objet existant (un établissement à évaluer) qui n’a pas encore de signification (sauf celle d’appartenir à la catégorie des établissements) et cherchent des « signaux » de cet objet, signaux porteurs de signification par rapport à la réalité qui entourent l’objet (par exemple, ce qu’on appelle couramment des indicateurs » (1994 : 46).

L’auteur parle ensuite de « fonction dénotative (ou référentielle) du langage », qu’il oppose à

la « fonction connotative, qui fait appel au contexte », comme si la connotation n’avait aucune

fonction dans la construction de la référence. Ainsi, il en revient à une représentation du

langage tel qu’on l’étudiait avant F. De Saussure :

« La fonction référentielle, comme le terme l’indique, met en relief le référent d’un signe : elle renvoie à l’existence objective d’une chose définie (= le signe arbre renvoie aux arbres existants), soit dans un système général de signes (= l’arbre comme catégorie de végétaux dont l’existence est répertoriée), soit dans le cadre de l’expérience (= tel arbre du jardin) » (Idem).

Par manque d’une analyse structurale, l’analogie conduit à des errances et, surtout, elle

n’apporte rien sur les questions méthodologiques. Pour comprendre ces dérives, il convient de

rappeler comment sont structurés les systèmes langagiers : ce sont les relations entre

signifiants (formes écrites ou parlées) et signifiés (concepts) qui induisent la signification. Le

« référent », en linguistique, exprime l’objet qui est dénommé par le signe, « l’objet dénoté »

ou « dénotatum ». Si la signification résulte du rapport entre un « signifiant » et un

« signifié », qui produit le « signe », la référence est le système de relations entre les signes et

le monde des objets, et ces rapports de référenciation / référentialisation sont complexes.

100 On a abordé ces conceptions du « Référent » et du « Référé », telles qu’elles ont été définies par J.M. Barbier au paragraphe sur le projet. On y reviendra au paragraphe suivant sur « critère » et « indicateur ». 101 Sur cette question, à voir, en particulier, les travaux de G. Mounin (1970) sur la signalisation routière (155– 168), sur les systèmes de communication non linguistiques (17-39) ou sur la notion de code (77-86).

Page 308: UN REFERENTIEL, POUR QUOI FAIRE

308

Qu’en est-il de la Référence, au sens des sciences de l’éducation ? Pour l’étudier, les

chercheurs ont donc distingué deux niveaux d’analyse : celui du Référent, où se construit le

discours qui justifie l’organisation du dispositif d’évaluation ; celui du Référé, où sont mis en

œuvre les matériaux du procès (objets évalués, procès, outils, etc.). Au premier niveau

(Référent) se construit le sens de l’acte d’évaluation : l’analyse du discours nous permet ici

d’étudier les conceptions des acteurs. Au second niveau (Référé) s’élaborent les outils : leurs

formes matérielles ou leurs procès d’application sont observables. Les protocoles de la

psychologie cognitive (cf. expérience 1) ou les modes d’enquête de la sociologie (cf.

expérience 2) offrent des outils pour les appréhender. On peut donc aborder l’étude des

systèmes de Référence, soit à partir de la signification qu’ils ont pour l’acteur (Référent), soit

par l’observation systématique de procès, d’outils, d’actions, etc. Mais la relation entre ces

deux niveaux ne crée pas instantanément du sens, à la façon du système langagier (rapport

signifiant / signifié). S’il nous arrive de parler du « sens que le Référent communique au

Référé », c’est par un abus de langage. En linguistique, ce sont les structures entre les

signifiants qui sont étudiées et analysées, les rapports entre signifiés sont le plus souvent

inférés. En sciences de l’éducation, ainsi que le fait remarquer G. Figari, les observations

porteront au contraire sur les matériaux du procès, c'est-à-dire le Référé, qui présentent une

forme objective. Le rapport du Référé au Référent – ou rapport de Référence – apparait alors

plutôt comme un rapport fonctionnel, au sens où l’entend la phénoménologie : le procès ou

l’outil d’évaluation (Référé) ont une fonction qui s’inscrit dans le système de signification

construit par le discours des acteurs (Référent).

Plusieurs problèmes de méthodes surgissent alors : si on analyse cette fonctionnalité à

partir du Référent, c'est-à-dire des conceptions des acteurs, les procès (Référé) ne nous

apparaissent que dans la façon dont en parle l’acteur, c'est-à-dire en tant que concepts

construits par lui ; si on analyse cette relation fonctionnelle à partir du Référé, c'est-à-dire des

procès et des outils mis en œuvre, l’analyse du système est produite par la réflexion du

chercheur et par sa problématisation, et non par la conception des acteurs. Le système de

Référence ne peut donc être étudié empiriquement que si les protocoles (expérience N° 1) ou

les méthodes d’enquête (expérience N° 2) permettent de lier, d’une part la systématisation des

observations sur les outils, modes de communication, etc. (avec les apports méthodologiques

de la psychologie ou de la sociologie), et d’autre part l’analyse des conceptions des acteurs en

fonction de la façon dont ils ont été distribués par le protocole ou l’enquête : qu’ont-ils de

commun dans leur façon de construire la référence, de créer de la signification ou d’élaborer

leur conception / leurs concepts ?

Page 309: UN REFERENTIEL, POUR QUOI FAIRE

309

Bien entendu, on prend alors conscience de la relativité de l’approche empirique : il

n’est possible d’aborder, à chaque fois, que quelques aspects du système de Référence. Pour

reprendre les termes de la phénoménologie, si notre appréhension de l’objet est globale,

téléologique (noématique), notre connaissance reste parcellaire et focalisée sur certains

aspects sur lesquels s’est portée notre attention. Il est cependant important de rappeler que,

pour E. Husserl, le « noème » fait partie de l’objet : en ce sens, il se différencie du

« thétique » qui est « subjectif ». Exprimé en d’autres termes : on ne peut nier que le choix du

sujet d’une thèse est induit par des motivations subjectives, mais le philosophe préconise de

les neutraliser pour appréhender l’objet de façon noématique – dans sa globalité systémique et

téléologique pourrait-on dire de nos jours.

- Une des options adoptée a donc été de chercher l’intentionnalité des acteurs à travers leurs

propres conceptions pour expliquer leurs actions et outils : on rejoint ici les orientations de

l’anthropologie contemporaine et l’approche ethnographique qui nous conduit à élargir

progressivement les modalités de la collecte des données et les modes de traitement.

- L’autre option a été d’aborder globalement l’objet d’étude à travers des approches

complémentaires, pour éprouver empiriquement l’objet sous différents angles.

- La troisième option, enfin, a été de s’intéresser aux processus cognitifs mis en jeu : on

s’inscrit ainsi dans une perspective « connexionniste ».

On abordera, au paragraphe suivant, le référentiel tel qu’il a été conceptualisé par les

sciences politiques, approche qui nous permet d’enrichir l’étude du Référent.

2) Le « référentiel » pour les sciences politiques :

Le « référentiel », dans les sciences politiques, a une tout autre fonction, cette

discipline ayant pour objet d’étudier la façon dont se construisent les politiques publiques. Ce

terme désigne un système de référence, dont les scientifiques analysent la complexité :

« Elaborer une politique publique consiste donc d’abord à construire une représentation, une image de la réalité sur laquelle on veut intervenir. C’est en référence à cette image cognitive que les acteurs organisent leur perception du problème, confrontent leurs solutions et définissent leurs propositions d’action : on appellera cette vision du monde le référentiel d’une politique. Le référentiel correspond avant tout à une certaine vision de la place et du rôle du secteur concerné dans la société. » (P. Muller, 1990 : 62).

On le nommera « référentiel politique » pour le différencier du « Référentiel outil », défini au

paragraphe précédent.

Page 310: UN REFERENTIEL, POUR QUOI FAIRE

310

L’utilisation du même terme n’est pas seulement le fruit d’un glissement analogique ;

le concept des sciences politiques partage certains aspects morphologiques avec celui des

sciences de l’éducation :

« Le référentiel d’une politique est constitué d’un ensemble de prescriptions qui donnent du sens à un programme politique en définissant des critères de choix et des modes de désignation des objectifs. Il s’agit à la fois d’un processus cognitif permettant de comprendre le réel en limitant sa complexité, et d’un processus prescriptif permettant d’agir sur le réel » (Idem : 63).

Pour P. Muller, ce référentiel est constitué de différents « niveaux de perception » qui

s’articulent :

« Les valeurs sont les représentations les plus fondamentales sur ce qui est bien ou mal, désirables ou à rejeter. Elles définissent un cadre global de l’action publique (…) Les normes définissent des écarts entre le réel perçu et le réel souhaité. Elles définissent des principes d’action plus que des valeurs (…) Les algorithmes sont des relations causales qui expriment une théorie de l’action. Ils peuvent être exprimés sous la forme de « si…alors ». (…) Les images (…) sont des vecteurs implicites de valeurs, de normes ou même d’algorithmes. Elles font sens immédiatement sans passer par un long détour discursif » (Idem : 64).

L’introduction de ce nouveau concept n’aurait guère d’intérêt si nous ne pouvions établir

aucune relation avec la conception précédente. Mais le référentiel politique n’est-il pas, de par

sa fonction méthodologique, adapté pour analyser les politiques pédagogiques et évaluatives

des ministères (éducation nationale, jeunesse et sports, agriculture, etc.), c'est-à-dire les

grandes orientations qui ont conduit à l’élaboration des modalités contemporaines

d’évaluation ? Si la première définition (Référentiel outil) valorise la dimension « Référé » du

référentiel, celle qui nous est communiquée ici (référentiel politique) offre une méthodologie

d’analyse pour la dimension « Référent ». Le système de Référence ne saurait se construire

que si « Référent » et « Référé » se rencontrent, se structurent selon une certaine logique

fonctionnelle. L’homologie structurelle entre ces référentiels serait alors l’expression de cette

logique. En tout cas, rien ne nous empêche d’en formuler l’hypothèse, qui nous invite alors à

rechercher ce qui, dans le référentiel-politique, explique - ou du moins est en rapport de

référence avec - les modalités du Référentiel-outil. En quoi les valeurs, les normes, les

algorithmes et les images induisent-ils les comportements évaluatifs d’un milieu

professionnel, du moins construisent-ils du sens pour expliquer et justifier les façons

d’évaluer ? Par exemple, le référentiel politique du « socle commun » et les évaluations

nationales dans les écoles primaires.

Page 311: UN REFERENTIEL, POUR QUOI FAIRE

311

Le débat sur les référentiels politiques a été approfondi par le CERAT et l’IEP de

Grenoble dans un ouvrage : « La construction du sens dans les politiques publiques : débats

autour de la notion de référentiel » (1995). Il semble pertinent de relever quelques

propositions pour préciser notre problématique. O. Mériaux analyse le modèle proposé par B.

Jobert et P. Muller, en particulier ses aspects innovants mais aussi ses faiblesses.

« Ce schéma permet l’étude de la genèse des politiques, car il inclut dans le raisonnement des éléments qui précèdent ou accompagnent un programme d’action : débats intellectuels, controverse d’experts, etc. De plus, en montrant que l’action publique passe autant, si ce n’est davantage, par la construction d’un sens commun que par la mobilisation de la contrainte pure, il offre une vision renouvelée des processus de concertation et des interactions de type « néo-corporatiste » entre Etat et groupe d’intérêt. De manière générale, en prenant réellement en compte les cadres cognitifs par lesquels les acteurs construisent la réalité sociale, il fournit un complément nécessaire aux théories sociologiques basées sur l’observation des interactions entre individus ou groupes, autour d’enjeux de pouvoir ou de maximisation des intérêts. Mais en s’aventurant ainsi sur le terrain mouvant du rôle des idées et des processus cognitifs dans l’action politique, le modèle du référentiel, surtout dans sa première mouture, ne bénéficie pas toujours d’une assise théorique solide » (1995 : 54 et 55).

Il nous montre, en particulier, comment les auteurs du modèle ont su s’approprier les travaux

sur les représentations sociales, en ne conservant que « le moins critiquable ».

« L’aspect le moins psychologisant : la représentation est étudié comme une forme de savoir, comme un phénomène cognitif dont la construction peut être saisie dans différents supports. L’étude de contenus objectivés dans le langage, le discours, dans des documents, permet de tracer une ligne de démarcation avec la psychologie cognitive. L’aspect le moins déterministe : à travers la genèse des représentations sociales – et l’étude de leur évolution dans le temps (passage d’un référentiel à l’autre, même si ce moment est très mécanique) – l’accent est moins mis sur les propriétés structurantes que sur les représentations comme champ structuré » (Idem : 57).

Ainsi le modèle du référentiel qui nous est proposé pour analyser les politiques publiques

ouvre-t-il une nouvelle voie vers l’étude des représentations sociales. P. Warin en cerne les

enjeux :

« Dire que les référentiels sont appropriables par une diversité d’acteurs signifie qu’au lieu d’apparaitre comme des descriptions vraies (celles des médiateurs et des élites), les référentiels servent d’abord de cadres cognitifs communs qui permettent à une diversité d’acteurs sociaux concernés ou touchés par la politique publique de construire les informations jugées pertinentes et utiles pour l’action et de déterminer la nature des objets (normes secondaires d’application du droit, règles du métier, etc.) qui peuvent servir de ressources. Dès lors, ce qui importe d’étudier, ce sont les tensions que subit le référentiel. Chacune des trois dimensions (cognitive, normative, instrumentale) qui permettent de le définir comme cadre intellectuel d’une politique publique peut faire l’objet de beaucoup de réinterprétations et de spéculations, qui entrainent un frottement entre des systèmes de représentations distincts » (1995 : 56, 57).

Page 312: UN REFERENTIEL, POUR QUOI FAIRE

312

Ce modèle nous permet de discerner le rôle de certains acteurs dans l’évolution des politiques

publiques, en particulier celui des médiateurs mis en valeur par P. Muller :

« Cela signifie qu’un acteur donné pourra se positionner comme médiateur à un moment donné et dans un contexte socio-organisationnel donné, mais ne pourra pas construire n’importe quel système de croyances en fonction de ses besoins stratégiques, les croyances étant le résultat d’une interaction très complexe entre la place du groupe dans la division du travail et l’identité construite à partir de cette place (…) Les médiateurs décodent le monde, le rendent intelligible, lui donnent du sens ; puis ils le « recodent », ils définissent des objectifs et des actions destinées à accélérer cette transformation du monde qui est présentée comme inéluctable (…) Les médiateurs ont donc à la fois une fonction cognitive (ils aident à comprendre le monde) et une fonction normative (ils définissent des critères qui permettent d’agir sur le monde, c'est-à-dire les objectifs des différentes politiques publiques) (…) Il y a une sorte de relation circulaire entre le processus de construction du sens et le processus de prise de pouvoir : c’est parce qu’il définit le nouveau référentiel qu’un acteur prend le leadership du secteur en affirmant son hégémonie, mais en même temps, c’est parce que cet acteur affirme son hégémonie que sa vision du monde devient peu à peu la nouvelle norme » (Idem : 163 à 165).

Les médiateurs ne sont donc pas les seuls acteurs qui conduisent à l’émergence de ces

nouveaux référentiels. Ils n’acquièrent cette position que dans la mesure où ils capitalisent

l’expérience des autres acteurs sociaux, sont à l’écoute de leurs conceptions et en capacité

d’analyser les contradictions et contraintes de leurs pratiques quotidiennes. C’est dans ces

conditions que leur médiation se traduit par une transformation du Référentiel, c'est-à-dire des

cadres de référence d’une majorité des acteurs sociaux concernés.

Les phénomènes de crise et les tensions qui accompagnent ces processus ont conduit

Y. Surel à comparer ces mutations aux « révolutions scientifiques », telles qu’elles sont

analysées par T.S. Kuhn. Il en emprunte le modèle pour adapter le concept de « paradigme »

aux besoins des sciences politiques.

« Définir une politique publique comme paradigme ou matrice sectorielle suppose donc de considérer quatre éléments fondamentaux : des principes métaphysiques généraux, des hypothèses pratiques, des méthodologies d’action et des instruments spécifiques. Au sens restreint, de même qu’il n’y a pour Kuhn de véritable science « normale » qu’en présence d’un paradigme, il n’y a de politique publique « normale » que lorsque ces quatre éléments font système » (Idem : 137).

Cette approche innovante a le mérite de capter notre attention. Elle introduit une réflexion sur

les relations entre les valeurs / normes et les instruments, et ouvre des perspectives sur

l’analyse des phases de crise qui conduisent à la formation de ces référentiels. Mais les

analogies ont aussi leurs limites. Les écueils fréquents de celles-ci nous invitent à adopter une

position prudente et à différencier les contextes particuliers et les spécificités de

fonctionnement des systèmes ainsi modélisés.

Page 313: UN REFERENTIEL, POUR QUOI FAIRE

313

La réflexion sur le modèle de T.S. Kuhn, abordée dans l’approche épistémologique

(pages 45 à 50), est une première base pour conduire cette analyse. Pour deux des éléments de

la matrice proposée par Y. Surel (« hypothèses et lois » et « méthodologie »), il est important

de rappeler avec quelles dimensions de la matrice de T.S. Kuhn s’opère l’analogie, à savoir

les « généralisations symboliques » et les « croyances ». Les notions de « loi » et de

« modèle » seront alors des concepts pertinents pour illustrer la différence des deux contextes,

« scientifiques » et « politiques ». Dans le domaine scientifique, leur acception est cognitive

et prévisionnelle (MCP), alors que, dans le domaine politique, elle est normative ou

décisionnelle. Dans le premier cas, il s’agit d’analyser et d’expliquer, dans le second de

prescrire et d’orienter. L’articulation entre ces deux types de modélisations a été discutée dans

la partie I (pages 37 à 44) et les conclusions semblent adaptées pour les situations étudiées par

les sciences politiques, mais est-il pertinent pour autant de les confondre ? Les

« généralisations » n’ont pas, non plus, la même fonction, dans le domaine des sciences où

elles traduisent, sous forme symbolique, les « lois scientifiques » et les « modélisations

cognitives » ; alors qu’au niveau des référentiels politiques, au regard des travaux présentés

par ce courant de recherche, elles semblent plutôt s’apparenter à des algorithmes et à des

images, qui ont une fonction persuasive, voire performative. Ainsi les algorithmes du

Référentiel politique auraient pour but de justifier les modèles normatifs et décisionnels mis

en œuvre pour déterminer les modalités des actions102. Alors que, dans le domaine

scientifique, les généralisations symboliques sont une expression conceptuelle de la

schématisation des phénomènes observés.

La relation aux instruments et aux valeurs en est modifiée. La notion d’ « instrument »

ne se limite pas à la seule élaboration d’une règlementation, fusse au-delà des arrêtés, à

travers des instructions et des circulaires. Réduire la notion d’ « instrument » à celle-ci

créerait une confusion entre la modélisation normative et décisionnelle et l’instrumentation de

la politique. Le Référentiel politique, tel qu’il est défini par ces auteurs, ne saurait avoir prise

sur la réalité que si la loi est en phase avec les outils de communication mis en œuvre par les

acteurs du secteur professionnel pour coordonner leurs actions. Les référentiels-outils sont, à

ce titre, un bon exemple de ces instruments pour les secteurs de l’éducation et de la formation

professionnelle. Mais bien d’autres modes existent : congrès, colloques, revues, instituts, etc.

102 On a conscience que, pour justifier les modèles normatifs et décisionnels, les algorithmes s’appuient le plus souvent sur des « évidences » mises à jour par des modélisations cognitives et prévisionnelles, en particulier le produit de travaux scientifiques. C’est le rôle des médiateurs d’exploiter ceux-ci pour promouvoir ceux-là. Mais, outre que cet appel à la connaissance scientifique n’est pas obligatoire pour que le référentiel politique soit mis

Page 314: UN REFERENTIEL, POUR QUOI FAIRE

314

La richesse de la modélisation d’Y. Surel n’est-t-elle pas de poser un cadre pour interroger les

relations formelles et logiques qui existent entre les algorithmes et images, les modèles

normatifs et décisionnels, souvent traduits sous forme de textes règlementaires ou de normes,

et les instruments que le secteur professionnel élabore pour se structurer ? Enfin l’analyse des

« valeurs », dans le modèle paradigmatique de T.S. Kuhn, a fait émerger une différence entre

les valeurs intrinsèques et les valeurs sociétales extrinsèques. Les valeurs intrinsèques sont le

produit des discussions entre scientifiques pour déterminer les cadres de référence et les

principes, et pour s’accorder sur la pertinence, la validité, la cohérence, etc. des propositions

théoriques, des constructions conceptuelles et des modalités méthodologiques. On les a

qualifiées de « critères ». Or, si cette différenciation entre « critères » et « valeurs sociétales »

a du sens pour le milieu scientifique, elle est moins probante dans le modèle des référentiels

politiques. Dans tous les cas, elle demande à être analysée, car les critères, au sens où

l’entendent les milieux scientifiques, ne sauraient être des valeurs intrinsèques de tous les

milieux professionnels. Si on prend en considération la définition qu’Y. Surel nous donne de

ces « principes métaphysiques généraux » :

« Cette notion recouvre assez bien ce que Jobert et Muller appellent « référentiel », ou ce que Merrien désigne comme « paradigme sociétal ». Les principes métaphysiques généraux recouvrent en effet certaines indications abstraites relativement simples sur les modes de fonctionnement de la société, et plus spécifiquement, du champ politique. Ils constituent d’une certaine manière, une (ou un ensemble de) méta-image(s) sociale(s) collectivement légitime(s). (…) Les principes métaphysiques généraux recouvrent les opérations les plus générales de catégorisation et de définition du réel, et sont par conséquent distincts des normes d’action appropriées » (Idem : 130).

Peut-on en déduire pour autant que ces principes « politiques » aient la même fonction, vis-à-

vis des valeurs sociétales extrinsèques, que les critères scientifiques ? Quels sont les rapports

logiques entre les modalités organiques des référentiels politiques et les valeurs sociétales

(morales, religieuses, idéologiques, etc.) ? L’analogie est-elle alors pertinente pour dégager

des homologies structurelles, c'est-à-dire identifier des composantes morphologiques

identiques entre les paradigmes scientifiques et les paradigmes politiques, en raison de leurs

essences communes. Pour répondre positivement, encore nous faut-il découvrir les contraintes

matérielles et les raisons fonctionnelles qui ont conduit les deux systèmes à fonctionner de

façon identique. Qu’est ce qui a conduit les acteurs des deux champs à adopter les mêmes

modes de fonctionnement et structures de pensée ? Comment les rapports entre les modèles

cognitifs des scientifiques et les modèles normatifs des médiateurs se déterminent-ils ?

en œuvre (les préjugés populaires ou les dogmes religieux peuvent aussi bien faire l’affaire), il semble important de différencier les niveaux pour analyser le rôle des médiateurs.

Page 315: UN REFERENTIEL, POUR QUOI FAIRE

315

Ou encore, quelle est, dans ce rapprochement, la fonction de l’appropriation de ces deux types

de modèles par les formateurs ou autres intermédiaires, qui cherchent à communiquer un sens

aux modes d’actions qu’ils enseignent, objets d’apprentissage au sein du milieu professionnel,

etc. ?

Les catégories du modèle d’Y. Surel n’apparaissent pas suffisamment éprouvées

empiriquement pour élaborer un modèle cognitif. Mais la recherche sur les référentiels

politiques a déjà balisé le terrain de travaux empiriques et, dans ce cadre, sa proposition

oriente vers un nouveau champ d’investigations : l’analyse des rapports entre les référentiels

politiques et les instruments des politiques publiques (dont les référentiels outils ne sont

qu’une modalité).

3) Référentiel politique et Référentiels outils :

Les valeurs, les normes, les images et algorithmes sont la forme d’expression

médiatique du référentiel politique : nous pouvons les analyser à travers les médias, moyens

de communication mis en œuvre par le groupe pour s’organiser. Leur étude oriente notre

analyse du Référent, du moins la situe dans son contexte social. A un autre niveau, l’étude

systématique des différents outils, procès, façons de faire, modes de communication fournit

des observations du Référé, des objets évalués. Mais comment ces deux niveaux sont-ils

articulés ? La première démarche nous invite à cerner le « cadre de référence » dans lequel

agissent les acteurs, la seconde à analyser les contraintes organiques des pratiques

professionnelles.

Une politique publique ne saurait se structurer sans prendre en compte les contraintes

et les modes de fonctionnement des acteurs sociaux qui devront la mettre en application ou

qui en dépendront - du moins pour s’instituer sur le long terme. Si elles sont pertinentes, ces

valeurs, normes et images orientent les modes d’action des milieux professionnels.

Effectivement, dans le cas contraire, elles deviendraient désuètes et seraient progressivement

délaissées. Quand des conceptions désuètes se maintiennent dans une institution, c’est qu’il

existe au moins un groupe social qui a un intérêt à en maintenir l’usage. Le terme « désuet »

n’a de sens, pour qualifier une valeur - ou une norme -, que si elle est affirmée par l’institution

sans être prise en considération par la majorité des acteurs concernés : l’image, support

médiatique de ces valeurs, est alors le plus souvent brocardée par les agents qui ne s’y

reconnaissent pas ou qui la rejettent. On s’inscrirait alors dans une problématique adaptée à la

sociologie des organisations (P. Bernoux : 1985 ; M. Crozier et E. Friedberg : 1977).

Page 316: UN REFERENTIEL, POUR QUOI FAIRE

316

Cette possibilité nous met en garde contre une étude des Référentiels qui se limiterait à

un seul type de sources (par exemple, les lois et la règlementation), dans la mesure où celles-

ci peuvent être modelées par les intérêts de groupes restreints (en l’occurrence, les

fonctionnements de l’administration centrale). Mais le sujet de cette thèse ne nous oriente pas

vers ce genre de dysfonctionnement, dans la mesure où on a privilégié, comme objet,

l’utilisation ordinaire des Référentiels. On portera donc plus spécifiquement l’attention sur les

fonctionnements adaptés entre le Référé, les procédures opératoires mises en œuvre par les

acteurs, et le Référent, leurs valeurs et leurs normes : comment s’articulent ces procédures,

d’une part, avec les conceptions, de l’autre ? C’est pour cette raison qu’on a opté, dans

chacune des expériences, pour une complémentarité entre des observations sociologiques,

afin de discerner les caractéristiques des premières, et l’analyse des discours, afin

d’approfondir notre connaissance des secondes. Chaque mode opératoire de la recherche

permet ainsi afin d’approfondir notre connaissance desà la fois une procédure et une

conception : dans l’expérience N° 1, le mode de sélection et l’argumentaire de l’appréciation ;

dans la N° 2, les méthodes mises en œuvre et la conception de la fonction. L’articulation entre

ces deux niveaux se précise au fur et à mesure des différentes expériences qui réifient les

concepts.

On a dégagé, ainsi, trois principes méthodologiques adoptés, dans cette thèse, pour

étudier les Référentiels :

- une analyse des discours pour découvrir le Référent (critères, valeurs, normes,

algorithmes) et une lecture sociologique pour observer le Référé (contexte, outils,

modalités des actions, etc.) ;

- des expériences qui allient Référent et Référé les font apparaître de façon co-occurrente

(en même temps) et en favorisent une analyse discriminante : possibilité de distribuer ou

classer les conceptions et les procédures de façon à voir lesquelles coexistent ensemble ;

- enfin, sur la forme, il est important que les modalités d’apparition du Référent et du

Référé soient dans un rapport logique qui est identifié, soit a priori lors de la construction

de l’expérience, soit a posteriori lors de l’interprétation : par exemple, dans l’expérience

N°1, l’appréciation sur les raisons d’un choix est une procédure logique dans le domaine

de l’évaluation scolaire (a priori) ; dans l’expérience N°2, les rapports logiques entre

fonctions et outils d’évaluation sont déduits des réponses au questionnaire (a posteriori).

Cette analyse nous a conduit ainsi à rechercher l’essence du système de Référence dans

l’articulation entre, d’une part, le monde sensible et les diverses procédures pour

Page 317: UN REFERENTIEL, POUR QUOI FAIRE

317

l’appréhender (Référé), et d’autre, part, les conceptions qui construisent la signification à

partir de ces phénomènes (Référent).

Pour analyser cette articulation, on ne peut donc en rester à cette dichotomie entre

procédures et valeurs, qui n’a de sens qu’en raison des processus cognitifs mis en œuvre par

les acteurs pour créer des rapports de signification. Les concepts de « critère » et d’

« indicateur » traduisent des processus de ce type : J.M. Barbier nous en offre une première

approche (1985). Ils ont aussi fait l’objet de plusieurs études en sciences de l’éducation, qui

auront l’intérêt de les préciser et d’en favoriser une approche plus objective.

4) Critère et indicateur :

4-1) Les propositions de définition en sciences de l’éducation :

On amorcera donc ce paragraphe par la proposition de J.M. Barbier : il s’agissait, pour

cet auteur, « d’entrer dans le cœur même du processus d’évaluation » à partir « d’instruments

d’analyse de son fonctionnement, inspirés des outils d’analyse d’un procès de travail » (1985 :

14). Il considère

« les faits d’évaluation comme des pratiques sociales, c'est-à-dire des pratiques qui ne se réduisent ni à leur aspect purement technique ni à leur aspect purement social, mais qui représentent à quelques degrés un processus de transformation aboutissant à un produit déterminé » (Idem : 12).

Ainsi le Référé, « de l’ordre de la représentation sur les faits », est « prémisse dans la

production du jugement de valeur », il est constitué par un « processus de choix des

indicateurs de l’objet ou de la réalité évaluée » et une « production d’information proprement

dite » (dispositifs d’informations, enquêtes...) (Idem : 65 à 72). Le Référent, « lié à l’ordre des

objectifs », joue un « rôle instrumental dans la production du jugement de valeur », il est

constitué par un « processus d’identification des objectifs » et un « processus de spécification

de normes ou de critères à partir de ces objectifs » (Idem : 73 à 78). Les deux processus sont

clairement différenciés : le choix des indicateurs fait ainsi partie du « Référé », ceux-ci

constituent donc un « matériau du procès » ; la spécification des critères fait partie du

« Référent », ils sont donc des moyens de travail. Les rapports entre ces deux concepts sont la

conséquence des formes de l’évaluation, en particulier lors de la production des résultats :

« La quantification suppose qu’en fait soient réunies deux conditions : d’une part, le choix d’un seul (ou de quelques) indicateur(s) réputé(s) sensible(s) et mobile(s) ; d’autre part l’établissement de règles de correspondance entre un système de grandeur (échelle numérique

Page 318: UN REFERENTIEL, POUR QUOI FAIRE

318

ou ensemble de symboles) et les informations obtenues à partir de cet indicateur. Nous dirons qu’il y a mesure au sens strict qu’à partir du moment où les deux conditions sont réunies » (Idem : 72).

Pour expliquer les caractères généraux des indicateurs dans le cas des évaluations d’actions,

J.M. Barbier les assimile à certains concepts utilisés par d’autres auteurs : « variable » (Stake)

(Idem : 202), « paramètre » (Stuffelbeam) (Idem : 206), « instrument de synthèse » (Caspar)

(Idem : 207). L’indicateur apparaît ainsi comme un concept générique qui regroupe les

diverses formes instrumentales de la mesure lors de la phase d’observation et de codification :

il est l’« outil ou (la) catégorie intellectuelle de saisie d’une réalité » (Idem : 305). Le

processus de spécification du critère acquiert une signification fonctionnelle (en tant que

moyen de travail) par rapport aux indicateurs (en tant que matériau du procès) pour produire

une mesure sur laquelle fonder le jugement de valeur. Le critère fonctionne comme un

système de correspondance entre les indicateurs pour établir un système de grandeur (échelle,

mesure...) des objets évalués. L’analyse de l’évaluation des agents permet de mieux cerner le

caractère opératoire de cette dichotomie : le Référé est constitué par

« la désignation, l’isolement ou le choix de comportements ou de conduites susceptibles de faire l’objet d’une observation ou de servir d’instruments de saisie de l’état (de la personnalité) auquel on s’intéresse » (Idem : 96).

Mais ces comportements ne sont des indicateurs qu’à partir du moment où ils sont

« pertinents » et permettent « une inférence sur l’état » de la personnalité. Pour cela, il leur est

nécessaire de « présenter un caractère synthétique », et d’être « significatifs » et

« représentatifs » par rapport aux objets évalués (les « capacités visées » dans le cas des

évaluations d’agents) (Idem : 99). Les critères apparaissent alors être les opérations qui les

transforment dans le but de porter un jugement de valeur. L’auteur emploie aussi, dans le

cadre des évaluations d’agents, le terme de « normes concrètes du jugement » :

« Les performances concrètes présentées par les agents évalués ne peuvent être réellement appréhendées que compte tenu d’autres performances concrètes émanant d’agents placés dans la même situation (...) Il faut donc qu’à un moment donné ait lieu cette opération de prise en compte des performances concrètes présentées par la population de référence ; cette opération est constitutive du processus de spécification des critères de l’évaluation des agents (...) (Celui-ci) consiste dans la mise en relation des modèles de conduite et de ces classifications de performances observées pour aboutir à la production d’échelles de performances attendues » (Idem : 115 à 119).

Les critères organisent donc les informations obtenues, pour fonder les jugements de valeur,

sous la forme d’« échelles de performances » (évaluation des agents) ou de « critères de

réalisation » (évaluation des actions).

Page 319: UN REFERENTIEL, POUR QUOI FAIRE

319

« Comme l’indique N. Gage (...) on constate que la détermination des critères est décrite comme consistant

a/ à établir une liste de paramètres importants de l’action considérée et b/ à établir un jeu de correspondant d’échelles devant servir aux observateurs, mesureurs ou juges de cette action » (Idem : 119). Plusieurs auteurs se sont attaqués aussi à cette question et leurs définitions

compléteront l’approche de J.M. Barbier. Pour J.J. Bonniol :

« Le critère est une dimension de l’objectif que l’évaluateur choisit de privilégier comme référence parmi d’autres... Ce qui justifie la référence choisie, c’est l’objectif visé, la qualité recherchée, la valeur privilégiée... Si les critères sont des dimensions des objectifs, ils sont alors eux-mêmes d’abord qualitatifs, abstraits (la cohérence d’un texte, la rigueur d’un raisonnement, l’implication d’un élève ou d’un groupe dans une tâche...) Ils sont ensuite traduits, convertis, concrétisés en indicateurs quantitatifs, en catégories d’observables, utilisables pour conférer à certains observables le statut d’indices... » (J.J. Bonniol : 1997 :145).

On observe donc deux attributs pour définir le critère, la notion de dimension (déjà présente

dans la définition de JM. Barbier) et celle de référence. La notion de dimension, dans une

logique expérimentale, fait appel à celle de variable : la dimension cadre la collecte vers un

certain type d’éléments observables, qui sont transformables en variable. La notion de

référence introduit l’idée de choix dans les événements observés, voire de classification des

informations recueillies.

« (Le critère) sera pris ici dans le sens d’une classe ordonnée d’événements qui est privilégiée parmi d’autres comme dimension du modèle de référence utilisé par l’évaluateur... Un critère est toujours objectif, seul le choix qui en est fait est éventuellement subjectif sans pour autant qu’il soit arbitraire » (J.J. Bonniol : 1983 : 174).

Cette définition de J.J. Bonniol sur le rôle des critères (classification des informations à partir

de références) et leur transformation en mesure (organisation des informations autour d’une

dimension observable) a, pour principale fonction, d’orienter la recherche sur des

observations précises (1983). J.J. Bonniol propose deux axes pour approfondir la

connaissance des critères :

- rechercher les références utilisées par les acteurs pour ordonner les événements ;

- faire préciser les dimensions des critères et leur forme opérationnelle, au besoin à partir

d’exemples et de contre-exemples.

J. M. De Ketele et X. Roegiers proposent une définition simple du critère, assimilé à

un objectif opérationnel :

« La distinction entre objectif et critère n’est pas toujours aisée : en fait, un critère est toujours un objectif de plus faible niveau par rapport à l’objectif général. Il s’exprime en termes qualitatifs » (1996 : 65).

Cette définition s’inscrit dans la tradition de la pédagogie par objectifs et des conceptions

taxinomiques (cf. introduction - paragraphe 2) :

Page 320: UN REFERENTIEL, POUR QUOI FAIRE

320

« L’un des rôles les plus utiles des objectifs pédagogiques est de fournir des références et des critères pour l’évaluation » (1988 : 97).

Cette définition est simple, aisément identifiable pour le praticien, ce qui en fait certainement

son succès. Mais un chercheur en sciences de l’éducation aura du mal à s’en satisfaire.

Pourquoi utiliser deux termes différents pour un même concept ? Cette confusion courante

dans le langage ordinaire se conçoit plus difficilement dans le domaine des sciences. Par

ailleurs, un objectif, de l’ordre de la représentation (de la projection dans un avenir plus ou

moins proche), s’observe à travers les projets des acteurs, et non à travers leurs pratiques

d’évaluation. En fait, les critères sont ici conçus au service d’une pédagogie et non comme un

objet de recherche en tant que tel.

« Les objectifs servent de critères pour le choix des méthodes, des techniques, des moyens, et d’outils pour l’amélioration de l’action éducative » (1988 : 97).

N’y a-t-il donc pas confusion entre la démarche prescriptive et descriptive ? Si nous analysons

le processus d’évaluation avec le modèle de cet auteur (1988 : 114 à 116), le critère a une

fonction autre que celle de l’objectif opérationnel : la mise en œuvre de l’évaluation repose,

pour cet auteur, sur un double processus, la définition d’objectifs assez précis et le recueil des

informations pertinentes, puis la confrontation entre les deux. Mais la forme de cette

confrontation n’est guère précisée. Or n’est-ce pas lors de cette étape qu’interviennent les

critères (1996 : 77 à 80) ?

L’approche de C. Hadji nous apporte quelques éléments d’analyse nouveaux sur cette

« confrontation ». Il reprend le modèle de J.M. Barbier de la « double articulation dans

l’opération d’évaluation » (1989 : 27). Pour lui, évaluer c’est « confronter des données de fait

(une réalité) et des données qui sont de l’ordre de l’idéal du devoir-être (un projet, une

intention) » (1989 : 187).

« L’assiduité, la ponctualité (...) sont les principaux caractères du bon professeur, qui servent de critères de jugement. Pour évaluer, le proviseur est incité à confronter à ce portrait-robot chaque enseignant concret qui sera saisi à travers quelques signes recherchés en regard de chaque critère. Par exemple, pour apprécier l’assiduité, on se demandera si le professeur est souvent en retard, s’il a eu des absences non-justifiées, etc. Ces aspects du comportement de l’enseignant réel servent d’indicateurs et témoignent de la présence des caractères recherchés... On pourra appeler référent, l’ensemble des normes ou critères qui servent de grilles de lecture de l’objet à évaluer ; et référé, ce qui sera retenu de cet objet à travers cette lecture » (1989 : 25).

Ces définitions renvoient aux notions de « catégorie » (critère) et de « caractéristique »

(indicateur) :

Page 321: UN REFERENTIEL, POUR QUOI FAIRE

321

« Critère : caractère ou propriété d’un objet permettant de porter sur lui un jugement de valeur. Ce qui permet de trancher (par ex : de ranger dans une catégorie). Ce grâce à quoi on pourra savoir et voir si (ex : des objectifs sont atteints). Indicateur : caractéristique particulière témoignant de l’existence d’un phénomène déterminé. Signe auquel on reconnaît la présence d’un effet escompté » (1989 : 186 et 188).

La proposition qui consiste à assimiler le Référent à un idéal (« ce qui devrait être ») se heurte

cependant à une limite : comment confronter une norme idéale et une observation objective,

c'est-à-dire deux objets qui ne se situent pas au même niveau d’analyse ? Le processus

d’évaluation n’est pas une simple confrontation. Le critère est réifié par les indicateurs, qui lui

donnent du sens. Par exemple, l’ « assiduité », nous dit le Petit Robert, c’est « la présence

régulière en un lieu où on doit s’acquitter de ses obligations ». Par conséquent, ce sont les

absences, en référence aux obligations « dont on doit s’acquitter », qui définissent, dans les

faits, l’assiduité. Le critère oriente, certes, le choix des indicateurs et des indices

(informations retenues), mais il n’est pas une norme sociale : c’est « l’obligation de

présence » qui est la « valeur sociale ». Les critères ne sont donc pas à rechercher dans

l’analyse des idéaux sociaux, mais dans les modèles prescriptifs des acteurs, les principes qui

guident leurs actions. Avec cette réserve, la conception de C. Hadji apporte cependant une

nouvelle dimension à cette recherche : l’indicateur nous permet d’attester de la réalité d’un

phénomène, le critère justifie le choix de cet indicateur pour inférer le jugement de valeur sur

l’objet. Par conséquent, l’indicateur est de l’ordre du jugement d’existence, le critère du

jugement d’appréciation.

J. Ardoino et G. Berger apportent aussi des éléments de réflexion sur cette articulation

entre le critère et l’indicateur. Mais il est important de rappeler que leurs travaux ont eu à

s’inscrire dans les évaluations de certains dispositifs universitaires. Face à cette problématique

complexe (la production universitaire n’a rien à voir avec la production industrielle), ils ont

approfondi leur analyse de l’évaluation, qu’ils différencient du contrôle :

« Le contrôle est, tout à la fois, un système, un dispositif et une méthodologie, constitués par un ensemble de procédures, ayant pour objet (et visée) d’établir la conformité (ou la non-conformité), si ce n’est l’identité, entre une norme, un gabarit, un modèle, et les phénomènes ou les objets que l’on y compare, ou à défaut de l’établissement de cette conformité ou de cette identité, la mesure des écarts... Le contrôle devient pratiquement normatif par rapport au phénomène ou à l’action à laquelle il s’applique. Cette normativité est, tout à la fois, logique (identité, conformité, comptabilité, cohérence) et morale » (1989 : 12 et 13). « De façon toute différente, l’évaluation nous semble se spécifier, en accord avec son étymologie, par l’interrogation sur les valeurs qu’elle suppose toujours. Il ne s’agit pas, bien entendu, de « valeurs », au sens économique du terme, finalement réductibles et, par conséquent, homogénéisables, en fonction d’un étalon monétaire...Evaluer quelque chose ou quelqu’un, c’est élaborer et proposer, à son propos, une appréciation ou une estimation. C’est alors un processus (...) plus soucieux du sens et des significations, propres, particulières, que de la cohérence, de la comptabilité ou de la cohérence à des modèles donnés » (Idem : 15, 16).

Page 322: UN REFERENTIEL, POUR QUOI FAIRE

322

Ces auteurs ne condamnent pas le contrôle au profit de l’évaluation, bien au contraire, ils

recherchent la complémentarité de ces deux « fonctions critiques » :

« Dans le cadre de la problématique que nous venons d’esquisser, l’évaluation et le contrôle apparaissent comme deux fonctions critiques, très intriquées, pratiquement indissociables... L’examen critique voulant apprécier ou estimer les rapports de conformité-identité d’un objet à des modèles, à des normes (...) et la critique du sens se faisant, en cours d’élaboration, à travers le jeu interhumain des échanges de significations, sont bien, l’une comme l’autre, indispensables à l’intelligence de l’action » (Idem : 19).

L’essentiel, soulignent les auteurs, est de les distinguer, afin d’éviter que « l’évaluation ne

signifie guère autre chose qu’un contrôle déguisé » et que le contrôle ne soit perturbé par une

« surdétermination non repérée et encore moins élucidée ». Ils proposent ainsi une analyse des

procédures de contrôle pour élucider leur signification, pour découvrir les paradigmes qui

justifient la mise en œuvre de ces procédures. Dans ce contexte, l’indicateur apparaît un des

éléments des procédures de contrôle : une forme opérationnalisée de la mesure. Le critère est

alors le concept qui donne du sens au choix de ces indicateurs, et qui justifie leur emploi en

vertu des « visions du monde » ou « paradigmes scientifiques », sur lesquels est fondée

l’évaluation.

« Critère :

Etalon (aux multiples sens de reproducteur, de mesure, de référent et de garant) de valeur, fondant le jugement et, éventuellement, la décision. Le critère est nécessairement disjonctif, fonctionnant dans le cadre d’une pensée binaire, « digitale », en introduisant une discontinuité dans un continuum supposé. Sa fonction principale est de discriminer. Y a-t-il, dès lors, des critères du qualitatif ? Le critère est censé (plus que sensé) être, ainsi, devenu indépendant à l’égard de l’évaluateur comme de la chose évaluée. En fait, c’est un interface entre, d’une part, les visions du monde et les paradigmes, qui en sont les traductions scientifiquement acceptables, et d’autre part, les indices et les indicateurs plus opératoires. Dans ces conditions, le critère opérationnalise la possibilité d’un jugement. Mais, dans la pratique, un critère n’est jamais seul en jeu. L’élément problématique est réintroduit par l’interrogation sur le choix des critères, en fonction des visées.

Indicateur :

Faisceau de traces et d’indices, liés et systématisés entre eux, idéalement paramétrables, destinés à permettre de suivre, de façon au moins discontinue, l’évolution d’un phénomène, d’un processus ou d’une situation donnés. L’indicateur renvoie toujours, au moins implicitement, à des critères.

Indice :

Trace retenue à des fins d’examens critiques, donc déjà construite et relativement objectivable. Tandis que la trace est ouverte, riche de sens possibles, et donc, mystérieuse, en quête d’interprétation, l’indice tend vers la monosémie, mais n’acquiert sa consistance et sa fiabilité, tout comme le témoignage, que par la corroboration (établissement de la convergence des indices entre eux). On ne peut

Page 323: UN REFERENTIEL, POUR QUOI FAIRE

323

jamais travailler sur un seul indice, il faut nécessairement en ajouter d’autres » (Idem : 215 et 218).

Les indices sont les « traces retenues », les indicateurs la systématisation de ceux-ci afin

d’obtenir des paramètres qui nous informent. Les critères constituent alors « une interface »

entre « d’une part les visions du monde et paradigmes », « d’autre part, les indices et

indicateurs plus opératoires ». Ainsi « le critère opérationnalise la possibilité d’un jugement ».

Le concept d’« indice », proposé ici, est plus proche de sa signification psychologique103 ou

linguistique104 que de sa signification économique105. L’indicateur proposé par J. Ardoino et

G. Berger est donc, à la fois, un indice au sens économique (systématisation paramétrée des

informations) et un indicateur (signification de certaines valeurs en fonction de l’objectif de

l’outil). Quant au critère, il est « un étalon de valeur ». Il reste cependant difficile, à partir de

cette proposition, de concevoir le rôle de cet étalon, ainsi que les relations entre ces derniers et

les paradigmes scientifiques.

4-2) Synthèse des propositions :

Il semble maintenant possible d’esquisser une synthèse de ces définitions :

- le critère est une dimension et il met en œuvre des processus de référence ;

- le critère est orienté, en lien avec un objectif, et il sert au recueil de l’information ;

- le critère est lié à l’acte d’évaluation, à l’identification des objectifs et à la constitution des

moyens d’évaluation ; l’indicateur est de l’ordre des matériaux du procès : outil de saisie

de la réalité observable ;

- le critère est une opération du jugement d’appréciation ; l’indicateur une opération du

jugement d’existence ;

103 « L’indice sert à révéler un objet ou une situation. Il est fourni par une perception naturelle liée à l’expérience de cet objet ou de cette situation » (H. Pieron - 1968 - Vocabulaire de la psychologie - Ed. PUF). « Un indice est un élément perceptif naturellement lié à une situation » (N. Sillamy - 1964 - Dictionnaire de psychologie - Ed. Larousse). 104 « Sémiologie : L’une des variétés de signes selon Pierce; il s’agit d’un fait qui, dans l’expérience commune, implique ou annonce naturellement un autre fait » (G. Mounin - Dictionnaire de la linguistique - Ed. PUF). 105 Dans cette dernière acception, « l’indice est une quantité mesurant de façon synthétique l’évolution d’une grandeur, ou d’un ensemble de grandeurs dans le temps ou dans l’espace » (Y Bernard, J. C. Colli, D. Lewandowski (1975) Dictionnaire économique et financier. Paris : Seuil). « L’indice est un chiffre exprimant, pour une réalité économique, par rapport à une valeur prise comme base, le niveau atteint par cette même réalité, à un autre moment » (C. Alquier (1984). Dictionnaire encyclopédique Economique et social - Ed. Economica). L’indicateur est alors une valeur significative ou fonctionnelle de cet indice. « L’indice a un intérêt comme indicateur contractuel des hausses de prix de détail » (Y. Bernard et coll. - ouvrage cité).

Page 324: UN REFERENTIEL, POUR QUOI FAIRE

324

- le critère est un processus de signification, interface entre les visions du monde-

paradigmes et l’opérationnalisation du jugement ; l’indicateur est une procédure de

contrôle : faisceau d’indices systématisés, paramétrables.

Le tableau ci-dessous résume les trois dernières propositions :

Définitions Critère Indicateur Relations critères / indicateurs

J.M. Barbier L’évaluation de la formation (1985)

De l’ordre du référent : « moyen de travail » Processus lié à l’acte d’évaluation, à l’identification des objectifs et à la constitution des moyens d’évaluation

De l’ordre du référé : « matériau du procès » Outil de saisie de la réalité observable

La quantification suppose deux conditions : - un indicateur sensible et mobile - un système de grandeurs, de règles de correspondance (critère)

Hadji L’évaluation, règles du jeu (1989)

Opération du jugement d’appréciation : forme du référent ou de la grille de lecture

Opération du jugement d’existence : forme du référé, de l’observation, du signe

L’indicateur permet d’appréhender la réalité concrète, le critère de lui donner du sens par rapport au projet de l’évaluateur / l’intentionnalité de l’évaluation

Ardoino et Berger L’évaluation en miettes (1989)

Processus de signification qui fait partie de l’évaluation Interface entre les visions du monde / paradigmes et opérationnalisation du jugement

Procédure qui fait partie du contrôle Faisceau d’indices systématisés, idéalement paramétrables

Justification du choix des indicateurs par les paradigmes scientifiques et visions du monde (fonction des critères)

Il semble que l’on puisse résumer ces définitions, afin de toutes les satisfaire :

- l’indicateur est une procédure opératoire qui synthétise les observations pertinentes ;

- le critère est le processus qui donne de la signification à ces indicateurs : il est en rapport

avec l’objectif / l’objet à évaluer, il est dimensionné, il s’inscrit dans certains principes qui

guident l’évaluation.

Ainsi les critères sont des processus de signification partagée par des acteurs pour donner du

sens aux procédures opératoires qu’ils utilisent lors des évaluations : « Pourquoi on fait ça

comme ça ? » Ces deux processus fondent le jugement et la prise de décision, mais ils sont

tout de même assez différents dans leur conception. Ils semblent complémentaires :

l’indicateur instrumentalise la mesure, le critère justifie les choix méthodologiques en

référence au système de valeurs qui est à l’origine de l’opération.

Maintenant, la question est de savoir s’il est possible de les observer et comment les

identifier dans le « dire » ou le « faire » des acteurs ?

4-3) La spécificité des concepts de critère et d’indicateur et leur observation :

Page 325: UN REFERENTIEL, POUR QUOI FAIRE

325

Une recherche sur les critères et les indicateurs se heurte au moins à deux difficultés :

- Quelle est la différence entre critère et indicateur, dans leurs modes respectifs de

réification et, de ce fait, quelles sont les observations possibles ?

- Est-il possible d’aboutir à des définitions suffisamment opératoires pour construire une

observation systématique ?

On a présenté ci-dessus une revue de la littérature qui répond à la première question. Mais ces

définitions ne suffisent pas pour mettre en œuvre une observation systématique.

Effectivement, une recherche sur les processus d’évaluation pourrait partir d’une observation

systématique des indicateurs, mais une telle typologie des « outils de saisie », si on parvient à

la révéler, se heurterait au problème de l’interprétation. Comment le chercheur appréciera-t-il

les différences entre les indicateurs sans projeter ses propres schémas de référence ? Par

conséquent, une étude des outils de l’évaluation, sans celle des critères des acteurs qui les

utilisent, risque de nous conduire dans de nombreux biais. Mais, réciproquement, comment

étudier les critères indépendamment des indicateurs ? Quels sont les éléments observables ?

En quoi se différencient-ils des indicateurs ?

Si le critère est un objet de recherche, il a besoin d’acquérir un statut descriptif, traduit

par une modélisation de type cognitif. Mais il est aussi, en tant que catégorie, un concept à

vocation méthodologique, un guide pour la recherche (J.M. De Ketele et X. Rogiers ; 1997) et

il assure dans ce cas une fonction prescriptive pour le chercheur. Cette situation induit alors

un vice tautologique : les écrits se multiplient sur ce qu’est le critère et comment l’utiliser,

mais il existe peu de travaux sur les contraintes effectives de l’acteur de terrain et les

processus qu’il met en jeu pour s’adapter aux situations (à l’exception de ceux de J.J. Bonniol

et de J.M. Barbier, cités précédemment). Et les propositions de définition des chercheurs ne

sont que l’expression de cette façon de poser le problème, par exemple celle de C. Hadji et

celle de J.M. De Ketele. On s’enferme dans des concepts sans référence opérationnelle.

Comment observer un idéal ? On pourrait comparer l’observation des indicateurs et les

critères des examinateurs : objectifs différents, systèmes de référence différents, méthodes

différentes, etc. Mais cette construction de la recherche, fréquente en sciences sociales, pose

ici de nombreuses questions au moment de l’interprétation :

- Les différences au niveau des indicateurs sont-elles induites par une différence des

objectifs, des systèmes de référence, ou par une différence des objets à évaluer, des

situations d’observation, des contraintes d’organisation ?

Page 326: UN REFERENTIEL, POUR QUOI FAIRE

326

- Rien ne prouve, par ailleurs, que l’utilisation du même outil signifie des méthodes

identiques pour traiter l’information, des systèmes de référence communs ou des objectifs

similaires. Le même outil peut être exploité très diversement pour la collecte des

informations, l’interprétation des résultats, leur réintégration dans la démarche globale,

etc. Il n’a pas la même fonction en évaluation formative ou certificative, etc.

Le critère ne deviendra donc objet de recherche qu’à partir du moment où ses formes

et structures seront observables, et où ces éléments pourront être mise en corrélation avec les

formes d’apparition des indicateurs, ou avec d’autres facteurs sociologiques ou

psychologiques. Sans reprendre ici toutes les considérations d’une recherche antérieure (C.

Bélisson, 1999), on peut faire remarquer qu’il existe plusieurs pistes pour sortir de ces cercles

vicieux. Sans entrer dans une discussion philosophique sur la fonction heuristique des

tautologies (cf. A Lalande ; 1926/1972 : 1103, 1104), on en citera trois :

- la recherche sur la formation historique du concept (sa genèse) : le concept a acquis du

sens au fur et à mesure de son utilisation à travers les époques ; en interrogeant ces

différentes significations, on découvre un premier type de fonctions remplies par lui ;

- la discussion sur son utilisation fonctionnelle : pour s’adapter à la méthode d’observation,

le concept acquiert des caractéristiques spécifiques à son exploitation : il est, par exemple,

intéressant d’étudier l’appropriation de ces concepts par l’analyse de contenu ;

- le développement récursif : à partir du moment où un concept a acquis une signification

pour exprimer les caractères et les fonctions d’un objet en rapport avec nos systèmes de

pensée, il est possible de le transformer en catégorie pour appréhender et penser d’autres

objets ou concepts : en d’autres termes, quel est l’ « Indicateur des indicateurs », ou le

« Critère des critères » ?

Ces trois approches procurent des dimensions référentielles au concept : les définitions, qui en

sont le produit, s’inscrivent dans un rapport de référence avec des pratiques méthodologiques.

On construit ainsi des significations adaptées aux applications qui en seront faites.

a) La genèse du critère et de l’indicateur :

En raison de son origine philosophique, le critère est un concept relativement précis,

d’autant que son utilisation fut assez réduite. Il a été créé pour les usages philosophiques,

d’abord chez les stoïciens, puis repris par R. Descartes. A. Lalande, dans son « Vocabulaire

technique et critique de la philosophie » (1926 / 1972) nous en propose deux définitions

Page 327: UN REFERENTIEL, POUR QUOI FAIRE

327

« A - Signe apparent qui permet de reconnaître une chose ou une notion. B - Caractère ou propriété d’un objet (personne ou chose) d’après lequel on porte sur lui un jugement d’appréciation. En particulier on appelle critérium de la vérité un signe extrinsèque ou intrinsèque permettant de reconnaître la vérité et de la distinguer surement de l’erreur (stoïciens, Descartes) » (A. Lalande ; 1926 / 1972 : 196).

La définition A parait bien insuffisante pour caractériser le critère, du moins ce qui fait sa

spécificité et son intérêt, dans la mesure où bien d’autres concepts correspondent aussi à celle-

ci, en particulier ceux de « propriété » et de « caractère »106. La définition B apporte donc une

dimension supplémentaire, le fait de servir à l’appréciation de l’objet :

« L’appréciation est une opération de l’esprit concernant non l’existence d’une idée ou d’une chose, mais leur valeur, c'est-à-dire le degré de perfection relativement à une fin donnée (notamment la vérité, la beauté, la morale, l’utilité). Appréciation s’oppose à description et explication, comme le droit au fait, ce qui devrait être à ce qui a été réalisé » (Idem : 71).

Le critère s’inscrit donc dans un processus d’appréciation, par opposition à la connaissance ou

à la conception. Il appartient, de ce fait, à l’évaluation et non à l’expérimentation / observation

ou à la conceptualisation / théorisation. Quand un chercheur utilise la notion de critère (par

exemple, la validité ou la pertinence), il le fait pour justifier ou contester une recherche, pour

évaluer le choix des méthodes ou apprécier l’intérêt du travail. Le critère est une propriété ou

un caractère, certes, mais choisi pour justifier un jugement de valeur. On peut donc être un

peu surpris que les acceptions du critère soient si diversifiées et que la notion soit « plus ou

moins claire », pour reprendre l’expression de R. Abrecht :

« Tantôt il apparaît comme une norme (Nunziati, 1984), tantôt il se rapproche du point de vue de l’apprentissage, tantôt il est assimilable à une information de guidage » (R. Abrecht ; 1991).

Mais cette confusion n’est pas propre au « critère ». Tout concept, tant qu’il n’est pas passé au

crible de l’analyse méthodique d’une discipline scientifique, est ouvert aux multiples

acceptions qui découlent des représentations des acteurs : plus l’utilisation d’un concept est

généralisée, plus les définitions se multiplient. On peut remarquer, à ce titre, que le critère a

subi les mêmes dérives que d’autres concepts philosophiques qui lui sont proches, par

exemple la « catégorie » :

« Comme divers autres termes philosophiques primitivement techniques, catégorie est entré dans la langue courante, où il est souvent employé, à rebours de sons sens scolastique, pour désigner les différentes espèces d’un même genre... Cet usage se rattache peut-être au sens d’attribut, mais plus probablement au fait que le système des catégories fournissait un exemple

106 Les définitions de ces notions par A. Lalande illustrent cette proximité sémantique entre le sens A du « critère » et le sens A du « caractère » : « signe distinctif servant à reconnaître un objet » (1926 : 121) ou de la « propriété » : « caractère qui appartient à tous les être d’une espèce » (1926 : 845 et 846).

Page 328: UN REFERENTIEL, POUR QUOI FAIRE

328

caractéristique de divisions préétablies... Mais cet usage n’est pas correct dans le langage philosophique » (C. Hémon, Ch. Serrus, A. Lalande dans A. Lalande ; 1926 : 125).

Le fait qu’un concept soit employé de plus en plus couramment conduit à une signification

qui fait référence aux pratiques des acteurs et aux contextes dans lesquels ils est utilisé. Le

critère, à l’origine, faisait référence à des principes philosophiques, il est signifié aujourd’hui

par les pratiques induites par ces principes.

A l’inverse du « critère » ou de la « catégorie » qui ont subi des dérivations au cours

de leurs emplois successifs, le concept d’ « indicateur » semble s’être propagé par analogie et

adaptation connotative aux différents contextes disciplinaires. Au Moyen-âge, l’indicateur est

celui qui fournit des indications sur une personne, qui dénonce un coupable, sens toujours en

usage de nos jours. Puis, avec les progrès de l’imprimerie, l’indicateur devient au XVIIIème

siècle un livre ou une brochure qui donne des indications. Ce n’est qu’au XIXème siècle qu’il

acquiert le sens qui nous intéresse ici, à savoir celui d’un instrument servant à fournir des

indications. Bien entendu, les formes de ces indicateurs ont varié en fonction de son

exploitation disciplinaire : « en chimie, substance qui change de couleur en présence d’un

corps chimique déterminé, permettant ainsi de l’identifier » ; « en économie, variable dont

certaines valeurs sont indicatives d’un état, d’un phénomène » (Petit Robert ; 1979 : 988).

Les notions de critère et d’indicateur ont été rarement employées simultanément. La

philosophie ne connaît que le critère, repris par la psychologie. Dans ces domaines, le concept

d’indicateur est inexistant. S’il est cité dans un dictionnaire de psychologie, ce n’est qu’en

termes d’« indicateurs sociaux » (Vocabulaire de la psychologie et de la psychiatrie de

l’enfant - Robert Lafon : 1963). En revanche, l’indicateur est une notion utilisée en sciences

sociales, en particulier dans le domaine des sciences économiques. Mais on le retrouve aussi

dans de nombreuses disciplines scientifiques ou applications techniques : chimie, géochimie,

botanique, écologie, électro-technologie, génie nucléaire, mécanique industrielle, automobile,

aéronautique107, etc. On a pu constater, à ce jour, l’emploi systématique et simultané de ces

deux notions qu’au sein des sciences de l’éducation. On la retrouve aussi en analyse de

contenu. Et celle-ci est récente. On peut donc penser que la proximité sémantique de ces deux

concepts s’est souvent traduite par une utilisation exclusive de l’un ou de l’autre.

Quelles sont les raisons de la cohabitation, dans le domaine des sciences de l’éducation,

de ces deux concepts qui ont fait l’objet d’une littérature importante, alors que cette double

107 Une étude encyclopédique a été commencée par un chercheur du GREIF à qui on a emprunté une partie des données - M. C. Ronger (1993) - Les indicateurs de l’évaluation des dispositifs de formation : origine et utilisation - Document interne au GREIF - Département des sciences de l’éducation - Université Pierre Mendes France - Grenoble II -.

Page 329: UN REFERENTIEL, POUR QUOI FAIRE

329

articulation, pour reprendre l’expression de C. Hadji, préoccupe peu les autres disciplines ? La

méthode des variations de la phénoménologie constitue une heuristique intéressante, pour

formuler certaines hypothèses sur leur fonction respective dans les processus d’évaluation :

elle consiste à rechercher, dans l’imaginaire, ce qu’il convient de supprimer pour que la

condition de la double articulation ne soit plus remplie, ou du moins n’ait plus de sens.

- Sans décision d’orientation à prendre (opérations, moyens, accréditations...), l’indicateur

ne se justifierait pas et le critère suffirait : il y aurait certes des discussions sur les

principes éducatifs, les choix pédagogiques et les critères des acteurs. Le critère aurait ici

son acception philosophique, mais il n’aurait pas matière à s’articuler avec des

indicateurs.

- Sans système de valeurs, c’est le critère qui devient superflue : le pilote d’avion ou le

conducteur de train ne s’interrogent pas sur les raisons philosophiques de leurs actions (à

l’inverse de l’éducateur), et le critère est inexistant dans leurs raisonnements en situation

professionnelle. Les indicateurs induisent immédiatement les réactions adaptées.

Dès lors, on peut faire l’hypothèse que la coexistence de ces deux concepts, dans le milieu de

l’éducation, résulte d’une double contrainte, qui pèse sur les acteurs du fait :

- de leur mission éducative, de leur rôle social en tant que représentant de la société ;

- mais aussi d’une demande sociale de résultats, de productions de savoir... etc.

On précise ainsi la différenciation entre le Référent (avec la fonction du Référentiel

politique) et du Référé (avec la fonction du Référentiel outil).

b) Définitions du « critère » et de l’indicateur pour l’analyse des discours :

Dans la mesure où les techniques d’analyse des discours seront sollicitées pour identifier

ces objets à travers la parole des acteurs, il a paru intéressant de souligner les caractéristiques

spécifiques des définitions adoptées dans ce domaine par rapport à celles qui ont déjà été

posées. L’ouvrage de L. Bardin sur l’analyse de contenu (1977) est riche en discussion sur ces

concepts.

L’indicateur pour l’analyse de contenu :

« On désigne généralement sous le terme d’analyse de contenu : un ensemble de techniques d’analyse des communications visant, par des procédures systématiques et objectives de description du contenu des messages, à obtenir des indicateurs (quantitatifs ou non) permettant l’inférence de connaissances relatives aux conditions de production/réception (variables inférées) de ces messages » (1977 : 47).

Page 330: UN REFERENTIEL, POUR QUOI FAIRE

330

Ainsi l’objectif de « l’analyse de contenu est la manipulation de messages (contenu et expression de ce contenu) pour mettre à jour des indicateurs permettant d’inférer sur une réalité autre que celle du message » (Idem : 51).

La fonction de l’indicateur est donc, de par sa nature systématique et objective, d’inférer une

connaissance. Nous allons préciser cette fonction de deux façons : en analysant le mode

d’élaboration des indicateurs, à partir des indices et en précisant le concept d’inférence.

« Si l’on considère les textes comme une manifestation portant des indices que l’analyse va faire parler, le travail préparatoire sera le choix de ceux-ci - en fonction des hypothèses si elles sont déterminées - et leur organisation systématique en indicateurs. Par exemple, l’indice peut être la mention explicite d’un thème dans un message. Si l’on part du principe que ce thème a d’autant plus d’importance pour le locuteur qu’il est répété plus souvent (cas de l’analyse thématique quantitative), l’indicateur correspondant sera la fréquence de ce thème, de manière absolue ou relative par rapport à d’autres... Les indices choisis, on procède à la construction d’indicateurs précis et fiables. Des opérations de découpage du texte en unités comparables, de catégorisation pour l’analyse thématique, de modalité de codage pour l’enregistrement des données sont à déterminer dès la pré-analyse » (Idem : 130 et 131).

Les « indices » seront des « unités de signification », des unités significatives parmi les

« unités d’enregistrement » : mots, objets, personnages, événements, etc. L’indice est donc

l’information à recueillir, l’indicateur est l’organisateur systématique des indices : la

fréquence (idem : 140), la présence (ou absence) (idem : 140), le degré d’intensité (idem :

142), le pôle directionnel (idem : 143), l’ordre d’apparition (idem : 144), la cooccurrence,

l’association, l’équivalence, l’exclusion (...) (idem : 145), etc. L’indicateur est donc lié au

choix de la méthode de recueil des informations. Un indicateur permet donc de conclure à la

validité d’une proposition. Il est une « variable d’inférence » (idem : 173).

L’inférence est une « opération logique, par laquelle on admet une proposition en

vertu de sa liaison avec d’autres propositions déjà tenues pour vraies. Inférer (c’est) tirer une

conséquence » (Idem : 43). Mais pour inférer une conclusion à partir de cet indicateur, il est

nécessaire que le résultat fourni par cette « variable » ait un sens par rapport à l’hypothèse à

valider. L’indicateur a un sens à partir d’un « principe » ou d’un « postulat » qui justifie son

emploi pour valider l’hypothèse.

Par exemple, « l’usage de l’association comme indicateur repose généralement sur le postulat que des éléments associés dans une manifestation langagière sont (ou seront) aussi associés dans l’esprit du locuteur (ou du destinataire) » (Idem : 145).

L’inférence n’est possible qu’à partir d’un corps de connaissances préexistant. Quelles sont

les grandes lignes pour construire les relations logiques entre ce corps de connaissances et

l’inférence ? C’est à ce niveau qu’intervient le critère.

Le critère pour l’analyse de contenu :

Page 331: UN REFERENTIEL, POUR QUOI FAIRE

331

L. Bardin cite souvent le concept de critère, mais elle aborde peu sa fonction dans le

processus d’inférence, si ce n’est à partir d’exemples. Aussi a-t-on choisi, pour comprendre le

sens accordé à ce concept, d’analyser l’emploi de celui-ci par l’auteur, à partir de ses propres

références méthodologiques, c'est-à-dire selon la méthode d’analyse des cooccurrences

proposée par Osgood (idem : 270) : on réduit ainsi les ambivalences de l’interprétation.

Après avoir sélectionné le mot « critère » dans le texte, on a analysé les concepts

associés et la forme de ses attributs. L’unité d’enregistrement est le mot, l’unité de contexte la

phrase et la phrase suivante quand celle-ci est un argument justifiant l’association du critère et

de son attribut. On trouve alors, pour qualifier le critère, diverses formes syntaxiques, qui

s’inscrivent dans une relation de cooccurrence (apparition simultanée dans la phrase), et de ce

fait d’association, avec le terme de critère.

Ces relations prennent la forme de compléments de noms, sous deux formats :

- dérivés d’un verbe (choix, détermination, catégorisation, distinction, délimitation,

regroupement, différenciation, répartition). C’est le cas le plus fréquent d’association. Le

critère fait ici référence à une opération méthodique sur des données. L’auteur évoque

aussi « certains critères relatifs à la théorie qui guident la lecture ». Les critères orientent

donc l’action.

- substantifs nominaux (fonction, valeur marchande, objet de référence, intimité, ordre,

quotidien). Dans ce cas, le critère s’inscrit souvent dans un sous-chapitre de la catégorie

précédente : critères de « classification » (idem : 66) ou critère de « répartition » (idem :

41). Pour orienter l’action méthodique, le critère est complété par un concept qui signifie

un objet sur lequel porte l’action. La phrase où figure le mot « critère » est toujours suivie

d’une phrase d’argumentation, qui expose le postulat méthodologique sur lequel repose ce

critère, ou bien l’inférence attendue de l’opération (objet de référence => image socio-

affective ; valeur marchande et fonction => appartenance socioculturelle ; intimité =>

hiérarchie ; ordre => différence ; quotidien => normes des pratiques, etc.) Le critère

formalise donc le postulat et légitime l’inférence : La présence de l’objet justifie celle-ci.

Enfin on trouve aussi des adjectifs (sémantique, linguistique, esthétique, lexical, syntaxique,

expressif...) qui précisent la caractéristique du critère : il est toujours fait référence à une

discipline, la plupart du temps scientifique, mais parfois aussi à une expérience pratique

(esthétique). Le critère est donc toujours construit en référence à une référence disciplinaire

ou empirique.

Page 332: UN REFERENTIEL, POUR QUOI FAIRE

332

Tableau synthétique de l’analyse :

(a) complément de nom : dérivé d’un verbe

(b) complément de nom : nom commun ou groupe nominal

(c) adjectif

Tout dépend du choix des critères de répartition, de ce que l’on cherche ou de ce que l’on espère trouver (p. 41).

Une répartition, puis un décompte fréquentiel (...) peuvent se faire selon le critère de la valeur marchande de chaque objet. Ou bien, on peut faire le classement suivant le critère de la fonction de chaque objet. Cela dans le but d’en déduire certaines données concernant, par exemple, l’appartenance socioculturelle des dames observées. (p. 41).

Comment classer et selon quels critères? Critères de ventilation Critères de classification

Il est possible de ventiler les réponses A selon le critère de l’objet de référence cité (...) et d’inférer, à partir des résultats, certaines connaissances à propos de l’image socio-affective... Il est possible d’effectuer la classification des réponses selon le type de relations psychologiques entretenu à l’égard de l’objet voiture (...) Comme si était projeté sur la voiture par le sujet un mode de relation interpersonnel (...) Mais on pourrait aussi ventiler ces réponses selon le type d’interlocuteur en jeu (...) En effet, en se mettant à la place de la voiture, l’enquêté effectue une sorte de déplacement.

On pourrait ainsi multiplier les dénombrements thématiques en classant et ventilant les significations du discours dans des catégories dont les critères de choix et de délimitation seraient orientés par la dynamique d’analyse, elle même déterminée par l’objectif poursuivi (p. 81).

L’entretien est découpé en séquences. Des critères sémantiques (organisation de la séquence autour

Page 333: UN REFERENTIEL, POUR QUOI FAIRE

333

d’un thème dominant) mais aussi stylistique (ruptures de rythme, organisateurs grammaticaux) sont à la base de ce découpage (…)

Une certaine ambiguïté règne quant aux critères de distinction des unités d’enregistrement (…)

En effet, certains découpages se font à un niveau sémantique (...) d’autres à un niveau linguistique (p. 135).

En fait, le thème de l’unité de signification qui se dégage naturellement d’un texte analysé selon certains critères relatifs à la théorie qui guide la lecture (p. 136).

Deux critères président à la détermination de la taille de l’unité de contexte : le coût et la pertinence. Il est évident qu’une unité de contexte large exige (...) (p. 139)

Je n’utilise pas le même critère de choix possible si je m’interroge sur mon envie de violon, d’orgue ou de piano (...) D’autre part, le critère que j’emploie est plus ou moins adapté à la réalité qui s’offre à moi. Il est possible que mes deux désirs convergent et précisent mon choix (p.151). C’est la partie commune entre eux qui permet leur regroupement. Mais il est possible que d’autres critères insistent sur d’autres aspects d’analogies, modifient peut être considérablement la répartition antérieure (p. 151).

Les pôles directionnels peuvent être de nature diverse : beau/laid (critère esthétique)

La catégorisation est une opération de classification d’éléments constitutifs d’un ensemble par différenciation puis regroupement par genre (analogie) d’après des critères préalablement définis (...) Le critère de catégorisation peut être (…)

(…) sémantique (...) syntaxique (...) lexicaux (...) expressifs (p. 151).

Deux critères sont croisés : trouver en 30 secondes 10 villes (…)

… commençant par une lettre de l’alphabet et comptant 50000 à 100000 habitants (p. 152).

On obtient ainsi une définition du concept de « critère », adaptée à l’analyse de

contenu, dans la mesure où elle est signifiée par des structures observables dans le discours

des acteurs :

Page 334: UN REFERENTIEL, POUR QUOI FAIRE

334

(a) le critère est une opération logique, une action méthodique sur des données ;

(b) il est, en général, qualifié par un concept, dont l’existence justifie l’inférence ;

(c) il est fondé sur un ensemble de connaissances empruntées à une discipline scientifique ou

une expérience pratique, qui déterminent la méthode et légitiment l’inférence.

c) L’« indicateur des indicateurs » :

Le terme d’indicateur a donc été repris par diverses disciplines scientifiques ou divers

domaines techniques. Il semble donc intéressant de comparer les diverses définitions pour

identifier les structures communes à celles-ci. On a donc collecté toutes les propositions de

l’encyclopédie Larousse (Grand Larousse universel ; 1989 : 5543 et 5544). Dans la mesure

où la définition est de l’ordre du discours, c’est vers la linguistique qu’on s’est orienté pour

trouver notre « catégorie d’indicateur », c'est-à-dire un « indicateur » pour analyser la

structure des autres définitions de l’indicateur. Il existe trois types d’indicateur dans cette

discipline (G. Mounin ; 1974), on aura l’occasion de revenir sur chacune d’entre elles dans la

partie méthodologique. La proposition qui nous intéresse ici, c’est celle de N. Chomsky,

adaptée à l’analyse des propositions / définitions.

« Dans la linguistique Chomskyenne, on appelle indicateur syntagmatique (angl. phrase marker) à la fois la description structurale d’une phrase, telle qu’elle est conçue dans l’analyse en constituants immédiats, et la représentation graphique sous forme d’arbre de cette description » (G. Mounin : 1974).

L’indicateur syntagmatique décompose la phrase en constituants grammaticaux, qui ont

chacun leur propre fonction dans celle-ci (déterminant, nom, verbe, compléments, etc.). C’est

cette organisation structurelle qui donne du sens à chacune des fonctions, dimension

syntaxique de la signification sur laquelle on aura l’occasion de revenir dans la partie

méthodologique. Chaque définition est ainsi passée au crible de son analyse syntaxique et on

parvient à en dégager une structure générale. On retrouve donc, dans cette démarche, à la fois

la dimension récursive : la connaissance de l’objet linguistique permet de le transformer en

catégorie pour analyser les autres définitions ; et à la fois la dimension fonctionnelle utilisée

au sous-paragraphe précédent sur le critère : l’indicateur syntagmatique est un des indicateurs

pour l’analyse des contenus.

Page 335: UN REFERENTIEL, POUR QUOI FAIRE

335

Les deux premiers définitions évoquées ci-dessus (page 327) existent aussi pour

l’encyclopédie Larousse (indicateur de police, brochure contenant des renseignements) : elles

ne nous intéressent guère, au-delà de l’étymologie. Analysons donc les autres propositions108.

Premier groupe de définitions : Champ disciplinaire ou d’utilisation

Groupe nominal sujet

Opérateur (ou connecteur)

Modalisation verbe Objet

Aéronautique

Appareil qui qui qui

Permet Fait

la mesure de (= de mesurer) signale connaître

l’altitude l’inclinaison de son avion sa vitesse

Automobile Appareil qui permet de signaler la modification de direction

Thermo. Appareil

qui qui

Permet permet

de connaître de mesurer

le niveau de l’eau le travail du fluide

Electro-techn. Radio-techn.

Dispositif qui qui

Permet

indique de s’assurer

la fonte de l’élément fusible du réglage

Mécanique industrielle Métrologie

Manomètre Tableau gradué avec une aiguille mobile

qui qui

indique donne

le vide l’indication correspondante

Chemin de fer Signal Poteau Signal

qui qui qui

prescrit porte l’indication de indique

une limitation de vitesse l’inclinaison la direction de l’aiguillage

Deuxième groupe de définitions :

Dans ce groupe, on a conservé seulement le sujet, les opérateurs et les énoncés : on observe

que les seconds énoncés sont construits sur le même schéma que ceux du premier groupe.

Champ disciplinaire

Groupe nominal sujet

Opérateur connecteur

Enoncé 1 Opérateur connecteur

Enoncé 2

Botanique un végétal dont les exigences écologiques sont assez strictes vis à vis d’un facteur

pour que (qui)

sa présence en soit révélatrice (= révèle ce facteur par sa présence)

Géo-chimie éléments choisis soit pour

leur comportement géochimique

qui permettent la détection des anomalies

108 On n’a conservé ici que les énoncés « généraux », au détriment des énoncés « particuliers » qui listent des exemples. Les énoncés qualifiés de « généraux » correspondent aux définitions en intension, par opposition à celles en extension qui correspondent aux énoncés qualifiés de « particuliers » : « La définition comporte souvent une indication d’inclusion, ou d’inclusions successives ; pour CHEVAL : animal, mammifère équidé...; ces indications sont suivies de traits spécifiques : à crinière, utilisé comme animal de trait ou de selle... On distingue la définition en intension qui donne l’ensemble des traits définissant la classe d’objets dénotés par le mot, et la définition en extension, qui en théorie, énumère les membres de la classe, énumération réduite en fait, par nécessité, à quelques exemples » (G. Mounin ; 1974 : 98).

Page 336: UN REFERENTIEL, POUR QUOI FAIRE

336

soit pour leur facilité à être dosés

géochimiques

Chimie Substance organique

dont la couleur et la constitution changent

suivant que le milieu est plus ou moins acide ou basique

Ecologie Organisme s vivants

par

leur présence ou leur absence ou par les modifications qui les affectent

qui qui

détectent ou mesurent une pollution fournissent une bonne mesure de la qualité de leur environnement et de ses variations

Oiseaux qui doivent leur nom

à

leur habitude de se nourrir de miel, de cire, de larves, après la dévastation des nids

de

attirer l’attention sur la présence de nids d’abeilles

Troisième groupe de définitions :

Ici encore, les énoncés ont été regroupés : on retrouve aussi la structure du premier groupe de

définitions, mais en position de premier énoncé : le second énoncé a une autre fonction.

Champ disciplinaire

Groupe nominal sujet

Opérateur connecteur

Enoncé 1 Opérateur connecteur

Enoncé 2

Bourse Série de chiffres qui exprime les variations des cours

et reflète la tendance du marché

Sc. économiques et statistiques (indicateurs économiques)

Ensemble de données

(qui)

relatives à une situation économique et/ou à son évolution (= renseignent sur)

idem Ensemble de données

qui renseignent sur l’évolution économique

par rapport aux objectifs du plan

idem (indicateurs sociaux)

Ensemble de données

qui rendent compte d’une situation sociale, d’un progrès social

La structure du premier groupe de définitions est simple. L’indicateur est un

« instrument » (appareil, dispositif, tableau, signal, poteau) qui « indique » (signale, mesure,

permet de connaître, de s’assurer), le plus souvent avec une modalisation verbale qui exprime

l’intervention d’un sujet acteur implicite (permet de, fait connaître), la « présence / absence »

(élément fondu, vide...) d’un « objet » ou la valeur d’une de ses « dimensions » (vitesse,

niveau, inclinaison, altitude...).

La structure du second groupe est plus complexe : elle possède aussi un énoncé qui

exprime cette première fonction de l’indicateur, mais il s’y ajoute un second énoncé pour

préciser la propriété qui rend possible ce fonctionnement, et donc cette fonction indicatrice.

L’indicateur est alors un « organisme » (chimique ou vivant) : il « indique » (mesure, détecte,

révèle, attire l’attention), en raison (dont, par) d’une « propriété » qui interagit avec cet objet.

Page 337: UN REFERENTIEL, POUR QUOI FAIRE

337

L’articulation entre les deux énoncés caractérise cette interaction, l’existence de l’objet et de

l’indicateur, dans les deux énoncés :

- L’indicateur (sujet) « détecte / mesure » l’objet (énoncé 2).

- C’est une propriété (connexion entre le sujet et l’énoncé 1) qui induit les réactions de

l’indicateur (sujet) en présence de l’objet (connexion entre énoncé 1 et énoncé 2).

Dans les faits, c’est la propriété de l’organisme qui, par sa réaction, détecte ou mesure l’objet :

on propose donc de qualifier « d’indicateur » cette propriété et non l’organisme.

La structure du troisième groupe possède aussi deux énoncés, mais le second ne

concerne plus la propriété qui indique, mais le contexte général dans lequel se situe

l’indicateur, les objectifs qui justifient son utilisation : « Deux sortes d’avantages sont

attendus de cet effort de quantification sociale : tout d’abord, une meilleure transparence et

une perception plus fine de l’état de la société ; ensuite, un rôle d’aide à la décision dans la

formulation des choix et l’établissement des priorités de la collectivité » (1989 : 5545).

Ce troisième groupe de définitions semble le plus utilisé dans les milieux de

l’éducation. Ce sont aussi les définitions que nous proposent J. Ardoino et G. Berger (1989)

ou le Dictionnaire de l’évaluation et de la recherche en éducation.

« Les indicateurs éducationnels sont des statistiques permettant au public intéressé de connaître l’état de l’éducation à un moment donné, en ce qui concerne un certain nombre de variables choisies, de faire des comparaisons dans le temps et de faire des extrapolations. Les indicateurs sont des statistiques de séries temporelles permettant d’étudier les tendances et les changements en éducation » (G. De Landsheere ; 1979).

Mais le second groupe est particulièrement intéressant pour analyser et formaliser la structure

d’une pratique qui se généralise : « Un indicateur est un phénomène témoignant de l’existence

d’un autre ». Les pratiques d’éducation s’adressent effectivement à des « individus vivants »,

qui s’adaptent à leur environnement et à ses variations. Les réactions de ces « individus » sont

souvent cités dans les entretiens des évaluateurs : elles sont alors révélatrices des

« indicateurs » choisis par l’évaluateur.

Enfin le premier groupe est important pour situer la place de l’instrumentation dans la

construction des deux autres types d’indicateurs. Effectivement, un ensemble de données

présuppose une instrumentation pour les collecter et les organiser, et certaines réactions d’un

organisme n’ont de sens qu’en fonction des choix et du dispositif mis en œuvre pour observer

les phénomènes qui intéressent l’évaluateur. Les instruments eux mêmes n’ont d’intérêt qu’à

partir du moment où ils offrent des données indicatives (dimensions de l’objet) et où les

réactions à certains phénomènes connus en garantissent le fonctionnement. Analysons, par

exemple, l’ « indicateur de vitesse » :

Page 338: UN REFERENTIEL, POUR QUOI FAIRE

338

« appareil actionné en général par la pression ou la dépression due au courant d’air provoqué par le déplacement de l’avion, et qui fait connaître au pilote sa vitesse relative par rapport à l’air environnant ».

Cette définition, classée dans le groupe 1 en raison de son groupe sujet nominal (instrument),

est à classer dans le groupe 2 si nous considérons sa structure (Groupe nominal - dont - les

propriétés - font connaître - une dimension de l’objet : la vitesse relative de l’avion). Tous les

appareils (groupe 1) peuvent ainsi être déclinés en expliquant les propriétés de leur

fonctionnement (groupe 2) et les objectifs de leur construction (groupe 3).

Ces trois définitions de l’indicateur sont donc interdépendantes, complémentaires et

elles se précisent mutuellement. Le concept « d’indicateur » renvoie simultanément à trois

structures. On conservera donc les trois caractéristiques afin de définir l’indicateur à partir de

ces trois attributs :

- Forme de la mesure ou dimension d’un objet, indiquée par un instrument ;

- Fondée sur l’interaction d’une propriété de cet instrument avec l’objet ;

- Elaborée en fonction de l’intérêt de cette mesure / dimension pour la prise de décision.

Ces deux dernières approches, au-delà des définitions pour appréhender les objets de

recherche, ouvrent des perspectives méthodologiques pour les identifier dans le discours des

acteurs : l’étude des cooccurrences (associations) et l’analyse des structures syntaxiques. On

aura l’occasion de revenir sur celles-ci dans la partie méthodologique.

4-4) La relation entre critères et indicateurs :

Les confusions entre ces concepts, assez proches, justifient de clarifier leurs relations,

à partir des définitions collectées : l’indicateur apparait le terme qui signifie l’organisation

systématique des indices, des informations que nous collectons sur un objet d’étude ; le critère

est plutôt le terme qui signifie l’opération logique pour justifier l’inférence, à partir de

connaissances déjà validées. La mise en correspondance des caractéristiques définies dans les

deux approches analytiques précédentes nous offre déjà un premier aperçu (à vocation

heuristique) des connexions entre ces concepts.

Propriété Indicateur Critère

A Forme de la mesure ou dimension d’un objet, indiquée par un instrument

qualifié par un concept dont l’existence justifie l’inférence

B Interaction d’une propriété de l’outil opération logique, une action

Page 339: UN REFERENTIEL, POUR QUOI FAIRE

339

avec l’objet méthodique sur des données C Intérêt de cette mesure / dimension

pour la prise de décision ensemble de connaissances (discipline scientifique ou une expérience pratique) qui légitiment l’inférence

C’est le concept, à l’origine de l’inférence, qui réifie le critère. L’indicateur a alors

pour fonction de montrer l’existence de l’objet signifié par le concept, ou d’une modalité de

celui-ci, à partir d’une instrumentation (A).

On cherche « l’intensité de chaleur » pour justifier l’achat d’un appareil de chauffage.

Le rapport consommation d’énergie / degré de chaleur (indicateur) fournit une

modalité de la chaleur produite (objet), qui permet de juger de l’intensité (critère).

Le critère oriente ainsi la collecte des informations vers le type de données nécessaires pour

appliquer les opérations logiques. L’indicateur organise ces informations sous forme de

modalités, selon la méthode postulée par le critère, mais aussi en fonction des caractères de

l’objet (à observer) et des propriétés de l’outil (d’observation) (B).

Dans le cas précédent, si on mesure l’intensité par le rapport entre la chaleur

produite et la consommation d’énergie, il est indispensable d’avoir des instruments

pour mesurer l’un et l’autre.

Les indicateurs fournissent ainsi un ensemble d’informations sur l’objet, le critère nous en

communique sur le concept sous forme de connaissances de l’objet, et de relations au système

de valeurs, pour permettre de formuler une appréciation et / ou de prendre une décision (C).

Par exemple, la « fréquence d’apparition… » (indicateur), pour « tel objet » ou

« conception » (concept), « signifie… » et permet de « conclure que… » (inférence),

« en raison de ... » ou « parce que… » ou « en référence à... » (Référent).

Le critère et l’indicateur sont donc complémentaires et tous deux indispensables dans

le processus d’évaluation. Quand, dans son discours, un acteur privilégie une seule forme de

construction pour porter son jugement, l’autre est implicite et nous pouvons la rechercher.

Par exemple, l’indicateur de la « récurrence des cooccurrences » (répétition fréquente

des mêmes mots dans les mêmes phrases) n’a pas de signification en lui-même, mais

en rapport au « postulat d’association » : c’est l’association fréquente de mots entre

eux qui créée de la signification. On précisera celui-ci dans la partie méthodologique.

Le critère est donc un concept, dont il n’est pas simple d’observer les réifications au

cours de la situation. Si on se réfère aux définitions proposées dans les paragraphes

précédents, ses caractéristiques sont complexes : processus de signification, opération du

jugement d’appréciation, ensemble de principes, dimension, etc. Les indicateurs sont

Page 340: UN REFERENTIEL, POUR QUOI FAIRE

340

beaucoup plus aisés à percevoir : il est possible d’observer des instruments et leurs propriétés,

comment elles interagissent avec l’objet, etc. Les modes d’utilisation des outils apporteront

aussi des informations complémentaires sur la façon dont ils sont exploités. A quel moment ?

Dans quelles conditions ? A qui s’adresse-t-il ? (Cf. l’expérience N° 2). Mais ces observations

sur les indicateurs n’apparaissent pas suffisantes pour suivre le raisonnement cognitif de

l’examinateur et la façon dont il utilise les indicateurs pour porter son appréciation.

On peut en déduire que la différence essentielle (au sens phénoménologique), entre un

critère et un indicateur, est caractérisée par leur sphère noétique dans le processus cognitif, le

premier est de l’ordre de la conception, le second de l’ordre de l’observation. On débouche

ainsi sur la question essentielle (au sens positiviste) de leur nature, c'est-à-dire des modalités

d’expérience qui nous permettront de les identifier et de les observer. L’analyse de quelques

critères est un moyen d’approfondir celle-ci,

5) Analyse de critères à travers les rapports de jurys :

Cette étude fait partie de ces quelques approches empiriques, qui ont pour objet

d’étayer nos catégories d’analyse. L’étude des rapports de jurys et des procédures d’examen

sera le moyen de préciser l’approche conceptuelle du critère et de l’indicateur définis ci-

dessus (et de ce fait, dans les parties suivantes, l’approche méthodologique et l’interprétation),

avant que ces analyses soient ensuite synthétisées à la fin de cette thèse.

On a choisi ici d’étudier le « concours de recrutement de conseillers d’éducation

populaire et de jeunesse », c'est-à-dire des agents du ministère qui exerce sa tutelle sur le

milieu professionnel de l’éducation populaire. Ce corps a été créé par le décret du 10 juillet

1985 : « les chargés d’éducation populaire et de jeunesse exercent dans leurs spécialités

techniques et pédagogiques des fonctions de formation et d’animation » (article 3).

Le corpus est constitué des rapports de jury des épreuves écrites, à partir d’un

document édité par « l’imprimerie nationale, d’après document fourni » par le « ministère de

la santé, de la jeunesse et des sports » (session 2007). L’examen comporte, pour

l’admissibilité, 3 épreuves écrites de 4 heures : une « de culture générale, portant sur un sujet

d’actualité en rapport avec l’éducation populaire ou la vie associative » ; une « de spécialité,

consistant en une analyse de documents » (ces dernières années les trois spécialités sont

« sciences économiques et juridiques », « sciences humaines appliquées » et « sciences et

techniques de la communication ») ; une « de pédagogie générale relative au domaine de la

jeunesse et de l’éducation des adultes » (page 3). Pour les candidats admissibles, trois

Page 341: UN REFERENTIEL, POUR QUOI FAIRE

341

épreuves orales sont organisées : « épreuve orale de nature institutionnelle (1 sujet tiré au

sort) » ; l’ « évaluation technique de la compétence du candidat dans la même spécialité que

celle de l’écrit » ; la « conduite d’une séance de travail avec un public, dans la même

spécialité » ; une épreuve est facultative : le « commentaire d’un document dans une langue

étrangère ou régionale » (page 3). L’analyse portera sur des épreuves écrites, une « épreuve de

culture générale » et deux épreuves « de pédagogie générale », dont le sujet est proche.

Pour observer les critères à travers les discours, on ne peut esquiver l’analyse de la

situation de communication, et des effets de sens induits en fonction de la position adoptée

lors de l’interaction (méthode des variations). Ce positionnement est indispensable pour saisir

le sens du discours (M. Pêcheux, 1969 ; P. Charaudeau, 1983). Les rapports de jury sont

rédigés pour communiquer les « critères d’appréciation » – à partir des conclusions adoptées

lors de discussions entre les membres de ces jurys. Les futurs candidats s’approprient donc

ces textes en y recherchant la façon dont ils seront jugés. De ce fait, les principaux titres des

paragraphes apparaissent comme les « critères » des examinateurs.

Nous en avons trois pour l’ « épreuve écrite de culture générale », dont deux

principaux :

- « le candidat est capable de situer l’auteur et de définir les termes (9 points) » ; - « le candidat développe son analyse (9 points) » ; - « forme du devoir (syntaxe, orthographe…) (2 points) » (pages 22 à 35 = 2 sujets).

Ces critères sont par ailleurs positionnés par rapport à des capacités recherchées

« Le candidat doit être capable : sur le fond : - analyser les termes du sujet ; - analyser les différentes approches possibles ; - se saisir d’une problématique ; - défendre une thèse et la développer logiquement ; - articuler les différents arguments ; - illustrer ses propos ; - éviter l’exposé didactique. Sur la forme : - Maîtriser la langue en respectant la syntaxe et l’orthographe ; - S’exprimer avec clarté ; - Veiller à proposer une présentation soignée » (page 22).

Il n’est pas précisé si les capacités « sur la forme » sont évaluées sur les seuls deux points

qui sanctionnent la « forme du devoir ». Il semble que ce soit le cas pour la première de ces

trois capacités (« maîtriser la langue »), voire la dernière (« présentation soignée ») ; mais la

seconde semble plus large, puisque la « clarté de l’expression » est aussi indispensable pour

« développer l’analyse » ou « définir les termes ». De la même façon, on peut faire remarquer

que les trois premières capacités « sur le fond » s’inscrivent plutôt dans la première partie (9

Page 342: UN REFERENTIEL, POUR QUOI FAIRE

342

points) (« situer l’auteur et définir les termes ») alors que les suivantes correspondent plutôt à

la seconde partie (9 points) (« développer l’analyse »). Cependant la seconde capacité

(« analyser les différentes approches possibles ») concerne également les deux parties, et

d’autres, comme « défendre une thèse » et « articuler les différents éléments », s’apprécient

dans la façon dont les deux parties s’intègrent l’une et l’autre (problématisation et définition

d’une part / développement de l’analyse de l’autre).

Par conséquent, les critères d’appréciation des prestations (ou performances) du candidat

semblent, au premier abord, une bonne compréhension et analyse des termes du sujet, voire

du contexte dans lequel la citation a été prononcée, et une bonne exploitation de ces

connaissances pour développer l’analyse et argumenter son point de vue : les examinateurs

évaluent alors un certain nombre de « capacités » qu’ils identifient à travers la rédaction du

document. Mais, dans la présente recherche, on ne peut se limiter à cette analyse de surface,

dans la mesure où l’objectif est aussi d’observer l’articulation entre critères et indicateurs. Or,

dans les rapports, ces derniers ne sont guère formalisés. Cependant les membres du jury,

chargés de la rédaction, nous communiquent un ensemble de données qu’ils souhaitent voir

apparaître, dont il est possible d’établir une typologie : sur l’épreuve N° 1, des données

historiques (ou biographiques), des références bibliographiques, des définitions, des

conceptions d’auteurs. On n’a pas la prétention, ici, d’avoir cerné toutes les catégories qui ont

un intérêt pour ces jurys, seulement celles qui sont le plus souvent évoquées. Les

examinateurs recherchent donc ces types de données dans les copies des candidats, puis

apprécient la façon dont elles sont agencées entre elles, en référence à certaines capacités. Les

objets évalués sont donc bien les capacités (concepts-clefs des critères de ce Référentiel) ; en

revanche, les opérations logiques appliquées sur les données restent pour le moins implicites.

Comment est évaluée l’exploitation des diverses données citées : en fonction de leur

pertinence par rapport au sujet, de leur cohérence entre elles, de leur validité par rapport à la

proposition logique de la démonstration, etc. ? Certainement, en partie, tous ces processus

logiques ; mais, sur cette question, les examinateurs n’ont pas approfondi leur réflexion

commune, ou du moins n’ont pas désiré la communiquer aux candidats. Par ailleurs, les

systèmes de référence invoqués pour justifier l’appréciation ne sont pas, non plus, très

explicites. Si l’on se réfère aux taxonomies de B.S. Bloom, on remarque que les différents

niveaux du domaine cognitif sont sollicités (à l’exception du sixième : l’évaluation), à savoir

la connaissance, la compréhension, l’application, l’analyse et la synthèse. Mais ces différents

niveaux d’observation, dans la production écrite du candidat, ne sont pas formalisés ; et

surtout l’articulation entre eux n’a fait l’objet d’aucune réflexion partagée. Ce flou ne

Page 343: UN REFERENTIEL, POUR QUOI FAIRE

343

provient-il pas du fait que le Référent n’est pas explicite : « en quoi ces diverses capacités

ont-elles un intérêt pour la future pratique professionnelle du C.E.P.J. » ? C’est une hypothèse

à ne pas négliger.

Que le Référent ne soit pas exprimé ne signifie pas qu’il n’existe pas, de façon implicite.

Par ailleurs, il existe certainement des types de données, pris en compte par les jurys, qui ne

sont pas exposés, faute de pouvoir les formuler. Cela nous conduit à poser deux problèmes :

1° Le critère est-il possible sans signification partagée ? Tout ce qui n’est pas échangé est

laissé à la libre appréciation des membres du jury, avec autant de divergences dans les

appréciations. Mais ainsi que le faisait remarquer P. Merle (1996), cette marge de manœuvre

n’est-elle pas indispensable pour le bon fonctionnement du système d’évaluation, et

l’ajustement aux situations particulières du terrain ?

2° Sans Référent explicite : comment le candidat peut-il prendre conscience des enjeux

lors de l’interaction entre examinateurs et lui ?

Si quelques conseils donnés aux candidats et aux formateurs répondent à cette dernière

préoccupation (p. 38 et 39 du rapport), ceux-ci, très généraux, laissent penser que ce

problème, à l’heure actuelle, n’a pas de réponses concertées : « il convient de maîtriser une

méthodologie adaptée à la rédaction d’une dissertation », « prendre du recul face au sujet

proposé », « distance critique », « présenter une idée générale ou une problématique

personnelle », « démontrer, argumenter, convaincre », « éviter les stéréotypes », etc. L’étude

du Référent implicite apparaît donc pertinente, pour expliciter ce qui est en jeu au cours de

l’interaction, mais aussi pour offrir des repères supplémentaires aux examinateurs, sans

rigidifier un système où le libre arbitre des examinateurs est indispensable pour ajuster

l’évaluation aux situations spécifiques.

Cette première approche a permis de mettre en valeur certaines structures langagières à

travers lesquelles s’expriment les critères, que ce soit les effets de sens induits par la situation

de communication, la structure du discours (en particulier le découpage en paragraphes) ou

les typologies de données recueillies. On aura l’occasion de revenir sur les principes

méthodologiques qui régissent cette analyse (partie méthodologique). Mais il peut aussi être

intéressant, maintenant, d’observer comment certaines formes langagières font ressortir les

différences entre les critères des jurys. Pour cela, on a pris deux sujets d’examens assez

proches, sur l’épreuve N° 3 : « épreuve écrite de pédagogie générale ». L’un a été présenté à

la session de 2004 (p. 69 à 72 du rapport), l’autre à la session de 2007 (p. 107 à 111 du

rapport). Le premier s’intitule : « L’évaluation est un acte éducatif. Qu’en pensez-vous ? » ; le

second : « En quoi l’évaluation d’une pratique professionnelle permet-elle une analyse de la

Page 344: UN REFERENTIEL, POUR QUOI FAIRE

344

pratique professionnelle ? » Bien que le premier sujet soit un peu plus global que le second, le

terme « acte éducatif » étant plus abstrait que celui de « pratique professionnelle » et faisant

référence par ailleurs à de nombreuses connotations dans le milieu socioprofessionnel, la

structure des deux sujets est très proche : une question ; un concept, « l’évaluation », qui est

l’objet de l’interrogation ; un autre concept mis en rapport avec ce premier concept (soit un

rapport d’inclusion, dans le premier sujet, soit de fonctionnalité, comme dans le second).

Il est attendu que le candidat se positionne : la question est directe dans le premier cas :

« qu’en pensez-vous ? », indirecte dans le second : la « pratique professionnelle » dont on

parle n’est pas forcément celle du candidat.

Dans un premier temps, on observera, comme pour l’analyse précédente, les critères

communs à l’épreuve. Si on prend les « critères de notation » qui sont présentés avant

l’exposé des « référentiels de correction des sujets », 9 points sont attribués à « la

problématique proposée et développée par le candidat », 9 points sur « les connaissances

développés dans le devoir en rapport au sujet et la problématique développée » et 2 points sur

la « forme du devoir (orthographe, syntaxe, lisibilité, présentation) » (2007 : 103).

Contrairement à l’épreuve écrite de culture générale, les « critères de notation » ne recoupent

pas les paragraphes du rapport qui s’intègrent dans « le référentiel de correction ».

L’articulation entre ces deux référentiels (« notation » et « correction ») est donc sujette à

interprétation, aussi bien de la part des candidats que des correcteurs. Le « référentiel de

correction » est distribué en quatre paragraphes : « compréhension du sujet (avec la définition

des termes du sujet), le traitement du sujet, niveau de culture du candidat, forme du devoir ».

- Sur la « forme du devoir » du « référentiel de correction », l’acception est plus large que

celle des « critères de notation » (les 2 points), puisqu’elle est « jugée par rapport à la

qualité d’expression écrite et la structuration générale du document » (souligné par moi).

Les éléments observés pour apprécier cette « structuration générale » sont ensuite

précisés : « Cet exercice implique de construire à partir et à propos du sujet, un

développement structuré et constitué d’éléments logiques. » (souligné par moi). Le

correcteur observe donc les éléments logiques (types de données) et la façon dont ils sont

agencés pour répondre au sujet. Ce terme d’ « éléments logiques » est assez abstrait, mais

le fait que ce paragraphe soit en fin de rapport laisse penser qu’il est fait référence aux

éléments abordés dans les autres paragraphes. Ce critère est donc transversal. Il est tout de

même à noter la confusion entretenue entre le concept de « forme du devoir » dans le

« référentiel de correction du sujet » (acception ci-dessus) et dans les « critères de

Page 345: UN REFERENTIEL, POUR QUOI FAIRE

345

notation » (2 points), cette contradiction laissant libre jeu à l’appréciation des correcteurs

sur l’attribution de ces 2 points.

- Le « niveau de culture du candidat » apporte une dimension supplémentaire des

appréciations sur cette épreuve : « les connaissances en pédagogie sont indispensables

pour ne pas doubler l’épreuve de culture générale et doivent donc être illustrées par la

diversité des éléments donnés, la richesse des références bibliographiques et l’analyse

pertinente d’exemples ou d’expériences » (2007 : 110 ; 2004 : 72).

Le rapport de 2004 ajoute : « le candidat doit être capable de citer des courants pédagogiques

et des pédagogues et faire référence aux méthodes actives, et citer également les différents

travaux de spécialistes comme PIAGET, CAROLL, MEIRIEU, LEGRAND, etc. ». Ce critère

introduit donc de nouveaux types de données attendues (exemples, expériences,

bibliographies spécialisées, méthodes actives), la raison de ce choix et le champ disciplinaire

auquel il est fait référence : la pédagogie. Le Référent apparait ici clairement pour la première

fois. Le lien avec l’activité professionnelle du futur CEPJ reste tout de même implicite

(conseiller en pédagogie ?). Il semble que les 9 points « sur les connaissances développées

dans le devoir » soient à interpréter plus spécifiquement en lien avec ce critère.

- Les deux autres paragraphes du rapport sont plus génériques :

o Dans la « compréhension du sujet », on retrouve, comme pour l’épreuve écrite de

culture générale, un certain nombre de « devoir » ou de « nécessité » : l’analyse du

sujet (« préciser les champs ouverts par le sujet, en privilégier un et expliquer les

raisons de son choix ») (2007 : 108) ; la problématisation (« préciser et déterminer une

problématique ») (idem) ; les définitions (« définir les mots clefs ») (2004 : 69).

o Dans le « traitement du sujet », on retrouve surtout des concepts, auxquels nous nous

sommes familiarisé dans cette thèse (fonctions de l’évaluation, sommative, formative,

certificative…, mais aussi fonctions au sens plus large, sociales, personnelles …

pédagogies différenciée, du projet…), de nombreuses questions à se poser sur

l’apprentissage, mais aussi sur le rôle des acteurs, les rapports entre formateurs et

formés…. A la différence du critère précédent qui est principalement en

correspondance avec le premier critère de notation (sur la problématique), celui-ci

porte autant sur le premier (développement de la problématique) que sur le second (9

points sur la « connaissance développée en rapport avec le sujet »). Sa position semble

donc prépondérante, ce qui se traduit aussi par une place importante dans le rapport

(2007 : 108 à 110 ; 2004 : 69 à 72).

Page 346: UN REFERENTIEL, POUR QUOI FAIRE

346

C’est donc sur ce second paragraphe que portera l’analyse pour différencier les critères

communiqués aux candidats. Les modalisations du discours permettent d’identifier les

attentes des jurys : celles qui sont impératives (le candidat doit…, devra …, il est

nécessaire…, il faut donc…), ont pour le candidat, dans la situation présente, une plus grande

force illocutoire que les modalisations conditionnelles (cela suppose que…, il serait

intéressant de…) ou possibilistes (le candidat pourra…, peut…). Ces modalisations

impératives apparaissent plus nombreuses dans le rapport de 2007 que dans celui de 2004.

À partir du moment où elles sont un prédicat du candidat (le candidat doit…) ou une locution

indéterminée en rapport de référence avec lui (il faut donc…, il est nécessaire…), on peut les

prendre comme thème : on obtient alors une succession de propositions qui expriment

l’ensemble des attentes jugées essentielles, par les membres du jury, dans cette situation.

Dans le rapport de 2004, nous avons :

- « le candidat devra situer le lieu de l’évaluation ; - il sera également nécessaire d’interroger les différents évaluateurs et différentes évaluations

formatives, formatrices, certificatives, sommatives, et d’insister particulièrement sur certaines pratiques d’évaluation en lien avec différents types de pédagogies ;

- le candidat devra également aborder le contraire de l’affirmation donnée dans le sujet ; - il est nécessaire de déterminer le public (…) et le contexte (…) ; - il faut donc interroger le public et le contexte ; - il est nécessaire de croiser les différents types d’évaluation et les différents publics ». Dans le rapport de 2007 :

- « le traitement du sujet nécessitera que le candidat précise le cadre dans lequel il se situe ; - le candidat devra expliquer sa position ; - il devra développer ce qu’il entend par activité éducative ; - le candidat devra définir de quelle évaluation parle le sujet (…) les dimensions de l’évaluation

doivent être interrogées (…). Il est nécessaire de vérifier les différentes fonctions de l’évaluation ; - ce concept très large (activité éducative) devra être explicité par le candidat ; - le candidat devra préciser les objectifs de cette démarche d’évaluation ; - le candidat ne devra pas nier le rôle indispensable de l’évaluation en tant que jugement sur

l’encadrant, sur les procédures mises en place, la qualité, l’adéquation des méthodes pédagogiques ;

- le candidat devra préciser ce qu’est une évaluation de pratique professionnelle, à quoi et à qui sert-elle ».

Cette sélection thématique des modélisations impératives met ainsi en valeur un

positionnement sensiblement différent des membres du jury qui ont rédigé les deux rapports,

du moins pour ce qui concerne les attentes essentielles en termes de « faire » du candidat.

Quand on laisse de côté le thème récurrent (sujet + modalisation) pour ne conserver que le

développement qui suit (rhème de la linguistique), on obtient alors la structure essentielle des

attentes du correcteur :

Page 347: UN REFERENTIEL, POUR QUOI FAIRE

347

- dans le premier cas, après avoir défini le lieu de l’évaluation, les différentes fonctions et le

lien avec les types de pédagogies, le candidat détermine (interroge) le public et le

contexte, puis il croise types d’évaluation et publics, tout cela sans omettre thèse et

antithèse dans son développement : le correcteur souhaite ainsi voir le candidat

développer sa problématique selon un certain nombre de méthodologies, soit

traditionnelles (thèse/ antithèse), soit en usage dans le milieu socioprofessionnel (prise en

compte du public et du contexte, modes pédagogiques, fonctions de l’évaluation,

croisement de ces dimensions) ;

- dans le second cas, après avoir précisé le cadre, le candidat explique sa position, puis il

développe (explicite) l’activité éducative, il définit l’évaluation (dimensions et fonctions),

en précise les objectifs, la fonction vis-à-vis de la pratique professionnelle (à quoi sert-

elle ?), et enfin le rôle dans la remise en question des façons de faire de l’encadrant : le

correcteur s’inscrit plutôt ici dans l’inventaire de toutes les questions à aborder, à partir

des termes, qui sont dans le sujet (évaluation, activité éducative, analyse de la pratique

professionnelle), ou des positionnements implicites attendus dans le milieu professionnel

(définir sa position, préciser l’objectif de la démarche, remise en question).

On a donc deux démarches différentes, l’une qui privilégie l’appréciation sur la méthodologie

du candidat, l’autre qui privilégie sa capacité à cerner les aspects essentiels de la

problématique, en référence à certains modes de positionnement au sein du milieu

socioprofessionnel.

Comment interpréter cette différence ? On peut faire remarquer que les sujets ne sont pas

tout à fait les mêmes : le premier, plus global, invite à une approche plus classique

(thèse/antithèse), ainsi qu’à une ouverture vers les courants pédagogiques ; le second, plus

pragmatique et plus ciblé sur les pratiques professionnelles, invite à avoir un regard sur toutes

les fonctions que remplit l’évaluation dans ces situations. Cette interprétation serait

certainement celle suivie par un candidat, qui analyse les différents rapports de jurys pour

s’adapter à la commande implicite. Mais, pour le chercheur, une autre explication est

possible. Dans la première expérience qu’on présentera, l’analyse des critères, conduite à

partir des appréciations de professionnels portées sur des productions d’animateurs stagiaires,

a mis en lumière une différence de conception entre, d’une part, ceux qui privilégient la

logique de l’exposé et la construction argumentative, d’autre part, ceux qui privilégient

l’exposé des « devoirs » essentiels de l’animateur. La différence qui est apparue dans ces deux

rapports n’est-elle alors pas similaire et ne traduit-elle pas deux façons différentes de

concevoir le rôle du futur professionnel ? Il s’agirait, dans ce cas, de deux critères divergents

Page 348: UN REFERENTIEL, POUR QUOI FAIRE

348

qui dominent la profession et qui conduisent à des évaluations différentes. La question est

ouverte et l’hypothèse est posée : il parait difficile de la résoudre ici, avec les éléments dont

on dispose.

Mais cette approche nous a permis d’avoir une conception plus précise du « critère »,

et de la façon de l’appréhender dans le discours des acteurs. Le critère prend la forme d’une

construction conceptuelle dont le sens est fortement induit par la situation de communication,

mais aussi par la structure du discours, la syntaxe ou la récurrence des thématiques.

On aura l’occasion d’approfondir l’analyse de ces phénomènes langagiers dans la partie

méthodologique. Dans l’immédiat, ce constat permet de définir plus précisément la différence

entre le « critère » et l’ « indicateur » : le premier est identifiable dans le discours des acteurs,

le second dans les processus mis en œuvre par eux pour collecter des informations ; le premier

est donc une construction conceptuelle qui permet de partager une position commune pour

apprécier un objet, le second est un mode procédural pour observer les caractères d’un objet.

6) Le « critère » comme objet de recherche :

Identifier le critère comme une construction conceptuelle qu’il convient d’analyser

dans le discours des acteurs n’est pas sans poser tout de même quelques difficultés

méthodologiques. Un discours apporte une masse considérable d’informations à traiter. Par

ailleurs, la signification de son contenu est induite par le contexte de l’énonciation. Pour

traiter cette masse d’informations, on a besoin de « procédures de collecte standardisées » du

matériel langagier produit par le discours. En d’autres termes, on a besoin « d’indicateurs

langagiers ». On utilisera ce terme dans une acception plus étendue que celles d’« indicateur »

des linguistes, afin de signifier toutes les formes d’outils à notre disposition pour collecter les

indices langagiers, de façon systématique. Ces indicateurs langagiers n’acquièrent, eux-

mêmes, de signification qu’à partir du moment où ils s’intègrent dans les structures

langagières partagées par la communauté linguistique : ils sont donc perceptibles, pas

seulement par les chercheurs (même si ceux-ci en ont une aperception plus fine et plus

rapide), mais par tous les membres qui parlent le même langage, ou du moins qui ont une

représentation commune de ces constructions conceptuelles : dans le cas contraire, il n’y

aurait pas possibilité de « critère commun » entre acteurs. Par conséquent, pour étudier le

critère sous cet angle, on est conduit à approfondir notre approche des structures de la langue.

Page 349: UN REFERENTIEL, POUR QUOI FAIRE

349

Les postulats de cette recherche sont donc fondés sur les connaissances de la linguistique. On

abordera cette question dans la deuxième sous partie de la méthodologie.

Dans l’immédiat, pour se distancier des vices tautologiques présentés au paragraphe

précédent, et éviter les confusions, il semble important de distinguer :

- les indicateurs que l’on qualifiera d’ « opérationnels », qui sont les procédures utilisées

pour collecter des informations sur un objet que l’acteur désire observer : ce sont des

propriétés particulières d’un instrument pour révéler certains attributs / aspects de l’objet

en question ou des « paramètres » mis en valeur par les outils : par exemple, les

indicateurs d’altitude par l’altimètre, les indicateurs de temps par le chronomètre, etc.

- Les indicateurs « langagiers » : ce sont des structures systématiques de la langue qui

servent de référence aux constructions langagières, « procédures universelles » du

discours qui ont des significations normées lors de la communication entre acteurs. Elles

sont donc inconsciemment utilisées et implicitement perçues par eux.

- Les critères : ce sont les processus logiques de construction de la référence, qui offrent

une signification partagée aux informations fournies par les indicateurs opérationnels.

- Les constructions conceptuelles, ou « conceptions » : ce sont les significations qui sont

produites par les indicateurs langagiers, lorsqu’ils s’inscrivent dans les modes ordinaires

de communication et dans les structures universelles de la langue commune des acteurs.

Ainsi les « indicateurs opérationnels » et les « critères » sont des concepts qui signifient nos

objets de recherche, les « indicateurs langagiers » et les « constructions conceptuelles » sont

des concepts qui signifient les catégories mises en place, à partir des connaissances

linguistiques, pour observer les premiers. La réification des critères (les formes observables

de ceux-ci) ne se trouve donc pas directement dans les indicateurs opérationnels, mais dans

les indicateurs langagiers, c'est-à-dire dans la façon de construire de la signification partagée,

en commun, à travers des échanges langagiers (ou para-langagiers) entre pairs, qui

communiquent sur la manière d’évaluer tel objet, tel aspect, tel attribut, etc. Le caractère

« universel » des indicateurs langagiers est indispensable pour communiquer, et donc partager

les appréciations sur un objet, aux autres membres de la communauté linguistique. Ce

postulat, construit à partir des travaux de la grammaire générative (N. Chomsky), ne doit pas

nous faire oublier, en revanche, que l’existence des critères, en tant que « signification

partagée sur la valeur d’un objet », est ici hypothétique et non postulée. L’objectif de la

recherche est de montrer aussi bien les phénomènes qui conduisent à cette « convergence de

Page 350: UN REFERENTIEL, POUR QUOI FAIRE

350

conception » que les difficultés rencontrées pour construire une « signification partagée ».

Mais, ainsi identifié, le critère devient objet de recherche : il est possible d’observer le choix

de l’énonciateur et la construction de son système de référence, puis d’étudier diverses

relations entre critères et indicateurs opérationnels en fonction des situations d’évaluation. On

peut alors envisager de traiter des hypothèses sur les contraintes de la situation d’évaluation et

sur les enjeux sociaux qui interfèrent dans celle ci. Les postulats et hypothèses présentés ci-

dessus précisent les notions de Référent et de Référé. Ils fondent ainsi les modalités des

expériences mises en œuvre pour étudier le Référentiel, ainsi que l’intérêt de différencier le

« référentiel politique » (conceptions) et le « référentiel outil » (procédures).

On s’inscrit, en ce sens, dans la logique des travaux initiés par J.M. Barbier et C.

Hadji, mais en élargissant le champ de l’étude, pour cerner les enjeux sociolinguistiques de

ces pratiques d’évaluation. Il reste maintenait à aborder les méthodologies de l’analyse des

discours et de l’analyse des contenus, pour déterminer les modalités empiriques et les modes

d’interprétation. Comment est-il possible d’inférer les critères d’un énonciateur à partir des

indicateurs langagiers qu’il utilise ? Ces inférences, nous les pratiquons tous les jours, plus ou

moins intuitivement, au cours de nos échanges quotidiens. L’analyse des processus et

systèmes langagiers a pour but d’outiller notre observation de ces modes de communication

implicites.

Page 351: UN REFERENTIEL, POUR QUOI FAIRE

351

3ème PARTIE

METHODOLOGIE

Des concepts / objets de recherche à leur étude dans les discours des acteurs

et le contexte d’énonciation

L’analyse des discours

Page 352: UN REFERENTIEL, POUR QUOI FAIRE

352

L’analyse des discours a apporté une nouvelle dimension à cette thèse, en offrant des

outils pour étudier les conceptions des acteurs. On a, dans un premier temps, étudié ces

différentes techniques : une première synthèse en sera proposée ci-dessous, dans le chapitre 8.

Mais, au fur et à mesure de la revue de la littérature sur cette question, est apparue

l’importance d’approfondir quelques connaissances linguistiques. Tout d’abord la plupart des

analyses discursives font référence à des concepts de cette discipline, et il semble

indispensable de les maîtriser pour éviter les confusions109. Mais, surtout, certaines

contradictions nous invitent à approfondir la recherche, et on trouve alors des éléments de

réflexion objectifs dans les sciences du langage. Si la plupart des gens sont susceptibles de

percevoir les effets de langage, et par là même d’analyser les discours, toute étude scientifique

et toute mise en œuvre d’une méthodologie supposent l’acquisition d’un métalangage (d’un

langage sur le langage) et, à ce titre, la linguistique nous offre des concepts opérationnels et

bien définis. L’approche de cette discipline n’aura donc pas pour but d’approfondir les

questions traitées par elle (même si elles sont nécessairement abordées au cours de la

présentation et parfois même analysées de façon conséquente), mais de construire une

méthodologie pour l’observation systématique des conceptions qui transparaissent dans les

discours. Les concepts présentés dans cette partie, parfois redéfinis pour les besoins de la

démonstration, ont donc surtout pour intérêt de préciser les objets de recherche, les attributs

observables, les rapports entre eux et, par là même, le sens des méthodes d’analyse textuelle

qui ont été utilisées. C’est pourquoi les principaux concepts de la linguistique sont explicités.

Ce travail de redéfinition n’est pas seulement un exercice didactique ou pédagogique, il a

aussi et surtout pour objectif de fournir un cadre de référence à la construction

méthodologique. Ainsi certains parti-pris sont clairement exposés ; ils se sont dessinés au fur

et à mesure des besoins de la recherche.

Enfin les problématiques linguistiques offrent une réflexion sur la référence et des pistes

de recherche sur les processus cognitifs qui sont mis en jeu pour la construire. Ainsi la

linguistique apporte un autre regard sur l’objet « Référentiel » et sur les cadres de référence.

109 Ainsi, par exemple, R. Mucchielli (1974 : 2006 : 77) fait remarquer, à juste titre, en parlant de l’analyse de contenu des images : « ainsi, le changement de « support » trouble beaucoup d’opérateurs. Certains - et non des moindres – se mettent à confondre signifiant et signifié ».

Page 353: UN REFERENTIEL, POUR QUOI FAIRE

353

On présentera, dans un premier temps, l’analyse de contenu telle qu’elle est définie par

différents auteurs, en particulier par les psychosociologues (R. Mucchielli, L. Bardin, R.

Ghiglione et associés), et l’analyse des discours avec les différentes approches des linguistes

(M. Pêcheux, D. Maingueneau, O. Ducrot, P. Charaudeau). Dans le deuxième chapitre, on

abordera les oppositions entre grammairiens et sémioticiens sur les questions de la

signification et de la référence, puis on définira les grandes structures qui favorisent l’analyse

de ces processus. Ainsi un cadre méthodologique sera (pro-)posé et certaines précautions

méthodologiques (ex-)posées, en particulier en ce qui concerne l’inférence des processus

cognitifs de la référence à partir de l’observation des procès de la signification. Puis, dans le

dernier chapitre de cette partie méthodologique, on approfondira nos connaissances sur la

structure de ces deux systèmes et de leurs processus, à partir de la définition de concepts

fondamentaux et d’une analyse plus poussée des unités langagières.

Page 354: UN REFERENTIEL, POUR QUOI FAIRE

354

Chapitre 8

Introduction à l’analyse des contenus et des discours

Si l’on se réfère à la présentation de R. Mucchielli (1974/2006), l’analyse de contenu

s’est affirmée à travers plusieurs applications, la linguistique appliquée à la documentation

(classement des ouvrages), la psycholinguistique et l’analyse systématique des

communications. C’est en 1888 que B. Bourdon, professeur à l’université de Rennes, a

inauguré cette méthode d’analyse, sur un texte de la Bible, en s’inspirant de la psychologie, de

la linguistique et de la critique littéraire (Idem : 17;18). Si l’analyse de contenu s’inscrit ainsi

dans la tradition herméneutique, elle s’en est distanciée, à cette époque, en appliquant les

méthodes systématiques de la pensée scientifique. Mais c’est le professeur W.I. Thomas, de

Chicago, qui en a généralisé les méthodes (1908/1918) pour mieux connaître les attitudes et

valeurs des immigrants polonais (travail réalisé avec l’anthropologue F. Znaniecki). La

psycholinguistique s’est ensuite affirmée de façon autonome, puis s’est propagée par une

étude du langage sur les enfants et personnes atteints de « troubles de la personnalité », avec

les travaux de Buseman (1925), d’Eisenson (1932) et de Newman et Mather (1938).

L’analyse des communications de masse, quant à elle, s’est développée avec H. Lasswell, aux

USA, pendant et à l’issue de la première guerre mondiale, pour mettre en valeur les

techniques de propagande utilisées pendant la guerre : elle est reprise par S. Forster pour

identifier les propagandistes de l’Allemagne Nazie (« agents de Hitler »), avant l’entrée des

Etats Unis dans la seconde guerre mondiale. C’est à l’issue de celle-ci que ces méthodes ont

pris de l’ampleur, avec les travaux de B. Berelson et de P. F. Lazarsfeld (1948), et d’I. de Sola

Pool (1959) en ce qui concerne l’analyse de contenu des communications, ou de Johnson

(1944), White (1949) et Arieti (1955) pour la psycholinguistique, ou encore de l’Institut

National des techniques de documentation, rattaché au CNAM. Par ailleurs les recherches

dans ce domaine ont été valorisées par les perspectives de développement liées à l’expansion

de l’informatique : la classification documentaire, mais aussi les banques de données

thématiques, les projets de traduction automatique, la transcription automatique des

entretiens, etc.

Page 355: UN REFERENTIEL, POUR QUOI FAIRE

355

L’objectif ici n’est pas de s’attarder sur l’origine de ces techniques, mais plutôt d’en

cerner les principaux piliers et d’en percevoir la dynamique, avant leur réappropriation, en

France, par certains courants de la psychosociologie et de la linguistique, dans les années

soixante dix. Dans le paragraphe ci-dessous, on attachera surtout de l’intérêt à ces nouvelles

orientations impulsées par des auteurs tels R. Mucchielli, L. Bardin et R Ghiglione (et leurs

associés) pour la première de ces disciplines, ou M. Pêcheux, R. Barthes, A.J. Greimas, P.

Charaudeau et D. Maingueneau pour la seconde. On discutera l’intérêt et les limites de chaque

proposition, du moins celles qu’on a pu identifier au cours de cette recherche. Tout ceci nous

conduira vers une définition plus précise de l’analyse propositionnelle des discours, qu’on

distinguera de l’analyse de contenu et de l’analyse de l’énonciation. Cela nous permettra

d’avancer une première proposition de classification de ces méthodes, dans un but

d’opérationnalisation, en rapport avec nos objets de recherche, en particulier l’observation des

critères dans le discours des acteurs.

1) L’analyse de contenu et la psychosociologie française :

1-1) L’introduction de l’analyse de contenu en France :

C’est dans les années soixante-dix que les psychosociologues français s’approprient

ces techniques. R. Muchielli (1974) et L. Bardin (1977) nous en proposent d’excellentes

synthèses qui seront rééditées plusieurs fois. Ces deux auteurs suivent un peu la même

démarche, dans un premier temps du moins. Après avoir situé historiquement ces méthodes

(cf. ci-dessus), les auteurs cherchent à définir les méthodes spécifiques de l’analyse de

contenu, ainsi que le « rapport avec les autres sciences » (L. Bardin). L’analyse de discours

s’inscrit dans une tradition herméneutique, « art d’interpréter les textes sacrés ou mystérieux »

(L. Bardin). « Son postulat, c’est qu’un sens caché existe à l’abri du texte officiel » (R.

Mucchielli). Pratiques ancestrales qui s’appliquaient certes à la lecture des textes sacrés

(l’exégèse). Mais il existe aussi des formes contemporaines qui se sont inspirées de la

démarche : la critique des textes littéraires ou la psychanalyse. Le second pilier, c’est la

« rhétorique » et la « logique » qui est intrinsèque au discours, inscrite dans celui-ci.

« La rhétorique et la logique sont aussi à ranger dans les pratiques d’observation d’un discours antérieures à l’analyse de contenu. La première étudiait les modalités d’expression les plus propices à la déclamation persuasive, la seconde essayait de déterminer, par l’analyse des énoncés d’un discours et de leur enchaînement, les règles formelles du raisonnement juste » (L. Bardin ; 1977/1993 : 16).

Page 356: UN REFERENTIEL, POUR QUOI FAIRE

356

Là encore les pratiques sont très anciennes puisque, si l’on se réfère à L’évolution de la

pédagogie en France d’E. Durkheim (1938), la première se développera à la Renaissance,

alors que la seconde remonte, à travers l’étude de la grammaire, aux Capétiens, puis aux

premières universités avec les joutes dialectiques. Mais, là aussi, la logique moderne s’est

emparée de ces problématiques. L’enchaînement du discours exprime un ensemble de

constructions et d’opérations logiques qui ont été interrogées par les philosophes. L’analyse

de contenu puise donc son objet dans ces traditions : 1) elle recherche le « sens caché » du

discours, du moins l’implicite qui s’exprime à travers le langage ; 2) elle essaie d’identifier la

construction logique de celui-ci à partir des indicateurs langagiers, ou éléments signifiants.

« Analyser le contenu (d’un document ou d’une communication), c’est par des méthodes sûres (…) rechercher les informations qui s’y trouvent, dégager les sens ou les sens de ce qui y est présenté, formuler et classer tout ce que « contient » ce document ou cette communication » (R. Mucchielli ; 1974/2006 : 24). « C’est se ranger aux côtés de ceux qui, de Durkheim à P. Bourdieu en passant par Bachelard, veulent dire non à « l’illusion de la transparence » des faits sociaux (…) Dire non à la « simple lecture du réel », toujours séductrice, c’est forger des concepts opératoires, accepter le provisoire d’hypothèses, mettre en place des plans d’expériences ou d’investigation » (L. Bardin ; 1977/1993 : 31).

A partir de ces principes, les auteurs préconisent une certaine rigueur méthodologique. Le

premier reprend les exigences des « premiers théoriciens » pour une analyse « objective »,

« exhaustive », « méthodique » et « quantitative ». La seconde rappelle que les « catégories »

du découpage de la communication » doivent être :

« - homogènes : on ne mélange pas les « torchons avec les serviettes », pourrait on dire ; - exhaustives : épuiser la totalité du « texte » ; - exclusives : un même élément du contenu ne peut être classé dans deux catégories différentes de manière aléatoire ; - objectives : des codeurs différents doivent aboutir aux mêmes résultats ; - adéquates et pertinentes : c'est-à-dire adaptées au contenu et à l’objectif » (L. Bardin ; 1977/1993 : 40).

Mais, au-delà des « procédures systématiques et objectives de description », le principe

fondamental de ces approches est « l’inférence » :

« Inférer (ou faire des inférences) c’est dépasser les données pour atteindre quelque chose au-delà, en rapport avec les données, c’est donc prendre des données pour un chemin vers autre chose qui n’est pas dans les données » (R. Mucchielli ; 1974/2006 : 29). « Inférence de connaissances relatives aux conditions de production (ou éventuellement de réception) à l’aide d’indicateurs (quantitatifs ou non) » (L. Bardin ; 1977/1993 : 43).

Il ne s’agit pas seulement de décrire les mécanismes langagiers, mais aussi d’en tirer des

conséquences : des conclusions, des connaissances, etc. Ainsi la définition de l’analyse de

contenu proposée par L. Bardin se précise :

Page 357: UN REFERENTIEL, POUR QUOI FAIRE

357

« Un ensemble de techniques d’analyse des communications visant, par des procédures systématiques et objectives de description du contenu des messages, à obtenir des indicateurs (langagiers ou non) permettant d’inférer les connaissances relatives aux conditions de production / réception (variables inférées de ces messages) » (L. Bardin ; 1977/1993 : 47).

C’est par cette activité d’inférence que l’analyse de contenu se distingue de la linguistique. A

partir de la différence introduite par F. de Saussure entre langue et parole, on peut dire que la

linguistique étudie la langue en tant que structure de communication de toute une

communauté, alors que l’analyse de contenu s’intéresse à la parole en tant qu’acte individuel

posé hic et nunc.

« La linguistique étudie la langue pour décrire son fonctionnement. L’analyse de contenu cherche à savoir ce qui est derrière les paroles sur lesquelles elle se penche. La linguistique est une étude de la langue, l’analyse de contenu est une quête, à travers des messages, de réalités autres. » (L. Bardin ; 1977/1993 : 48).

Pour reprendre la métaphore du jeu d’échec, empruntée à F. de Saussure (et citée par les deux

auteurs), la linguistique étudie les règles du jeu (de la langue) et l’analyse de contenu la façon

de jouer (de prendre la parole) en fonction des diverses contraintes de la situation et des

caractères des joueurs. Faut-il, pour autant, en déduire, à l’instar de R. Mucchielli

(1974/2006 : 33), que « la linguistique saussurienne est absolument inutilisable pour l’analyse

de contenu » ? Est-il possible d’analyser le jeu des joueurs et de l’interpréter sans avoir une

connaissance suffisante des règles du jeu ? Linguistique et analyse de contenu ne sont pas les

mêmes disciplines, il n’en demeure pas moins que l’analyste a besoin d’une bonne

connaissance des mécanismes langagiers (étudiés par le linguiste) pour construire ses

interprétations. Le linguiste, de son côté, peut trouver des informations précieuses dans les

observations de l’analyse de contenu, lorsque celle-ci met en valeur les choix sémantiques ou

syntaxiques adoptés par les acteurs, en fonction des contraintes de la situation d’énonciation

ou du jeu interactionnel entre les personnes. C’est en tout cas cette conception de

complémentarité qui orientera cette thèse.

On exposera ci-dessous quelques principes méthodologiques de l’analyse de contenu,

et certains termes techniques pour les signifier :

- L’analyse de contenu porte sur un corpus, c'est-à-dire un ensemble de documents ou de

communications qu’il convient de sélectionner en fonction des objectifs. Pour L. Bardin

(1977/1993 : 127, 128), celui-ci doit être exhaustif et non sélectif (« une fois le champ du

corpus défini, il faut prendre en compte tous les éléments »), représentatif s’il y a

échantillonnage, homogène (« obéir à des critères de choix précis ») et pertinent

(« correspondre à l’objectif que suscite l’analyse »).

Page 358: UN REFERENTIEL, POUR QUOI FAIRE

358

- Il convient de repérer les indices (observations pertinentes) et d’élaborer les indicateurs

(opérations de traitement précises et fiables de ces données). R. Mucchielli préfère, quant

à lui, utiliser les termes de « variable » et « indicateur ». Les indices (ou variables)

peuvent être pris directement dans le discours, les indicateurs sont alors langagiers, ou

bien être collectés dans le contexte de celui-ci ; on entre plus dans ce cas dans l’analyse de

l’énonciation et de la dimension pragmatique (cf. chapitre suivant).

- Les documents du corpus sont ensuite découpés en unités de contexte et unités

d’enregistrement. L’unité d’enregistrement « est l’unité de signification à coder. Elle

correspond au segment de contenu à considérer comme unité de base » (L. Bardin ;

1977/1993 : 135). Elle peut être le mot, l’objet ou le référent, le personnage, l’évènement,

etc. L’unité de contexte « est l’unité minimale de contexte qui permet le codage du

contenu (…) Il faut découper le texte à analyser en tranches ayant, en elles mêmes, un

sens global unitaire permettant, grâce au contexte, de décider du codage des éléments de

sens » (R. Mucchielli ; 1974/2006 : 41). Elle peut être la phrase dans le cas du mot ; le

paragraphe dans lequel se trouve le signifiant (mot) qui traduit, dans le discours, le

référent (l’objet représenté) ; les actions et leurs environnements dans le cas du

personnage ; les chronologies dans le cas des évènements, etc. Ces unités de contexte sont

définies en fonction de l’objectif de l’étude et des unités d’enregistrement.

- Pour le traitement, on applique à ces unités d’enregistrement des opérations logiques. Pour

cela, on définit sous le terme d’ « occurrence » l’apparition d’une unité d’enregistrement

dans une unité de contexte. Le terme de « récurrence » signifie que ces occurrences

reviennent de façon régulière. On peut alors analyser de simples occurrences, c'est-à-dire

la présence ou l’absence des unités d’enregistrement ; mais aussi la récurrence de ces

occurrences dans les mêmes unités de contexte, ou dans des unités de contexte différentes,

c’est le principe de la fréquence ; on peut aussi étudier l’ordre des occurrences en fonction

du type d’unités d’enregistrement ; enfin se développent de nos jours les études sur les

cooccurrences, c'est-à-dire l’apparition des mêmes unités d’enregistrement dans les unités

de contexte (par exemple, des mots toujours associés dans les phrases).

- Ces traitements n’ont de sens que si les unités d’enregistrement sont catégorisées (et

codées) en fonction de l’objectif de l’étude. La notion de catégorie traduit l’opération

logique de regroupement / distribution qui est appliquée aux unités, mais aussi les classes

d’unités qui sont ainsi créées110.

110 A. Lalande et ass. (1926/1972 : 125) analysent l’évolution de ce concept, du prédicat de la proposition (Aristote) et des concepts a priori de la connaissance (E. Kant) aux classes déterminées (usage courant).

Page 359: UN REFERENTIEL, POUR QUOI FAIRE

359

- On notera que d’autres modes de traitement sont possibles en fonction de l’objectif de

l’analyse, des catégories et des unités choisis : ainsi C.E. Osgood a introduit l’idée d’

« intensité », de « direction », etc. pour évaluer les attitudes. Les modes de traitement sont

ainsi propres à chaque étude.

- C’est souvent le croisement des types d’indicateurs qui autorise l’inférence, en particulier

des indicateurs langagiers avec des indicateurs de contexte : tel type de discours revient

dans tel type de situation, ou est plus utilisé par tel type d’acteurs. Les types de croisement

des indicateurs et des variables sont donc aussi importants à définir que les catégories et

les unités.

- En raison de la multitude des indicateurs langagiers (cf. chapitre 13) et de la grande

complexité des indicateurs contextuels et paratextuels (ce terme est défini au chapitre 12),

l’approche des documents est toujours, dans un premier temps, intuitive et globale.

L. Bardin parle de « lecture « flottante », par analogie avec l’attitude du psychanalyste.

Elle décrit aussi la phase de « préanalyse » qui conduit à préciser les objectifs et

hypothèses, à choisir les documents et à élaborer les premiers indicateurs.

On n’exposera pas les différentes classifications d’analyse de contenu que proposent ces

auteurs : tout d’abord la plupart des méthodes seront abordées lors des présentations qui vont

suivre ; certaines d’entre elles, comme les « mesures des attitudes » de C.E. Osgood, ont été

suffisamment critiquées et ne présentent guère d’intérêt pour la suite de nos travaux ; enfin la

classification des méthodes en trois catégories (logico-sémantiques, logico-esthétique,

sémantique et structurale) proposée par R. Mucchielli repose sur des présupposés qui ne sont

pas partagés par tous les auteurs - en particulier le rejet de la linguistique saussurienne comme

outil d’analyse -, mais aussi sur des définitions aux frontières assez floues (« logiques » et

« sémantiques » sont citées dans deux catégories) et sur l’ambiguïté de certaines notions,

comme celle de « thème », sur laquelle on aura l’occasion de revenir.

1-2) Le développement de la réflexion avec l’équipe de R. Ghiglione :

De la fin des années soixante-dix à sa mort en 1999, R. Ghiglione n’a pas cessé

d’approfondir ses réflexions sur l’analyse des contenus, à partir d’une démarche empirique,

avec la participation de nombreux chercheurs aux compétences diversifiées (statistiques,

psychosociologie, pragmatique, etc.). Les étapes du parcours de cet auteur sont donc riches

d’enseignement. Le premier ouvrage, méthodologique, est produit avec B. Matalon (1978).

Page 360: UN REFERENTIEL, POUR QUOI FAIRE

360

R. Ghiglione a alors en charge les approches qualitatives. En 1980, un nouvel ouvrage est

publié, avec les participations de J.L. Beauvois, C. Chabrol et A. Trognon. A partir

d’expériences de formation, d’intervention ou de recherche, les auteurs insistent sur le fait que

l’analyse de contenu ne peut se réaliser de façon mécanique, sans prendre en compte le

contexte de la situation d’énonciation et les particularismes des acteurs.

« (Cette démarche) propose aussi de ne pas séparer la réflexion sur les outils d’enquête ou de recherche des objectifs d’action ou d’exploration que les acteurs sociaux se donnent dans le cadre d’une organisation » (1980 : 10).

A travers l’exploitation des situations de formation ou d’intervention, les auteurs co-

construisent avec les acteurs l’analyse du contenu du discours et des interactions qui lui

donnent du sens (dimension pragmatique du discours sur laquelle on reviendra dans le

chapitre suivant).

« Ceci signifie que les paroles du groupe à propos du texte étudié ont une place centrale. L’objet de la formation n’est pas principalement de « bien » analyser un discours, mais plutôt de permettre une élucidation de la façon dont on l’appréhende, l’organise, l’interprète, autrement dit de faciliter la prise de conscience du rapport au groupe » (Idem).

L’analyse de contenu est ainsi ancrée dans une approche phénoménologique et analytique111.

La formation ne se construit pas sur le modèle d’un cours magistral, ni d’un enseignement de

techniques, mais sur l’analyse, avec les participants, des différentes significations prises par le

contenu du discours, en fonction de la situation. Il n’y a donc pas de « bonnes » ou de

« mauvaises » façons de parler, de « bonnes » ou de « mauvaises » façons d’analyser, mais un

sens qui se construit en commun. Deux grands principes se dégagent :

- celui de la « description maximale » : à partir d’un élément du texte, sont analysés tous les

rapports de référence qu’il convient d’invoquer, que ce soit par rapport à d’autres

éléments du texte ou par rapport au contexte, pour donner de la signification à cet

élément : qu’est ce qu’il veut dire ? Pourquoi a-t-il été énoncé ?

- celui de l’« adéquation tendancielle » : « une inadéquation apparente constitue le

symptôme d’une adéquation plus profonde, à édifier » (1980 : 46). Les paradoxes sont ici

des moteurs de l’analyse, dans la mesure où ils introduisent des contradictions qu’il est

possible d’opposer aux énonciateurs.

« Ces deux principes constituent les véritables pivots d’un processus d’analyse de contenu et garantissent sa double visée analytique : subjective et intersubjective, d’une part, « objective » d’autre part. Grace à eux, le processus d’analyse de contenu s’apparente à un dispositif de groupe où s’analysent la confrontation du sujet avec la parole portée par le texte, l’histoire du groupe et de ses membres dans l’ici et maintenant, la préhistoire individuelle ou institutionnelle dont la situation définit l’un des moments » (1980 : 47).

111 M. Klein est d’ailleurs évoqué (1980 : 45) en ce qui concerne les « états subjectifs vécus par les analysants ».

Page 361: UN REFERENTIEL, POUR QUOI FAIRE

361

Bien entendu cette approche est transposable aux situations d’intervention dans les

groupes, pour faire émerger certaines « difficultés » de communication, ainsi que l’illustre

l’exemple présenté en fin d’ouvrage ; ou, plus exactement, pour mettre en valeur les décalages

dans l’interprétation de la situation ou de la signification de certains énoncés : par exemple

l’interprétation d’un document prescriptif, comme un texte de loi ou une consigne de travail,

mais aussi, pourquoi pas, un Référentiel formel. L’ouvrage propose aussi deux exemples

d’usages de l’analyse de contenu en recherche appliquée : une analyse des concomitances

thématiques (conduite par R. Ghiglione et J.L. Beauvois) et une analyse propositionnelle (J.L.

Beauvois et C. Blanquet). Dans la première, les thèmes sont utilisés comme unités

d’enregistrement par rapport aux entretiens (pris comme unités de contexte) : les auteurs

étudient donc la cooccurrence des thèmes dans les entretiens, pour voir ceux qui reviennent

ensemble et ceux qui s’opposent, et ils en déduisent leur analyse. L’utilisation de certains

algorithmes mathématiques permet d’évaluer la congruence des analyses thématiques. Mais

on s’attachera plutôt ici aux limites de l’analyse thématique. L’une d’entre elles, le « statut

accordé à la fréquence », est discutée par les auteurs :

« Rien ne garantit qu’un terme fréquent est nécessairement un thème important ou à l’inverse qu’un thème peu souvent évoqué n’est pas en relation avec une représentation essentielle mais réprimée ou difficilement verbalisable » (1980 : 77). Cette question est récurrente en analyse de contenu, elle pose le problème du rapport

entre la réalité objective, les représentations des individus et les conceptions exprimées. Toute

analyse des discours conduit donc à des discussions préalables sur les objets étudiés, leurs

référents représentationnels et leur expression discursive. C’est un débat de fond qui a déjà été

évoqué ci-dessus et qui nous sert de fil directeur pour découvrir l’analyse des discours. Les

auteurs y apportent une réponse, celle d’allier cette approche à d’autres méthodes (en

l’occurrence, l’étude des représentations par une méthode projective, type T.A.T.). Mais la

principale limite, peu traitée par les auteurs, concerne le flou de la notion de « thème ». Certes

plusieurs enquêteurs conduisent ces analyses, puis des études statistiques sont faites sur la

congruence. Mais combien faudrait-il vraiment d’analystes pour que cette correction soit

significative ? Peut-on se limiter à trois, comme dans le cas de l’étude présente, et exclure

l’enquêteur moins congruent ? La méthode de l’ « analyse propositionnelle », faite lors de

l’étude suivante, est déjà une piste pour dépasser ces contradictions. J.L. Beauvois et C.

Blanquet exposent la notion de « référent-noyau », objet de recherche de ce groupe.

Page 362: UN REFERENTIEL, POUR QUOI FAIRE

362

« On fait l’hypothèse qu’il existe un nombre limité de « référents-noyaux » (…) qui interviennent dans le discours comme sujets virtuels des propositions qui les constituent. Ces « référents-noyaux » seront considérés comme autant de paradigmes que l’on peut désigner par un substantif ou un pronom personnel. Ces paradigmes sont donc les principaux sujets intervenant dans les propositions du texte. Un référent-noyau est ainsi constitué d’un terme générique (exemple : mon service) et d’un ensemble d’équivalents (équivalents paradigmatiques) explicitement prévus (…) Dans cette mise à jour des référents noyaux, l’ensemble des référents obtenus devrait réaliser un équilibre adéquat entre deux exigences : rendre compte du maximum des propositions du texte (sont effectivement perdues dans l’analyse les propositions où n’interviennent aucun des référents noyaux retenus) ; ne pas être trop important (effectivement la réécriture du texte faite en phase 2 doit être économique) » (1980 : 87).

Ces référents noyaux peuvent ensuite être confrontés (principe de la cooccurrence) ou mis en

relation avec des modalisations (cf. plus loin), ce qui permet de dégager différentes modalités

autour du même référent : par exemple, affirmative simple (il se plaint), négative simple (il ne

se plaint pas), affirmative optative (il devrait se plaindre), négative optative (il ne devrait pas

se plaindre) (1980 : 89).

Quelques années plus tard, R. Ghiglione et ses associés (1985) reprennent cette idée de

référent-noyau et en précisent les contours. L'analyse propositionnelle du discours (APD)

s'inspire de l'analyse automatique du discours (AAD) de M. Pêcheux (cf. ci-dessous), mais

elle adopte une acception beaucoup large de la notion de proposition. Celle-ci est reprise dans

l'ouvrage suivant, élaboré avec A. Blanchet :

« unité d'enregistrement et unité de contexte sont confondues dans la seule unité de découpage que nous prenions en compte : la proposition. (…) C'est la forme minimale la plus satisfaisante pour rendre compte d'un micro-univers. C'est-à-dire d'une scène peuplée à minima d'un actant qui fait l'action et de l'acte que le verbe accomplit. (…) Alors quelle proposition. Et bien ! Celle de la grammaire. Car ce que le sujet apprend lorsqu'il apprend à parler, à écrire, c'est cela. Et, à notre sens, c'est cela qui structure la mise en scène langagière courante des univers que construit le sujet. Le sujet est - vieille mais pertinente thèse – largement prisonnier du système lexicalo-syntaxique qu'il apprend, ne serait-ce que pour tenter de faire comprendre à l'autre les énoncés qu'il produit » (R. Ghiglione, A. Blanchet ; 1991 : 38, 39).

On aura l'occasion de revenir sur cette notion plus loin, on exposera seulement la

méthodologie. La première étape de l'APD consiste à identifier les unités de découpage ; la

« proposition » correspond globalement aux structures syntaxiques : propositions transitives,

intransitives, coordonnées, relatives et subordonnées, etc. Une fois le découpage

propositionnel effectué, on met en place la recherche des référents-noyaux (RN), c'est-à-dire

des « objets principaux qui peuplent l'univers mis en scène » (Idem : 48). Ces RN sont repérés

sur la « base des fréquences et des caractéristiques des termes ». Ils sont ensuite regroupés

dans des catégories en fonction des univers auxquels ils appartiennent : relations

hyperhonymes, hyponymes (par genre et catégories), antonymes (par opposition).

Page 363: UN REFERENTIEL, POUR QUOI FAIRE

363

Puis on étudie les prédicats, c'est-à-dire « ce qui est dit » sur un autre terme, avec lequel le

prédicat est en relation : un thème, un sujet, un actant, etc. Cela passe, dans un premier temps,

par l’identification de catégories verbales. R. Ghiglione en discerne trois : les « factifs »,

« renvoyant à la transcription langagière d’une action », les « statifs », qui traduisent « un état

ou une possession », les « déclaratifs », « une déclaration sur un état, une action, un être, un

objet, un sentiment »112 (Idem : 52). L’analyse verbale peut aussi porter sur les temps et les

modes des verbes, afin d’identifier les ruptures et les moments de transition. L’analyse

prédicative conduit ensuite vers une recherche des « connecteurs » ou « joncteurs », c'est-à-

dire les morphèmes (mots de jonction) qui lient des propositions entre elles (par exemple,

conjonctions de subordination et de coordination dans certains cas) ou des unités de la même

proposition (par exemple, les prépositions et conjonctions de coordination). Enfin on étudie

toutes les formes de modalisations du discours, qui modulent l’argument, soit par l’utilisation

d’adverbes, de locutions, etc. Ainsi se dégage une structure hiérarchisée du discours, dont

l’indicateur Chomskyen (phrase marker) est une schématisation possible. Ce traitement

systématique n’est, dans l’esprit de l’auteur, qu’une étape intermédiaire de l’analyse :

« Cette analyse ne prétend en aucune manière avoir une quelconque valeur logique ou linguistique. Ce qui est proposé n’est pas un instrument permettant le calcul des prédicats, c’est un mode de description des données empiriques que sont les propositions (…) Le but de l’analyse de contenu n’est pas d’effectuer un calcul exhaustif du sens, mais seulement de dégager les grandes catégories qui peuvent fournir une grille de lecture, il est suffisant de coder les propositions, réduites à un schéma prédicat/arguments » (Idem : 67, 68).

Par conséquent la collecte et le traitement des données ne sont jamais qu’une première phase

empirique, qui ne dispense nullement le chercheur, au moment de l’interprétation, de faire

appel aux paradigmes disciplinaires adaptés à l’étude de son objet. Les données de l’analyse

de contenu ne donnent aucune aperception objective de l’objet, ce sont des éléments

langagiers, systématiquement traités, qui fournissent des matériaux pour l’analyse, des

indices.

L’auteur a amorcé une troisième étape, lorsqu’il a confronté l’APD avec l’analyse

prédicative propositionnelle (APP) des cognitivistes (W. Kintsch ; J.F. Le Ny), qui ont

approfondi l’étude de ces structures prédicatives dans le but de pouvoir les observer de façon

systématique, lors de leurs protocoles expérimentaux. Il a ainsi ouvert une piste de réflexion

vers une nouvelle conception d’analyse de contenu, l’analyse cognitivo-discursive (ACD). Ce

rapprochement lui a aussi permis de préciser la notion de prédicat, et par là même la logique

de l’APD :

112 La structure prédicative et ses différentes définitions seront l’objet d’un paragraphe ultérieur.

Page 364: UN REFERENTIEL, POUR QUOI FAIRE

364

« Un énoncé minimal ou atomique est constitué d’un prédicat et d’une ou de plusieurs variables, appelés arguments. Le prédicat est un terme qui, combiné à un autre terme (argument), permet de construire des propositions simples. Les concepts correspondants à un prédicat et à un (ou plusieurs) argument(s) forment une proposition prédicative (…) Cette fonction du prédicat : dire quelque chose à propos de quelque chose, est donc une fonction de mise en relation. Elle peut être remplie par plusieurs catégorie grammaticales : verbe (l’oiseau chante), élément nominal (Socrate est un philosophe) ou élément adjectival (Jean paraît heureux) » (R. Ghiglione, C. Kekenbosch, A. Landré ; 1995 : 42, 43).

On aura l’occasion, là encore, de revenir sur ces concepts, voire de les cerner un peu

différemment de ces auteurs. Mais l’important, ici, est d’aborder en quoi ces « modèles

argumentatifs (MA) » (idem : 64) nous permettent d’appréhender les relations entre, d’une

part, les conceptions qui s’expriment à travers l’organisation du discours, d’autre part, les

représentations sociales auxquelles ce discours fait référence. Les approches cognitivistes

analysent le discours en relation avec les phénomènes de mémorisation et étudient ainsi la

fonction des conceptions dans la construction des connaissances du monde :

« L’hypothèse était ici que le stockage se présentait sous une forme propositionnelle, d’où le choix d’une unité d’analyse de type « prédicat-argument ». (…) C’est ainsi qu’apparurent des notions telles celles de schéma, de script, etc. des modèles (le modèle mental de Johnson-Laird, 1983 ; le modèle de situation de Van Dijk et Kintsch, 1983), dans les phénomènes de compréhension, du rôle des connaissances sur le monde détenues par les sujets » (Idem : 63).

Une systématisation de l’observation des formes propositionnelles apparaît ainsi être un outil

pertinent pour obtenir un aperçu des structures mnémoniques le plus souvent sollicitées lors

d’un discours. Cela ne veut pas dire l’ensemble des structures qui sont à disposition de

l’énonciateur, car celui-ci s’adapte certainement à son public et à la situation, mais, en

revanche, cela permet d’analyser les modes privilégiés par lui au cours de l’interaction.

Plusieurs concepts ont émergé de l’ensemble de ces travaux, en particulier celui de

« cohérence référentielle », « qui rend compte de la cohérence inter-propositionnelle et

également de la hiérarchisation des propositions » (Idem : 56). Chaque proposition est liée à

la précédente par la récurrence d’un ou plusieurs éléments, sur le modèle anaphorique : soit de

l’acteur dont il est question, de l’objet, du lieu dans lequel se déroule l’action, du moment de

l’action, etc. Il est possible ainsi de suivre, de façon hiérarchique, les liens de référence qui

s’opèrent entre chaque proposition (un peu comme au cinéma, d’un plan à l’autre113). Ces

liaisons peuvent être générées par des répétitions, le plus souvent en utilisant des synonymes

(R. Ghiglione – l’auteur), mais aussi se construire de façon anaphorique (pronoms personnels,

possessifs à la 3ème personne, pronoms relatifs, etc.), reposer sur des relations d’inclusion (par

exemple, orchestre – violons), sur des relations attributs – objet (l’arbre, les feuilles), etc.

Page 365: UN REFERENTIEL, POUR QUOI FAIRE

365

Il est donc possible d’observer la façon dont la linéarité du discours s’organise pour

conserver le « fil directeur » : à quel type de relations logiques est-il fait référence, dans la

construction de cette linéarité ?

« L’élaboration de cette structure peut être suivie au cours des cycles de traitement, et représentée dans un graphe de cohérence où les propositions vont apparaître hiérarchisées » (Idem : 51).

Mais cette « cohérence textuelle linéaire » n’est pas suffisante pour comprendre les liens entre

les propositions : les travaux de R.C. Schank, de A.C. Graesser et de T. Trabasso, sur la

« nature causale de ces relations », ont apporté des arguments pour confirmer une autre

hypothèse, à savoir que la cohérence textuelle est assurée par « l’enchaînement causal »

(idem : 57). On parlera alors de « cohérence textuelle globale ». Mais, ainsi que le souligne R.

Ghiglione, la relation causale « n’a d’existence que par le biais des connaissances du monde »

(Idem : 68). Pour prendre en compte cette dimension, les cognitivistes ont intégré les notions

de « modèle mental » (P.N. Johnson-Laird) ou de « modèle de situation » (T.A. Van Dijk et

W. Kintsch). Par exemple « le coup de pied était puissant et bien cadré, le but a été marqué »,

ou encore « il est tombé dans l’escalier, l’ambulance est arrivée au bout d’une heure ». Ces

inférences logiques, causale dans le premier cas, circonstancielle dans le second, font appel à

des structures cognitives, ou scripts, inscrits dans les schémas-type de notre culture. Le sens

des textes n’est perçu qu’en référence à ces schémas implicites. De la même façon, un texte

scientifique est difficile d’accès à toute personne qui n’a pas la culture disciplinaire. Il en est

de même pour suivre tout échange d’informations, à partir du moment où les discussions sont

fondées sur des opérations techniques spécifiques à une profession. On peut donc suivre le

scénario d’un discours, soit à partir des propositions intégrées les unes dans les autres, soit par

référence aux schémas-type présupposés. Les implicites liés au contexte et les représentations

sociales sollicitées peuvent ainsi être réintégrés dans l’analyse. A partir de ces deux types

d’opérations méthodologiques, deux autres concepts ont été construits, l’un par l’APP, l’autre

par l’APD : 1) la SFS (structure fondamentale de la signification), qui consiste à réduire le

discours aux seules propositions nécessaires au déroulement de l’intrigue, sans les expansions

et les commentaires, les anecdotes, les répétitions, etc. ; 2) Le NGR (noyau générateur de la

référence), « constitué par les propositions qui présentent l’évènement principal (ou les

évènements principaux) et celles qui décrivent ses causes ou ses conséquences » (Idem : 84).

Si le premier de ces concepts permet de trier les propositions centrales et les expansions, le

second différencie ce qui relève de la cohérence linéaire et de la cohérence causale.

113 On notera tout de même que c’est la narration du cinéma qui s’est modelée sur celle du discours (grammaire

Page 366: UN REFERENTIEL, POUR QUOI FAIRE

366

Parallèlement à cette analyse des processus discursifs généraux, R. Ghiglione et son

équipe ont renoué avec une démarche d'analyse automatique des contenus (AAC) (1998),

dans une perspective de mise au point d'un logiciel : TROPES. Si les auteurs y reprennent

l’approche globale proposée dans l’ACD (1995), ils s’attachent plus, lors cette nouvelle étape,

à la mise en valeur des unités observables et à leur classification, base de toute

systématisation. On a ainsi, d’une part, des axes d’interprétation, en rapport avec les

phénomènes de mémorisation, de constructions référentielles, d’intégration et de

hiérarchisation, de l’autre, une classification des unités du discours, du moins certains

principes de classification de celles-ci. L’AAC, l’APD et l’ACD ont ainsi conceptualisé trois

niveaux d’analyse, avec trois fonctions différentes : celui d’une collecte systématique des

unités (Indices), celui des processus de traitement automatique de ces données (Indicateurs)

et, enfin, celui des structures de la signification (SFS, NRG) qui intègrent les connaissances

théoriques (réseaux de concepts) et pragmatiques (modèles de situation), par présuppositions

et inférences (Critères). L’analyse de contenu offre ainsi des outils pour collecter le matériel

langagier. Mais ceux-ci sont très diversifiés et les modalités d’utilisation sont induites par

l’objet et les paradigmes disciplinaires adaptés à son étude. Pour ces auteurs, l’AC ne

constitue ainsi qu’une étape empirique, complémentaire à l’approche disciplinaire et à

l’analyse des processus implicites. L’analyse des discours, discipline marginale de la

linguistique, apporte à la fois un regard complémentaire sur ces processus implicites, à la fois

une approche plus globale des mécanismes de la signification et de la référence.

2) L'analyse des discours et la linguistique :

2-1) Quelques repères historiques :

Pour bien situer et présenter ce courant de recherche qui, en France, s'identifie autour

des ouvrages de M. Pêcheux (1969), d'O. Ducrot (1972), de D. Maingeneau (1976) et de P.

Charaudeau (1983), il apparaît indispensable de poser quelques repères historiques et de

brosser les principaux concepts d'analyse qui ont émergé. A partir du moment où la

linguistique structurale s'est imposée au début du XXème, avec l'ouvrage posthume de F. de

Saussure, elle a renvoyé vers d'autres sciences, en particulier la psychologie sociale et

la sémiologie, le soin d'étudier la « vie des signes au sein de la vie sociale » (page 280).

filmique) et non l’inverse.

Page 367: UN REFERENTIEL, POUR QUOI FAIRE

367

Deux courants complémentaires vont alors se développer, en marge des disciplines qui

occupent la majorité de l'espace (grammaire comparée, phonologie et étude comparative des

langues) : la pragmatique et la sémiologie. La première s'est développée aux États-Unis, à

partir des travaux de C.S. Peirce et de C.W. Morris, sur les règles implicites de la

communication. Qu'est ce qui fait qu'un énoncé soit interprété et compris par les pairs ? Ces

deux auteurs différencient ainsi l’interprète, destinataire du message, et l’interprétant qui fait

partie du signe. « (Un signe) s’adresse à quelqu’un... il crée dans l’esprit de cette personne un

signe équivalent... le signe qu’il crée, je l’appelle l’interprétant du premier signe ». C.S.

Peirce ouvre ainsi la voie à un domaine de recherche original sur la signification, qui consiste

à étudier le signe en tant que tel, les processus qui font que le signe fonctionne comme signe

pour tous les interlocuteurs. Il différencie le « symbole » qui est conventionnel, l’ « index »

qui est lié à ce qu’il représente, et l’icône qui partage quelques propriétés avec ce qu’il

signifie (par exemple, un plan d’architecte). Il introduit ainsi l’étude des « symboles

indexicaux » de la langue (les déictiques : je, tu, ici, etc.) qui font référence à la situation

d’énonciation. Ce courant américain a trouvé un allié de poids auprès des philosophes du

langage, en particulier J.L. Austin (1962/1970) et J.R. Searle, qui ont étudié les actes de

langage pour analyser leur fonction illocutoire. Mais c'est surtout à partir des années quatre

vingt que ces recherches se structurent, en particulier avec les travaux de C. Kerbrat-

Orecchioni (1977, 1986, 1999). La pragmatique étudie ainsi les interférences entre texte et

contexte, qui créent de la signification, ainsi que les performances énonciatives et

interprétatives. La sémiologie a un parcours un peu plus complexe. C'est surtout autour des

questions sémantiques qu'elle s'est constituée. Il est difficile d'en cerner l'origine dans la

mesure où cette question est ancienne en linguistique, mais on peut relever le tournant opéré

avec les Prolégomènes à une théorie du langage de L. Hjelmslev (1943), qui a différencié, en

particulier, le sens dénotatif, lié au lexème (mot du lexique), du sens connotatif, qui est

fonction du contexte. Dans les décennies qui suivirent, R. Barthes s'est attaqué aussi à ces

questions sémiologiques (1966), avec plus ou moins de succès si l'on prend en considération

les critiques de G. Mounin (1970), mais, du moins, avec une réflexion intéressante sur

l'analyse des narrations (1966/1985). C'est surtout A.J Greimas et L.J. Prieto qui ont poussé

les analyses dans ce domaine, avec, pour le premier, une analyse structurale de la notion de

sème ou trait sémantique (1966), alliant les propositions de B. Pottier et les concepts de L.

Hjelmslev, et, pour le second, l'étude des messages et des signaux (1966). On aura l'occasion

de revenir sur ces notions dans la suite. Mais d’ores et déjà, on voit se dégager les principaux

courants linguistiques qui ont influencé l'analyse des discours.

Page 368: UN REFERENTIEL, POUR QUOI FAIRE

368

2-2) Les différentes approches de l'analyse des discours :

La présentation ci-dessus des travaux des linguistes correspond à la classification,

proposée par D. Maingueneau, pour distinguer les diverses approches de l'analyse des

discours (1976) : l'approche « lexicologique » qui a besoin, pour se construire, des analyses et

des catégories sémantiques, l'approche « syntaxique » qui intègre, aux connaissances de la

grammaire comparée, les éléments de la grammaire générative (N. Chomsky) et de l'analyse

distributionnelle (Z.S. Harris ; 1968/1971), enfin l'analyse de « l'énonciation », qui se centre

plutôt sur l'analyse de la situation d'énonciation et les rapports entre le texte et le contexte.

L'objectif de cette classification, qu'on préfère à celle des psychosociologues, n'est pas

d'enfermer les analyses de discours dans des cadres dogmatiques, même à visée

propédeutique pour un chercheur qui découvre ce domaine, car aucune des méthodes

d'analyses des discours ne se concentre sur un seul des aspects. L'intérêt est plutôt

d'identifier : 1° les divers types de recherches linguistiques qui peuvent nous apporter des

concepts opérationnels lors de la phase de traitement ; 2° les diverses problématiques

langagières qui sont à prendre en compte pour analyser les corpus sans pécher dans l'excès de

simplicité. Pour structurer son choix de présentation, l'auteur s'est appuyé sur des conceptions

logico-linguistiques (ce qui différencie sa classification de celle proposée par R. Mucchielli) :

« La tradition de ce qu'on a pu appeler le « positivisme logique », tradition représentée en particulier par Ch. W. Morris et R. Carnap a rendu célèbre sa tripartition de la sémiotique (science des systèmes de signes) en syntaxe / sémantique / pragmatique. La syntaxe a pour tache l'étude des relations formelles entre les signes en dehors de ce qu'ils signifient et de ceux qui les utilisent, tandis que la sémantique s'intéresse aux relations entre le signe et les objets auxquels ils sont applicables ; reste la pragmatique, qui s'occupe de ce qui, dans le procès sémiotique, traite de « la relation des signes aux interprètes » » (D. Maingueneau ; 1976 : 99).

Le procès sémiotique est aussi qualifié sémiosis, « processus selon lequel quelque chose

fonctionne comme signe » (F. D’Armengaud ; 1985). Par conséquent la catégorisation de D.

Maingueneau renvoie aux trois dimensions de la signification : sémantique, syntaxique et

pragmatique (pages 452 à 455). Il s'agit là de processus et de systèmes différents, bien

qu'imbriqués les uns dans les autres, qui donnent du sens aux signifiants du discours.

L'analyste a tout intérêt à avoir une conception élaborée de ces différentes approches, même

si, dans la réalité, l'approche d'un texte est toujours a priori intuitive (lecture flottante de L.

Bardin). On abordera donc ici, tout d'abord, ces différentes propositions de façon synthétique,

avant d'approfondir les connaissances linguistiques qui constituent le cadre de référence et

donnent du sens à ces techniques.

Page 369: UN REFERENTIEL, POUR QUOI FAIRE

369

a) Les approches lexicologiques :

D. Maingeneau (1976) nous propose tout d'abord une approche des différentes

analyses du lexique (lexicologie). La lexicométrie consiste à appliquer les méthodes

statistiques, en particulier en relevant la fréquence de certains lexèmes (mots du lexique) et en

appliquant les traitements statistiques en fonction des opérations (comparaisons entre textes,

coefficients de répétition, etc.). L'auteur précise cependant qu'il existe deux approches

différentes :

« la lexicométrie « paradigmatique » qui exécute ses calculs sans prendre en considération les contextes des items, et la lexicométrie des co-occurrences, qui cherche à quantifier les environnements des items » (Idem : 24).

Enfin l'analyse factorielle a aussi pu être utilisée pour étudier les corrélations entre certains

types de vocabulaires et certains types d'acteurs, les courants politiques par exemple.

Plusieurs critiques ont abondé sur ces techniques, la plus importante étant : chaque lexème

peut avoir de multiples significations qui vont différer en fonction du contexte de son

utilisation. Mais, ainsi que le mentionne fort justement D. Maingueneau, cette critique

concerne plus la lexicométrie paradigmatique que celle des co-occurrences, qui consiste

justement à prendre en compte l'environnement lexicologique (le cotexte). On mentionnera

cependant l'intérêt de ces critiques, sur lesquelles on aura l'occasion de revenir lors de

l'analyse des phénomènes linguistiques, afin d'éviter des dérives au moment des

interprétations des données statistiques. Le fait que certains termes reviennent plus

fréquemment que d'autres n'a pas forcément de signification en lui-même : par exemple la

récurrence des « je » signifie-t-elle un discours narcissique ? Ou reflète-t-elle des modes de

communication spécifiques, en particulier lors des échanges de points de vue ou des

narrations d'expérience personnelle ? Par conséquent, 1° il n'est pas possible d'isoler l'étude du

lexique de l'analyse du contexte de l'énonciation, 2° l'étude de la récurrence des co-

occurrences apporte plus d'éléments significatifs que celle des occurrences simples, dans la

mesure où elle permet d'analyser la construction des chaînes de signification. Les travaux de

M. Reinert (2001), postérieurs à la parution de l’ouvrage de D. Maingueneau, ont approfondi

l’analyse systématique des cooccurrences dans un texte, sur la base de l’hypothèse que la

proximité des mots, « dans un même voisinage temporel », est « une trace, par leur

cooccurrence, d’une même origine topique », un même « univers sémantique ». L’apparition

proximale des mots dans un texte exprimerait donc des relations sémantiques d’appartenance

à un même univers d’éléments. Ces travaux ont conduit à l’élaboration du logiciel ALCESTE.

Page 370: UN REFERENTIEL, POUR QUOI FAIRE

370

On reviendra sur les postulats implicites de ces analyses, de ce fait sur leurs intérêts mais

aussi sur leurs limites. Les études lexicologiques qualitatives permettent de moduler les

approches statistiques, et surtout d'introduire de nouveaux éléments d'analyse qui modifient

l'interprétation. L'étude des connotations, plus exactement du « langage de connotation », par

opposition à la dénotation (le (ou les) référent(s) nommé(s) par le mot dans son usage le plus

usuel), permet d'analyser les différentes significations prises par les lexèmes en fonction du

contexte, du moins la façon dont l'articulation du texte et de ce contexte génèrent des

significations particulières. C. Kerbrat Orecchioni (1977) différencie les effets connotatifs

produits par le signifiant, c'est-à-dire par les sons, le rythme, les inflexions, tout ce qui relève

de la prosodie (par exemple, dans la poésie), et ceux produits par le signifié, qui chargent le

concept de significations supplémentaires en fonction du contexte d’énonciation. Le discours

peut être ainsi confronté aux phénomènes de la connotation, qui dégagent de nouvelles

significations. La complexité de l'analyse consiste alors à définir : 1° les phénomènes

observables en fonction du mode expérimental, 2° les phénomènes pertinents en raison de la

grande « pluralité de codes ». La classification, « provisoire », de cet auteur, élaborée à partir

de celle d’U. Eco, nous donne un aperçu des différentes pistes à prospecter et des éléments

qui peuvent être pris en compte lors de l’analyse :

« 1. Connotations dont le signifié est de même nature, mais non de même statut, que le signifié de dénotation ; 2. Connotations « stylistiques » : elles informent sur l’appartenance du message à telle langue ou sous langue particulière ; 3. Connotations « énonciatives » : elles fournissent des informations sur le locuteur (…) « sociogéographiques » (…) « émotionnelles » ou « affectives » (…) « axiologiques », révélatrices de ses systèmes d’évaluation (…) « idéologiques » ; 4. Connotations « associatives » : cette rubrique regroupe l’ensemble des valeurs sémantiques additionnelles qui naissent à la faveur des mécanismes associatifs divers (…) ; 5. Les significations implicites comme valeurs connotées » (C. Kerbrat-Orecchioni ; 1977 : 91 ; 92).

Les sens induits par connotation sont souvent perceptibles, intuitivement, dans le discours. Il

s'agit alors d'identifier les informations contextuelles, en lien avec certains éléments du

discours, pour vérifier, de façon systématique le fondement objectif de ces effets de sens114.

D. Maingueneau, par ailleurs, a mis en exergue, à partir de certains travaux, l'intérêt de définir

le type de discours dans lequel s'insèrent les lexèmes. Il cite, en particulier, J. Dubois :

« Toute analyse d'énoncés, dont dépend l'étude lexicale, implique qu'au préalable soit définie une typologie de discours. Car le type de discours dans lequel s'insère l'énoncé détermine les règles rhétoriques qui conditionnent les formes du vocabulaire » (D. Maingueneau; 1976 : 54).

114 D'où notre intervention, lors de la deuxième expérience, pour demander à l'équipe qui élaborait le questionnaire d'introduire une fiche signalétique assez fournie, d'après les items qui leur paraissaient importants.

Page 371: UN REFERENTIEL, POUR QUOI FAIRE

371

Enfin l'auteur présente les travaux d’A.J. Greimas (1966), sur lesquels nous aurons

l'occasion de revenir, en particulier sa différenciation entre le noyau sémique, « invariant

sémantique », « minimum sémique qui demeure stable à travers tous les effets de sens

possible d'un lexème », et le « sème contextuel », c'est-à-dire le trait sémantique

intrinsèquement lié au contexte (ou au cotexte), qui privilégie une signification donnée. Le

sème contextuel est donc la relation particulière entre le lexème et son contexte d'énonciation

ou son cotexte environnemental (par exemple, tête d'un arbre, tête d'un cortège, tête de ligne,

etc.). Le « sémème représente (alors) une « acception » d'un terme polysémique », il « relève

de la surface du discours » (Idem : 62). Le sémème peut aussi s'interpréter comme l'effet de

sens induit par l'articulation entre le noyau sémique et le sème contextuel. La différenciation

entre lexicométrie quantitative et qualitative est, dans le cadre de notre recherche,

particulièrement intéressante. Si la première étudie, de façon systématique, les processus de la

signification, la seconde oriente la recherche, à l'issue de ce premier traitement, vers les

processus de la référence. Effectivement l'étude systématique des co-occurrences permet

d'identifier l'environnement interne au texte, qui construit le sens des lexèmes, alors que

l'étude des connotations met en valeur les rapports de ceux-ci avec les représentations sociales

et les contraintes de production de l'énoncé, qui privilégient certaines acceptions

implicitement perçues.

b) Les approches syntaxiques :

Les approches syntaxiques regroupent, dans l'ouvrage de D. Maingeneau, surtout

l'analyse distributionnelle de Z.S. Harris et l'analyse automatique du discours (A.A.D.) de M.

Pêcheux. Mais on ajoutera, sous cette rubrique, la « grammaire de texte », que l'auteur a

préféré renvoyer dans une quatrième partie, et qui concerne les travaux sur la « cohérence

textuelle », « l'argumentation » et les « structures narratives ». L'analyse distributionnelle

consiste à observer comment les lexèmes sont répartis sur la chaîne du langage, et à

considérer comme équivalents les éléments qui peuvent se substituer les uns aux autres :

Dans l'exemple suivant : « les chats aiment les gâteaux,

les femmes aiment les gâteaux »

« chats » et « femmes » sont membres de la même classe d'équivalence par rapport à

l’environnement « aimer les gâteaux ». Il est ainsi possible de comparer les divers segments

qui sont « équivalents » et d'analyser la relation de sens avec leur environnement commun.

Page 372: UN REFERENTIEL, POUR QUOI FAIRE

372

Mais la méthode de Z.S. Harris a introduit un autre concept, repris par N. Chomsky,

celui de transformations. Afin de faciliter la comparaison entre énoncés, l'analyste propose de

transformer les énoncés dans des équivalents grammaticaux, à partir du moment où cela ne

modifie pas fondamentalement le sens : par exemple, les phrases passives en phrases actives

(ou l'inverse), les inversions sujet / verbe, un énoncé avec « nom+être+attribut » en

« nom+adjectif », la proposition relative (« qui ») en proposition introduite par une anaphore

(« il » ou « elle »), etc. Pour avoir un aperçu de cette méthode, il est possible de se reporter à

l'analyse du concept d' « indicateur », réalisé plus haut, à partir des définitions d’une

encyclopédie (pages 329 à 333). L'A.A.D. de M. Pêcheux a repris, en partie, les propositions

de l'analyse distributionnelle. Mais il introduit de nouveaux éléments dans l'analyse, en

particulier la prise en compte des conditions de production et de l'adaptation des locuteurs aux

représentations de leurs interlocuteurs (et vice-versa lors de l'interprétation du message). Par

ailleurs il adopte une décomposition de tous les énoncés en « énoncés élémentaires »115 :

« déterminant + nom + verbe + adverbe + préposition + déterminant + nom » – complétée par

une information sur la forme : voix (actif/passif), modalités, modes, temps, etc. Bien entendu

toutes les cases ne sont pas obligatoirement remplies. Par transformation, toute phrase « se

laisse décomposer en plusieurs énoncés élémentaires ». Il est ensuite possible de schématiser,

par un graphe, l'imbrication de ces énoncés les uns dans les autres, avec le type de relation

syntaxique qui les unit. On retrouve ici la notion de « cohérence textuelle linéaire » de

l’A.C.D. de R. Ghiglione, qui a emprunté sa conception de la « cohérence référentielle » à M.

Pêcheux et à l’analyse distributionnelle. On n'entrera pas ici dans les diverses critiques qui ont

été faites à ces méthodes ; il paraît plus intéressant de noter les « perspectives » apportées par

la « grammaire de texte ». La principale limite de la grammaire traditionnelle, c'est de se

borner à l'étude de la phrase. L'analyse distributionnelle et l'A.A.D., sur ce point, n'ont guère

dépassé ce bornage, même si la seconde a fait un effort de contextualisation. Les analyses de

la « cohérence du texte » permettent de sortir de cet espace réduit, et le graphe de l'A.A.D.

apparaît alors comme un modèle extensible à toute construction inter-phrases.

« Une condition nécessaire (mais non suffisante) à la cohérence de texte réside, schématiquement, dans le fait de la répétition : la structure logico-sémantique de chaque phrase est telle qu'au moins un item lexical contenu en elle, ou au moins une proposition qui peut être inférée, se trouve également à l'intérieur des phrases précédentes ; ces inférences doivent être considérées comme des liens assurant l'interprétation d'un texte cohérent » (D. Maingueneau ; 1976 : 159).

115 Cette conception de l’énoncé élémentaire de M. Pêcheux est proche de celle de l’indicateur syntagmatique (« phrase marker ») de N. Chomsky. Tous les deux se sont inspirés des schémas de phrases de Z.S. Harris.

Page 373: UN REFERENTIEL, POUR QUOI FAIRE

373

Par conséquent il existe toujours, d'un énoncé élémentaire à un autre (« proposition »

au sens de M. Pêcheux), au moins un lien lexical ou présupposé. Les énoncés se trouvent ainsi

toujours dans une « relation hiérarchique ». Ce concept reprend l'acception du terme par A.

Martinet, mais en l'étendant au delà de la phrase. Bien entendu cette hiérarchie ne se construit

pas de la même façon entre les phrases et au sein d'une même phrase où elle s'articule autour

du sujet (ou thème) et du prédicat. Elle est plus diversifiée dans ses formes et, de ce fait, plus

complexe. Mais il est toujours possible d'élaborer un graphe : les relations, symbolisées par

les flèches du graphe, sont alors analysables en tant que telles. Par exemple, entre une phrase

principale et sa relative, la relation s'établit entre le pronom relatif (qui, que, où, dont, etc.) et

l'antécédent (sujet, complément d'objet, ou autre complément, etc.) ; entre une phrase

principale et sa subordonnée, la relation s'établit autour de la conjonction, entre les prédicats

des deux phrases (dans notre langue, les verbes ou attributs du sujet) et non avec un

substantif ; dans les deux cas, il y a hiérarchie entre les phrases. Il y a ainsi des phénomènes

d'inclusion pyramidale qui permettent de suivre la construction du texte. Cette hiérarchisation

permet d'observer la façon dont les raisonnements s'intègrent progressivement les uns dans les

autres (à l'instar de l'analyse lors de l'expérience N°2). Par ailleurs elle permet intuitivement

de suivre la construction d'un argumentaire ou d'une narration. Bien que la présentation de ces

phénomènes par l'auteur induise cette voie de recherche, cette notion de hiérarchie syntaxique

a été peu développée par lui. Mais l’ouvrage de D. Maingueneau avait surtout pour objet de

brosser l’ensemble des pistes de recherche connues à son époque. Il a approfondi, en

particulier, la relation entre le langage naturel et le langage logique. Si « la fonction

fondamentale de la langue n’est certainement pas d’ordre logique » - d’autres systèmes

existent bien plus performants, en particulier l’algèbre -, il n’en demeure pas moins qu’elle est

structurée de façon logique, voire elle remplit une fonction logique en raison de cette

structuration. Par certaines comparaisons, il est possible d’illustrer la différence entre logique

et langage, par exemple l’opération d’intersection des ensembles (« ∩ ») et l’utilisation de la

conjonction « et » :

« La confrontation entre langue naturelle et langue logique permet de saisir l’irréductibilité du langage à une logique : c’est ainsi, pour prendre un exemple élémentaire, qu’on constate que le connecteur propositionnel ∩ (conjonction) est commutatif (peu importe qu’on ait A ∩ B ou B ∩ A puisque A et B doivent être simultanément « vrais ») : cependant, dans la langue la conjonction et prend souvent une valeur chronologique et interdit la commutativité » (Idem : 164).

Page 374: UN REFERENTIEL, POUR QUOI FAIRE

374

On pourrait, de la même façon, noter que l’utilisation du terme d’inclusion, pour parler

de la hiérarchie syntaxique, est un usage par extension, mais le terme n’a plus alors le même

sens que pour l’algèbre. La signification du langage ne réside pas, comme pour les symboles

algébriques, d’une univocité conceptuelle du signifiant, elle dépend aussi de la cohérence

linéaire du discours, de la référence à des schémas-type et du rapport à la situation

d’énonciation. Ainsi toute classification des connecteurs, à l’instar de celle de R. Ghiglione et

de son équipe (AAC ; 1998), apparaît artificielle puisqu’elle se fait hors contexte. Par

exemple la multiplication de connecteurs de type causal ne signifie pas, pour autant, un

discours plus argumentatif qu’un texte qui en utilise peu, la notion de causalité étant induite

par les rapports du texte (conceptions) avec les modèles de situation (représentations

sociales). Il n’en demeure pas moins que les connecteurs ont une signification instituée

lexicalement, ils n’expriment pas les mêmes fonctions logiques : ceux qui expriment la

causalité ne sont pas les mêmes que ceux qui expriment la condition, le but, l’addition, la

disjonction, etc. La logique elle-même n’a-t-elle pas puisé certaines de ses racines à partir de

la réflexion sur le langage ? La relativité du sens ne doit donc pas nous faire rejeter l’effort de

systématisation de l’AAC, elle doit seulement nous garder d’interprétations trop hâtives. Il est

de fait possible de discerner la logique d’un texte à partir de l’analyse de la syntaxe. Ceci se

fait d’ailleurs souvent, de façon implicite, dans toutes les sciences humaines, et plus

généralement dans toutes les communications à partir du moment où il y a des enjeux

stratégiques (réunions entre partenaires sociaux, études de projets, méthodes de vente,

négociations, etc.). Une étude plus formelle de la syntaxe et des types d’unités signifiantes

(termes) utilisées pour structurer le discours n’est donc pas sans intérêt. Mais, si elle fournit

un cadre général sur la façon dont est construit l’argumentaire, c’est dans l’analyse de

phénomènes spécifiques (en rapport avec la situation d’énonciation, avec les modèles de

situations, avec les univers co-textuels) que se situent les analyses les plus pertinentes sur les

stratégies discursives de l’énonciateur. Les linguistes ont peu approfondi cette question de la

structuration de l’argumentaire qui semble plutôt le terrain de prédilection des logiciens. En

revanche de nombreuses études ont eu lieu sur la structure de la narration (W. Propp, R.

Barthes, C. Brémond, A.J. Greimas, etc.). A partir d’une étude systématique sur un corpus de

contes russes, W. Propp (1970) a mis en valeur la succession de séquences narratives qui

s’enchaînent de façon nécessaire (au sens défini ci-dessus par les travaux sur la cohérence

textuelle) et que l’auteur nomme « fonction ». A.J. Greimas (1966 : 172-221) a repris cette

étude et synthétise la proposition en six fonctions essentielles, qui sont nommées « actants » :

héros (sujet), quête (objet), opposant (obstacle), adjuvant (aide), destinateur et destinataire.

Page 375: UN REFERENTIEL, POUR QUOI FAIRE

375

Ces actants peuvent être des personnages, mais aussi des animaux, des objets ou des concepts

plus abstraits. Ce terme d’ « actant » est un emprunt à la syntaxe, mais la façon dont il est

repris par l’auteur introduit un nouvel axe de recherche entre structure de surface et structure

profonde. Sa définition du concept donne toute la dimension de la problématique :

« 1. L’actant peut être conçu comme celui qui accomplit ou qui subit l’acte indépendamment de toute autre détermination. Ainsi, pour citer L. Tesnière à qui ce terme est emprunté, « les actants sont les êtres ou les choses qui, à un titre quelconque ou de quelque façon que ce soit, même au titre de simples figurants et de la façon la plus passive, participent au procès ». Dans cette perspective, l’actant désignera un type d’unité syntaxique (…) 2. (…) Ce concept d’actant est également à interpréter dans le cas de la grammaire des cas (Fillmore) où chaque cas peut être considéré comme la représentation d’une position actancielle. A cet égard, la grammaire actancielle, de type sémiotique, se présente comme une formulation plus abstraite de la grammaire des cas : située à un niveau plus profond et non soumise à une forme linguistique phrastique, elle est susceptible de rendre compte de l’organisation des discours narratifs (…) 4. Typologiquement, on distinguera à l’intérieur du discours énoncé : a) les actants de la communication (ou de l’énonciation) que sont le narrateur et le narrataire, mais aussi l’interlocuteur et l’interlocutaire (…) b) les actants de la narration (ou de l’énoncé) : sujet/objet, destinateur/destinataire ; du point de vue grammatical, on opposera ici les actants syntaxiques (inscrit dans un programme narratif donné) (…) et les actants fonctionnels (…) qui subsument les rôles actanciels d’un parcours narratif déterminé » (A.J. Greimas ; J. Courtès ; 1979 : 3 et 4).

Ainsi l’analyse des rapports « actants / actés / actions » peut s’inscrire à plusieurs niveaux :

1° Celui de deux (ou plusieurs) personnes qui communiquent, hic et nunc, dans une situation

donnée - avec ses contraintes, ses repères spatio-temporels, son organisation spatiale, etc.

2° Celui des rôles respectifs qui sont joués par les personnes en question, en raison des codes

culturels ou représentations sociales, liés à la situation donnée (par exemple, le conteur et le

public ; ou le professeur et ses élèves, etc.).

3° Celui des figures qui sont mis en scène dans le discours, actants fonctionnels et rôles

actanciels, qui signifient des êtres particuliers, qui peuvent être des personnages, mais aussi

des objets ou des concepts.

4° Celui des positions syntaxiques choisies (sujet / objet, formes passives ou actives, etc.)

pour signifier ces rôles actanciels, pour les construire en un ensemble cohérent tout le long de

la chaîne syntagmatique.

Utiliser le même terme pour signifier ses différents niveaux de l’organisation

langagière présuppose que, pour ces auteurs, l’organisation actancielle à un niveau est en

relation d’ordre avec un autre (en raison des homologies structurelles), ou du moins qu’il

existe des relations de référence entre les niveaux fondées sur ces mêmes homologies. Cette

problématique est exposée synthétiquement par D. Maingueneau :

Page 376: UN REFERENTIEL, POUR QUOI FAIRE

376

« Comme l’argumentation, la narration se présente comme un enchaînement d’actes finalisé, dont les articulations entretiennent des relations élémentaires codés ? Autrement dit, cette macro-structuration narrative organise les micro-structures linguistiques. Des difficultés surgissent : quelles règles relient ces deux niveaux d’organisation ? Comment penser les relations entre ces grammaires narratives et les grammaires linguistiques (y compris les grammaires « textuelles ») ? » (D. Maingueneau ; 1976 : 173).

Mais l’objet ici n’est pas d’approfondir une discussion complexe sur les rapports entre micro

et macrostructures, seulement de quérir quelques concepts qui favorisent notre appréhension

des phénomènes de référenciation et de signification. A.J. Greimas et J. Courtès nous en

fournissent quelques uns pour observer ces phénomènes dans les discours, en particulier ceux

d’ « isotopie » et de « débrayage » sur lesquels on aura l’occasion de revenir plus loin. Mais,

ainsi que le note D. Maingeneau, l’analyse des structures narratives aboutit, soit à des

schémas trop simples (décodage des principaux rôles actanciels), soit à des conceptions trop

complexes (articulation entre les différents niveaux de l’énonciation comme ci-dessus). Aussi

le rejoint-on quand il cite C. Brémond : le code « des rôles est sans doute le plus pauvre »,

mais aussi « à la fois le plus contraignant et les plus aisément déchiffrable ». Une première

analyse est ainsi préconisée par ces deux auteurs, elle fixe un cadre de référence dont l’aspect

culturel, inscrit dans les représentations sociales de notre société, ne doit pas nous échapper.

Ce cadre, en raison de son « caractère universel » (tout relatif, bien entendu), permet de fixer

des repères et de nous orienter vers une analyse plus fine des phénomènes qui illustrent les

stratégies discursives de l’énonciateur. Cette position est tout aussi pertinente pour l’analyse

des structures de la narration que pour celle des constructions argumentatives, même si les

cadres et la méthodologie sont sensiblement différents. Ce principe est donc extensible à

toutes les approches syntaxiques : AAD, l’APD, l’APP, l’ACD ou l’AAC, etc. Les méthodes

d’analyse systématique de la syntaxe, souvent avec l’appui de logiciel, nous offrent un

premier traitement des données selon des codes culturellement établis, soit au niveau

grammatical, soit au niveau des schémas-type. En fonction des problématiques de l’étude et

des méthodologies scientifiques appliquées aux objets de recherche, ces traitements devront

ensuite être approfondis. Cela peut passer par diverses procédures :

- Une relecture des différentes propositions sélectionnées, en fonction des traitements qui

ont été appliqués : les logiciels fournissent, la plupart du temps, un moyen de retrouver

ces propositions, ainsi que le cotexte à partir duquel les éléments ont été extraits ;

- Un repositionnement de ces propositions dans leur contexte d’énonciation, surtout si

certaines conditions de l’énonciation sont différentes entre les différents discours (par

exemple, la comparaison de discours politiques) ;

Page 377: UN REFERENTIEL, POUR QUOI FAIRE

377

- L’analyse de l’environnement textuel, soit au sein des propositions pour voir si les

significations (sèmes contextuels) sont les mêmes, soit en rapport avec les propositions

des partenaires lors des interactions langagières, en particulier le type de questions

auxquelles l’énonciateur répond : cela peut se traduire, le cas échéant, par une analyse

plus fine de l’interaction entre l’interviewer et l’interviewé.

Le langage est un média complexe, qui communique en peu de temps une foule considérable

d’informations. Seule une approche intuitive permet d’en appréhender la globalité et de

sélectionner les phénomènes pertinents en fonction des besoins de la recherche. Une analyse

systématique de la syntaxe, qu’elle soit argumentative, narrative ou, comme nous le verrons

ci-dessous, énonciative, permet d’avoir un premier aperçu des choix de l’énonciateur, en

rapport avec les modes culturels dominants de communication, au sein de notre société. En

fonction de la problématique et des objets de la recherche, celle-ci peut ensuite être affinée en

intégrant de multiples dimensions qui donnent du sens au discours, en situation. L’analyse de

l’énonciation, en particulier, ouvre une boîte de Pandore dont on essaiera d’extraire quelques

notions fondamentales.

c) Les approches de l’énonciation et la pragmatique :

Les recherches sur l’énonciation se structurent avec les premières études de C.S Peirce

sur les symboles et les indicateurs, reprises par C.W. Morris, puis par R. Jakobson. C’est E.

Benveniste qui leur a fait une place au sein de la grammaire structuraliste, dominante dans le

monde de la linguistique européenne, en étudiant les « déictiques ». Toutes les langues ont

des unités du lexique dont le sens est déterminé par le contexte de l’énonciation. Cette

catégorie de lexèmes est représentée essentiellement, dans notre langue, par les pronoms

personnels (« je », « tu », « me », « le mien », « mon »…) et certains adverbes (« ici »,

« maintenant »…), ou locutions adverbiales. La signification de ces déictiques ne peut être

établie qu’en référence avec la situation d’énonciation. De ce fait elles constituent le cadre de

référence commun aux interlocuteurs :

« Dans l’énonciation, la langue se trouve employée à l’expression d’un certain rapport au monde. La condition même de cette mobilisation et de cette appropriation de la langue est, chez le locuteur, le besoin de référer par le discours et, chez l’autre, la possibilité de co-référer identiquement, dans le consensus pragmatique qui fait de chaque locuteur un colocuteur (...)

Page 378: UN REFERENTIEL, POUR QUOI FAIRE

378

Ces conditions initiales vont régir le mécanisme de la référence dans le procès d’énonciation (...) La présence du locuteur à son énonciation fait que chaque instance du discours constitue un centre de référence interne (...) C’est d’abord l’émergence des indices de personnes (le rapport je-tu) qui ne se produit que dans et par l’énonciation : le terme je dénotant l’individu qui profère l’énonciation, le terme tu l’individu qui est présent comme allocutaire. De même nature (...) sont les indices de l’ostension (type ce, ici, etc.), terme qui implique un geste désignant l’objet en même temps qu’est prononcée l’instance du terme » (E. Benveniste ; 1974 : 82).

Cette instance de référence commune sert de repère partagée à la construction du discours.

C’est à partir de ce point commun que s’organise le reste de l’énonciation. Ainsi le temps des

verbes peut renvoyer à un passé ou un futur par rapport à cette instance. Mais d’autres

processus peuvent être mis en action, les adverbes (hier, demain, après, etc.), les compléments

circonstanciels de temps et de lieu (dans trois jours, trois jours après, etc.), les compléments

d’objets directs ou indirects (il a roulé cent kilomètres, il est parti à Paris, etc.), etc. Ces divers

phénomènes de distanciation par rapport au point de référence commun (la situation

d’énonciation) sont dénommés, par A.J. Greimas et J. Courtès, « débrayage » : temporel et

spatial, mais aussi actanciel (1979 : 79-82). Le débrayage actanciel permet de passer d’un

« je », d’un « tu » ou « vous », qui qualifient les actants de l’énonciation (énonciateur et

énonciataire) à un « je », un « tu » ou un « vous », qui entrent dans un jeu de communication

intersubjective entre un acteur et son public ; par exemple, un écrivain qui s’adresse à son

lecteur, un conteur qui interpelle le public, etc. : les déictiques expriment alors de nouvelles

positions, celles de narrateur et de narrataire. Mais un troisième débrayage peut s’opérer à

l’intérieur du discours, lors de l’expression d’une figure (personnage) : discours indirect. On

retrouve ici les mêmes niveaux que ceux évoqués lors de l’étude des actants, au sein des

structures narratives (paragraphe précédent). Mais la distanciation peut prendre une autre

forme, celle des « modalisations ». A la forme assertée qui représente le présent de

l’énonciation, des transformations modales peuvent apporter nuance et distance. « Je le fais »

est une assertion : « je le ferai » un débrayage temporel qui renvoie au futur, mais qui

conserve son caractère assertif ; en revanche, « je peux le faire », « je pourrai le faire », « je

pourrai peut-être le faire », « il se peut éventuellement que je le fasse », « il se pourrait que je

le fisse », apportent toute une gamme d’énoncés qui éloignent toujours un peu plus la

probabilité de l’acte : les modes des verbes (conditionnel, subjonctif, impératif) , les verbes

modaux (pouvoir, devoir, vouloir, savoir, etc.), les adverbes modulateurs (peut-être, sûrement,

sans doute, etc.), les locutions adverbiales (j’ai la certitude que, c’est surtout, etc.), etc. Ces

différentes formes de modulation du discours sont regroupées sous le terme générique de

« modalisations ».

Page 379: UN REFERENTIEL, POUR QUOI FAIRE

379

Débrayages et modalisations introduisent donc de la distance par rapport à la situation

d’énonciation et à l’interaction en cours, mais l’une a trait au caractère objectif, spatio-

temporel et actanciel, l’autre un caractère beaucoup plus subjectif : les modalisations

traduisent l’engagement subjectif des co-locuteurs ou des figures de la narration. L’utilisation

des déictiques et des modalisations est donc significative de la façon dont l’énonciateur

s’implique dans la situation d’énonciation ; elle exprime sa conception des rapports avec les

énonciataires auxquels elle s’adresse (M. Achouche ; 1994). Par exemple, certaines études

portent sur les débrayages du « je » au « on » ou au « nous » pour signifier le même acteur.

Ces procédure traduisent alors la façon dont l’énonciateur s’engage dans son discours : « je »

impliqué, « on » générique, le « nous » extensif, etc. En référence avec le contexte de

l’énonciation, ces formes de distanciation expriment souvent des jeux de position entre les

acteurs, en fonction de leurs places respectives dans l’organisation sociale instituée : il est

possible alors d’en déduire les conceptions de leurs rôles respectifs, c'est-à-dire les

représentations sociales qui justifient ces choix de positionnement… et éventuellement les

tensions que cela crée entre les protagonistes. Mais il importe, pour construire l’analyse, de

bien différencier la notion de « place », « ensemble de traits sociologiques » (D.

Maingueneau ; 1976 : 143), de la notion de « position », observable au cours de l’interaction

ou à travers les choix discursifs, et de la notion de « rôle », qui se traduit par des routines ou,

dans le discours, par des schémas de type narratif. Au niveau discursif, la « position »

s’observe par rapport à l’ancrage énonciatif, avec ses débrayages et modalisations, alors que

les « rôles » s’inscrivent dans des scripts narratifs116. Plusieurs remarques s’imposent :

1° il apparaît important de différencier les mécanismes de l’énonciation, de la narration et de

l’argumentation, si l’on souhaite percevoir dans le discours l’articulation entre

positionnement, représentation du rôle et critère de jugement ; on reviendra plus loin sur ces

différents « appareils » (P. Charaudeau ; 1983) ;

2° les positions et les rôles (du moins au sens des routines) sont observables au cours des

interactions, de façon ethnographique (E. Goffman ; 1973, 1974) ou ethnométhodologique (H.

Garfinkel ; 1967/2007) ; on a montré ci-dessus qu’elles le sont aussi, dans le discours des

acteurs, mais on obtient alors la conception du positionnement et du rôle, ce qui est

sensiblement différent ; il est toujours possible, quand les conditions s’y prêtent, d’adopter les

deux démarches et de confronter les observations ethnométhodologiques et les conceptions de

l’acteur, confrontation qui apparaît souhaitable pour décoder les critères réels ;

116 Les scripts sont des structures propositionnelles qui s’emboîtent les uns dans les autres, ils peuvent être soit narratifs (récits), soit expositifs (description et argumentation sur un sujet) (D. Martins, B. Le Bouedec ; 1998).

Page 380: UN REFERENTIEL, POUR QUOI FAIRE

380

3° la notion de « place » est imprécise (du moins trop générique), car elle traduit à la fois une

position objective dans l’énonciation (position au sens ethnographique) et une représentation

de la position, qui exprime un rôle implicite. Elle est empruntée à M. Pêcheux, qui la définit

en ces termes :

« L’orateur éprouve d’une certaine manière, la place de l’auditeur à partir de sa propre place d’orateur : son habileté à imaginer, à devancer l’auditeur, est parfois décisive, s’il sait prévoir en temps voulu là où cet auditeur l’attend. Cette anticipation de ce que l’autre va penser semble constitutive de tout discours » (1969 : 15). Si A est le « destinateur » et B le « destinataire », « il est bien clair tout d’abord que les éléments A et B désignent autre chose que la présence physique d’organismes individuels. Si ce que nous avons dit précédemment a un sens, il en résulte que A et B désignent des places déterminées dans la structure d’une formation sociale, places dont la sociologie peut décrire le faisceau de traits objectifs caractéristiques (…) Notre hypothèse est que ces places sont représentées dans les processus discursifs où elles sont mises en jeu. Toutefois, il serait naïf de supposer que la place comme faisceau de traits objectifs fonctionne comme telle à l’intérieur du processus discursif ; elle y est représentée, c'est-à-dire présente, mais transformée ; en d’autres termes, ce qui fonctionne dans le processus discursif, c’est une série de formations imaginaires désignant la place que A et B s’attribuent chacun à soi et à l’autre, l’image qu’ils se font de leur propre place et de la place de l’autre. S’il en est bien ainsi, il existe dans les mécanismes de toute formation sociale des règles de projection, établissant les rapports entre les situations (objectivement définissables) et les positions (représentations de ces situations) » (1969 : 18 et 19). La problématique qui est posée derrière ce concept de « place » est fondamentale. On

en perçoit l’intérêt avec les travaux du linguiste allemand W. Kummer : analyse du discours

d’un homme politique dont la position s’inscrit initialement dans une représentation officielle

(représentant de…), puis évolue vers d’autres représentations (je parle en tant que…). Les

positions et les représentations évoluent ainsi au cours du discours, ainsi que les « formations

imaginaires liées à l’auditoire » à qui celui-ci s’adresse. Mais, pour observer ce phénomène, il

semble indispensable de préciser si cette notion de « place » est :

- une représentation imaginaire inscrite dans un schéma-type, le terme de « rôle » semble

plus adéquat (que celle-ci soit verbalisée dans un script, ou implicite et non formulée) ;

- la position adoptée par l’énonciateur pour son ancrage énonciatif (je vous parle en tant

que…) ;

- la position prise dans l’interaction, en fonction des représentations sociales liées à la

situation objective (par exemple, l’enseignant qui choisit de se positionner devant son

pupitre plutôt que derrière, ou de disposer sa classe en rond)

- un ensemble de caractéristiques sociologiques (mais aussi psychologiques, ou

linguistiques, etc.) selon les canons disciplinaires, dans la perspective d’étudier un objet

social (psychologique, linguistique, etc.).

Page 381: UN REFERENTIEL, POUR QUOI FAIRE

381

Selon le niveau, l’implication du chercheur n’est pas la même ni ses modalités d’observation.

Le concept de « place » a le mérite de globaliser toute ces angles d’attaque, mais il n’est pas

assez précis au moment de l’analyse. Ainsi l’immersion dans un réseau d’animateurs

(expérience N°2) a permis d’observer les représentations (les modalités d’évaluation : outils,

quand, avec qui), mais aussi les ancrages des réponses des interviewés, et les positions de

l’équipe de la sous-commission (conception du questionnaire, discussions entre eux). Mais

cela est apparu insuffisant pour cerner l’objet d’étude. On a donc proposé à l’équipe de

rajouter une fiche signalétique. L’approche sociologique a été privilégiée, en raison de la

commande du partenaire institutionnel (conseil général). Si l’orientation de la recherche avait

été plus psychologique, cette fiche aurait été superflue et on se serait beaucoup plus attaché à

contrôler les protocoles de passation des questionnaires. Nos traditions disciplinaires de

recherche induisent donc, de fait, la situation dans laquelle s’opèrent les modes d’observation,

et, par là même, la pertinence des indices collectés. On voit donc se dégager les niveaux

évoqués ci-dessus. En sus de l’aspect réflexif des choix disciplinaires en fonction de l’objet,

qui est propre à toute approche scientifique, l’analyse de l’énonciation implique de se situer

au moins à deux niveaux : celui du positionnement des acteurs, dans leur discours, et celui de

l’observation des interactions, au cours des situations de communication. Bien entendu on

peut privilégier l’une ou l’autre entrée (le discours ou l’observation ethnographique), mais,

lors de l’interprétation, la référence aux deux niveaux est incontournable : « je » (et tous les

déictiques) ne peut (peuvent) s’interpréter que par une connaissance de la situation

d’énonciation, ou du moins par formation imaginaire de la situation dans laquelle les énoncés

sont utilisables - (par exemple, « je partirai un jour ». Qui peut dire cela ? Dans quelle

situation ?). Inversement, les routines ont besoin de la parole pour que nous puissions en saisir

la logique implicite (par exemple, « je dois faire (je fais) cela pour… », « parce que… », « par

rapport à… ») (cf. ergonomie, psychologie sociale, ethnométhodologie).

Jusqu’ici on a privilégié le niveau du discours. Ce n’est pas par négligence des

données liées au contexte de l’énonciation, mais les indicateurs de cette seconde catégorie ont

été largement présentés lors de l’exposé des théories d’E. Goffman sur les représentations

sociales. Outre la sociologie interactionniste, ces relations entre le texte et le contexte ont été

l’objet d’étude de la pragmatique. On a déjà évoqué les origines américaines de cette

discipline, avec les fondements théoriques posés par C.S Peirce et de C.W. Morris. On

s’attachera plus, ici, à présenter les travaux récents et leur intérêt pour l’analyse des discours.

Page 382: UN REFERENTIEL, POUR QUOI FAIRE

382

O. Ducrot (1989 : 13-65) a conduit une analyse conséquente du concept de « supposition », à

partir de la façon dont sa signification s’est construire au cours du Moyen-âge et de la

Renaissance, pour des raisons certes logiques mais aussi théologiques. Il a ainsi développé ses

réflexions sur les inférences, en distinguant celles qui sont propres aux représentations des

situations et celles qui dérivent de certaines règles logiques propres au langage :

« nous avons tenté de montrer que l’inférence, en tant que telle, n’a aucun droit particulier à figurer dans la description linguistique ; cela n’implique nullement que la valeur d’un énoncé ne comporte pas parfois, comme partie intégrante certaines des inférences que cet énoncé autorise (Pour parler plus rigoureusement, nous devrions dire maintenant : « certaines des inférences autorisées par la proposition ou par les propositions que cet énoncé exprime ») (…) une fois qu’on s’est débarrassé de l’idée qu’il faut à tout prix retrouver la logique dans le langage, il reste possible de chercher une logique dans le langage » (1989 : 76,77).

Les travaux de cet auteur posent les questions de la signification et de la référence en relation

avec celles de la logique. L’effet logique est-il produit par une articulation interne au langage

entre certains types d’énoncés (de structures énonciatives), ou par les relations entre les

énoncés et certains schémas-type induits par le contexte de l’énonciation. Il a mis ainsi en

valeur certaines suppositions qui sont implicites dans le fonctionnement même de l’échange

langagier, en différenciant, en particulier « présupposition » et « implication » :

« Nous distinguerons systématiquement deux sortes de suppositions confondues par Russel. Nous appellerons implication d’un énoncé les propositions qui doivent être vraies pour que cet énoncé soit vrai, et nous réserverons le mot de présuppositions pour désigner les représentations requises chez l’auditeur pour que l’énoncé s’intègre à une communication normale » (Idem : 82).

L’énoncé « le roi de France est chauve » présuppose que la France soit une monarchie, sans

quoi la discussion tourne court, l’énoncé étant tout de suite contesté par les personnes à qui il

s’adresse. Mais il implique aussi que l’interlocuteur n’ait pas l’information qui lui est

communiquée (l’attribut « chauve »), du moins que le locuteur en soit convaincu pour

exprimer cet énoncé. On voit ainsi se dégager un certain nombre de mécanismes langagiers

(sur lesquels on reviendra plus loin), qui nous suggèrent, si du moins ils se reproduisent chez

un nombre conséquent de personnes (significatif au sens de la statistique), que certaines

représentations collectives existent et induisent ces modes d’expression langagière = ces

conceptions. Certes, à l’instar de l’expérience N°1, il n’est pas forcément possible de

découvrir celles-ci dans la situation où les implicites surgissent. Mais il est permis, en

revanche, de les poser comme hypothèse pour une expérience future : en l’occurrence, dans

cette thèse, l’expérience N° 2. Ces travaux font écho à ceux du philosophe anglais, H.P. Grice

sur les maximes conversationnelles, qui consistent à ne donner que l’information nécessaire,

ni plus ni moins (cf. son célèbre article, dans Langage, en 1979, sur Logique et conversation).

Page 383: UN REFERENTIEL, POUR QUOI FAIRE

383

H.P. Grice définit ainsi, à partir des catégories élaborées par E. Kant dans sa Critique de la

Raison pure, quatre grands types de règles autour d’un principe fondamental, la coopération :

« Les partenaires d’une interaction langagière partagent en général un but commun, faute de quoi ils n’auraient aucune raison de communiquer et ne communiqueraient vraisemblablement pas. De ce principe découlent des règles dont le nombre et la spécificité ont été beaucoup discutés et reformulés (…) que Grice regroupe en quatre groupes (…) 1) quantité (on en dit autant que nécessaire mais pas plus que nécessaire) ; 2) qualité (on dit ce qu’il faut comme il faut, c'est-à-dire surtout avec sincérité et sur la base

d’informations suffisantes) ; 3) relation ou pertinence (on dit des choses pertinentes pour l’interaction, des choses ayant

rapport à la conversation) ; 4) modalité (on parle intelligiblement, sur le ton qu’il convient) » (P. Blanchet ; 1995 : 48 ; 49).

Toute transgression de ces principes génère des implicites, voire des sous-entendus. C.

Kerbrat-Orecchioni (1986) a approfondi la réflexion sur cette notion d’implicite. Elle

différencie cependant « présupposés » et « sous-entendus ». Dans le terme de

« présupposés », elle regroupe « toutes les informations qui, sans être ouvertement posées (i.e.

sans constituer en principe le véritable objet du message à transmettre), sont cependant

automatiquement entraînées par la formulation de l’énoncé » (1986/1998 : 25). On retrouve

ici la même signification que celle proposée par O. Ducrot. C. Kerbrat-Orecchioni distingue,

eu sus, les présupposés pragmatiques, « concernant les « conditions de félicité » (…), qui

doivent être réalisées pour que l’acte de langage que prétend accomplir l’énoncé puisse

aboutir » (Idem : 36) et les présupposés sémantiques qui sont liés au contenu des propositions.

Les sous-entendus sont « les informations qui sont susceptibles d’être véhiculées par un

énoncé donné, mais dont l’actualisation reste tributaire de certains particularités du contexte

énonciatif » (Idem : 39). On retrouve ici l’idée de « sème contextuel » d’A.J. Greimas. Par

conséquent les « sous-entendus » sont fortement induits, voire « assimilables », à des « traits

de connotation » (idem : 45). L’auteur en déduit que les présupposés sont décodés par la

compétence linguistique117, alors que les sous-entendus font appel à des processus qu’elle

nomme « compétences encyclopédiques des sujets parlants » (idem : 41). On aura l’occasion

de préciser ces concepts lors de la discussion sur les dimensions de la signification, mais,

d’ores et déjà, on remarque que la classification entre approches lexicologiques, syntaxiques

et énonciatives, qui constitue certes un cadre méthodologique pratique en raison des modalités

d’approches différentes du matériel discursif, ne peuvent être cloisonnées. L’observation

systématique des unités signifiantes n’est interprétable qu’avec une approche globale du

contexte de l’énonciation. Cette approche a besoin, réciproquement, de s’appuyer sur un

décodage lexicologique qualitatif pour objectiver les effets de sens intuitivement perçus.

Page 384: UN REFERENTIEL, POUR QUOI FAIRE

384

Les travaux des linguistes ont donc l’intérêt de préciser le cadre qui oriente la collecte

des informations pertinentes, et qui leur donnent de la signification pour une analyse plus

globale. Ainsi, dans La conversation, C. Kerbrat-Orecchioni (1996) présente différents

phénomènes langagiers, en fonction des règles conversationnelles, des interactions sociales et

du contexte. Elle étudie aussi certaines stratégies énonciatives, comme le « trope

communicationnel », qui consiste à s’adresser à une personne pour communiquer vis-à-vis

d’une autre qui est à proximité. Elle analyse ensuite différents mécanismes qui sont intégrés

au cours d’apprentissages sociaux, comme les systèmes de tours de parole, l’organisation

structurale des conversations, les relations interpersonnelles et la politesse. Elle ouvre ainsi

des pistes pour une typologie des « styles communicatifs ». Cette même logique prélude à ses

recherches sur L’énonciation, où l’étude des « faits énonciatifs pertinents » (1999 : 174)

conduit à « leur exploitation pour une typologie », soit entre les différentes séquences

textuelles (idem : 179), soit entre différentes unités textuelles pour mettre en valeur les

principes d’opposition (idem : 188), soit entre différents ensembles textuels pour définir des

genres (idem : 189). L’auteur montre aussi les limites de ces typologies et les précautions à

prendre. On notera cependant que la typologie des styles communicatifs (1996) ne se construit

pas à partir des mêmes phénomènes et n’a pas la même fonction que celle des structures

énonciatives (1999). Dans le premier cas, il s’agit d’étudier les représentations sociales mises

en œuvre dans une société donnée :

« On peut en effet raisonnablement supposer que les différents comportements d’une même communauté obéissent à quelque cohérence profonde, et espérer que leur description systématique permette de dégager le « profil communicatif », ou ethos de cette communauté (c'est-à-dire sa manière de se comporter et de se présenter dans l’interaction – plus ou moins chaleureuse ou froide, proche ou distante, modeste ou immodeste, « sans gêne » ou respectueuse du territoire d’autrui, susceptible ou indifférente à l’offense, etc. » (C. Kerbrat-Orecchioni ; 1996 : 78).

On peut faire l’hypothèse que ces phénomènes, mis en valeur au sujet des cultures nationales,

existent aussi de façon plus subtile au sein des cultures professionnelles. Il est alors fort

prévisible qu’ils s’immiscent dans le jugement des examinateurs au moment des situations

d’évaluation, phénomènes mis à jour par les entretiens avec des examinateurs (C. Bélisson ;

2012). En revanche, lorsque l’auteur propose une typologie des objets textuels, il s’agit de

mettre en place des méthodes d’analyse de l’énonciation : dans un premier temps, discerner

des axes d’analyse de l’énonciation, dans un second temps, observer certaines oppositions,

dans un troisième temps, construire « par abstraction généralisante » des « genres discursifs ».

117 D.H Hymes (1973/1991) apparaît plus précis quand il parle de « compétence de communication ».

Page 385: UN REFERENTIEL, POUR QUOI FAIRE

385

L’hypothèse la plus plausible est que les genres préconisés implicitement lors des épreuves

sont en congruence avec les représentations sociales du milieu professionnel. Mais il ne faut

pas confondre les deux niveaux d’analyse. Selon les épreuves, les genres peuvent varier, les

représentations sociales ne se transforment pas pour autant, seulement certains éléments sont

privilégiés à d’autres. Les discussions qui ont lieu lors des régulations entre correcteurs, au

cours des examens, sur l’aspect significatif de tel ou tel élément discursif ou de tel ou tel

comportement, par rapport au contexte, laisse présumer que cette relation entre énonciation et

représentation est le produit d’une co-construction progressive du microcosme, au cours

d’âpres négociations. Ce sont alors celles-ci qu’il convient d’analyser pour dégager les

référentiels réels.

Les relations entre le niveau de l’énonciation et le niveau des représentations sociales

est donc un champ de recherche assez complexe. La façon dont les styles communicatifs se

structurent n’est pas forcément en osmose avec les formes de l’énonciation, qui expriment

certains choix de positionnement. Il s’agit plutôt d’une articulation réciproque qu’il convient

d’étudier. Par exemple, le fait que la différenciation entre le « tu » et le « vous » du français

n’existe pas en anglais ne signifie pas pour autant une plus grande proximité, ou une remise

en cause plus grande de la hiérarchie sociale : ainsi que le souligne C. Kerbrat-Orecchioni,

« une même société peut, à l’instar de la société américaine, adopter un mode relativement

distant d’un point de vue proxémique, et proche en ce qui concerne ses normes d’adresse. »

Pour avancer sur cette question, on s’intéressera maintenant à certaines recherches qui ont

analysé ces articulations complexes entre l’énonciation et les représentations sociales, en

particulier celles de J. Austin sur les actes de langage et sur l’énonciation performative, et à

celles de J.R Searle. A travers douze conférences, J. Austin, philosophe du langage, a

développé un point de vue original pour l’époque en recherchant les « circonstances

appropriées » et les cas « où dire une chose, c’est la faire (…) Ou encore des cas où par le fait

de dire (by saying) ou en disant (in saying) quelque chose, nous faisons quelque chose »

(1962/1970 : 47) : par exemple, baptiser un bateau, léguer, parier, promettre, etc. Il définit

ainsi ce qu’il nomme une « énonciation performative » et étudie les conditions dans lesquelles

elle est réalisable (idem : 79) :

« Pour qu’il y ait énonciation performative (…) il faut que cette énonciation effectue une action (ou fasse partie de cette effectuation). Or seules les personnes peuvent effectuer des actions ; et dans les cas étudiés, il apparaît clairement que celui qui formule l’énoncé est celui qui effectue l’action » (1962/1970 : 84).

Page 386: UN REFERENTIEL, POUR QUOI FAIRE

386

Il analyse ensuite tous les dispositifs du discours qui peuvent entrer en ligne de compte dans

l’acte performatif : modes, ton de la voix, rythme, insistance, locutions adverbiales, particules

de relation, phénomènes qui accompagnent l’énonciation, circonstances de l’énonciation

(Idem : 95 ; 96). Il en arrive ainsi à définir la notion d’ « acte illocutoire », c'est-à-dire « un

acte effectué en disant quelque chose, par opposition à l’acte de dire quelque chose » (Idem :

113). Il parle ainsi de « valeur illocutoire d’une énonciation » et de « nature illocutoire de

l’acte » (Idem : 152). Mais l’acte illocutoire n’est performatif que dans la mesure où il entre

dans des cadres culturels intériorisés par les membres de la communauté et qu’il est effectué

par une personne reconnue apte à l’effectuer. « L’acte illocutoire, ne l’oublions pas, est un

acte conventionnel : effectué en tant que conforme à une convention » (Idem : 117). L’auteur

oppose ainsi l’acte illocutoire, d’une part à l’acte locutoire, qui énonce simplement un constat,

d’autre part à l’acte perlocutoire, qui utilise le langage « dans le dessein, l’intention ou le

propos de susciter des effets » sur l’auditoire. L’acte illocutoire est un « faire », l’acte

perlocutoire est celui qui provoque le « faire » :

« Nous avons distingué l’acte locutoire (…) qui possède une signification ; l’acte illocutoire où le fait de dire a une certaine valeur ; et l’acte perlocutoire qui est l’obtention de certains effets par la parole » (1962/1970 : 129). Lors de la douzième et dernière conférence, il propose une classification des verbes

utilisés dans le cadre des énoncés performatifs. Les verdictifs sont caractérisés par un verdict,

le fait de « se prononcer sur ce qu’on découvre à propos d’un fait ou d’une valeur »

(estimation, évaluation, appréciation) ; les exercitifs par « l’exercice de pouvoirs, de droits ou

d’influence » ; les promissifs par la promesse, la prise de charge de quelque chose ; les deux

dernières classes, plus complexes à définir, correspondent à des comportements sociaux

(excuses, recommandations, etc.), ce sont les comportatifs, et des positionnements

argumentatifs ou conversationnels pour définir « dans quel sens sont employés les mots », ce

sont les expositifs. Mais, ainsi que le souligne P. Blanchet, « le problème principal est qu’il

classe non pas des actes mais des verbes » (1995 : 34). L’intérêt de J.R. Searle est de s’être

recentré sur des « critères explicites extérieurs au signe » (idem) : le but de l’acte, l’état

psychologique exprimé, le statut des interlocuteurs, leurs intérêts respectifs, la force

illocutoire, la possibilité d’accomplir l’acte, etc. Il en déduit cinq catégories : assertifs,

directifs, promissifs, expressifs, déclaratifs. On aura l’occasion de revenir sur ces catégories

lors de la discussion sur les prédicats. Mais, d’ores et déjà, on constate qu’une catégorisation

des verbes (plus exactement des prédicats), en rapport avec les circonstances de l’énonciation,

permet d’analyser la façon dont les actes sont posés au cours des interactions (J.R. Searle).

Page 387: UN REFERENTIEL, POUR QUOI FAIRE

387

La catégorie des verdictifs est particulièrement intéressante pour notre recherche, mais la

classification de J. Austin est trop dépendante du contenu. Elle repose plus sur une

classification taxonomique que sur une classification fonctionnelle : rapports entre la structure

du discours et le contexte de l’énonciation. Le nouvel axe de recherche ouvert par ces deux

auteurs (les circonstances de l’énonciation performative) a tout de même bien balisé le chemin

pour identifier la façon dont les acteurs construisent leurs critères, c'est-à-dire les formes de

raisonnement discursif en rapport avec les actes qu’ils auront à poser. Mais les phénomènes

étudiés par J. Austin sont trop réduits : ce dernier s’est centré sur le discours à la « première

personne du singulier de l’indicatif présent, voix active » (1962/1970 : 85). Il nous faudra

donc élargir un peu la recherche pour découvrir les relations entre représentations sociales et

constructions discursives (conceptions) qui engendrent les actes illocutoires et perlocutoires.

En analysant les « dispositifs du discours » qui génèrent les « circonstances appropriées » à

ces actes, J. Austin puis J.R. Searle ont posé le cadre de cette analyse.

Nous avons donc discerné trois principales approches pour analyser les discours, avec

des modes de collecte et des fonctions différentes. Les méthodes lexicométriques consistent à

observer et à comptabiliser, dans un contexte donné, des unités discursives, qui sont

déterminées en référence à un objet à étudier (sa définition et sa fonction dans le contexte).

Elles peuvent être langagières ou extra-langagières (intonations, mimiques, situations, etc.),

selon que l’étude porte sur les dimensions dénotatives ou connotatives des unités. Cependant

l’expérience a montré que de simples dénombrements n’ont guère de sens : celui-ci se

construit dans les relations entre unités, soit entre les unités langagières du texte

(signification), soit entre des unités langagières et des unités de contexte (référence). Le

deuxième type de méthodes porte sur les structures syntaxiques à partir du modèle

propositionnel et des relations au sein de ces propositions, ou entre celles-ci. Elles

présupposent l’existence de correspondances logiques entre structures de surface et structures

profondes. Elles s’appuient sur le décodage de certaines règles logiques : cohérence textuelle,

parcours narratifs, etc. Elles permettent ainsi de suivre le cheminement de l’énonciateur, que

celui-ci soit descriptif, argumentatif ou narratif. Enfin le troisième type de méthodes se

préoccupe surtout de la structuration du discours, en référence au contexte de l’énonciation :

soit l’ancrage du discours et les différents plans (isotopies, débrayages), soit les divers modes

d’interactions qui induisent le sens du discours, soit les formes illocutoires et perlocutoires qui

expriment l’intention des acteurs. Si les modes de collecte et de traitement sont différents, les

objets discursifs sont les mêmes, et les approches apparaissent, de ce fait, complémentaires.

Page 388: UN REFERENTIEL, POUR QUOI FAIRE

388

3) Analyse de contenu et analyse des discours, première synthèse :

A la suite de cet exposé sur les différentes méthodologies de traitement du matériel

langagier, deux questions se posent à nous :

� Qu’est ce qui différencie fondamentalement les deux démarches ? Et en quoi sont-

elles complémentaires ?

� Qu’est ce que nous apporte chacune d’entre elles pour observer les processus cognitifs

qui nous intéressent : signification et référence ?

3-1) La complémentarité des deux approches :

Depuis l’analyse distributionnelle de Z.S. Harris et les premières recherches

lexicométriques du laboratoire de l’E.N.S. de Saint Cloud, les méthodes d’analyse de contenu

se sont multipliées. L’expansion de l’informatique n’est pas neutre dans cette généralisation,

la plupart des recherches ont été adossées à des traitements des informations par procédures

informatisées : APP (logiciel LSA), ACD et AAC (logiciel TROPES), univers sémantiques

(logiciel ALCESTE), etc. Cela a permis, sans aucun doute, d’avoir une approche empirique

systématique du matériel langagier et d’introduire de nouvelles problématiques linguistiques

face aux difficultés rencontrées par chacune de ces approches. Chaque logiciel privilégie

certaines procédures de traitement, en fonction des conceptions des créateurs et de leurs

présupposés méthodologiques. Par exemple, M. Reinert (2001) justifie ces procédures de

traitement (recherche automatique des mots qui apparaissent de façon conjointe dans les

mêmes unités de co-texte) en raison de son hypothèse sur l’existence d’univers sémantiques.

De même le logiciel TROPES de l’équipe de R. Ghiglione s’appuie principalement sur

quelques procédures : découpage propositionnel, fondé sur le modèle de l’AAD de M.

Pêcheux, et hiérarchie des propositions ; classification hypero/hyponomique des lexèmes

(classification typologique des mots par univers sémantiques) ; classification grammaticale

des unités langagières (verbes, pronoms, connecteurs, modalisations, etc.). L’articulation de

ces procédures permet d’avoir un aperçu rapide des propositions, en fonction des types de

lexèmes, morphèmes (mots grammaticaux), déictiques ou prédicats. Elle permet aussi

d’opérationnaliser la notion de référent-noyau et la construction hiérarchique du discours.

Page 389: UN REFERENTIEL, POUR QUOI FAIRE

389

Dans tous les cas, chaque procédure a ses limites : elle n’offre qu’un aperçu des structures

syntaxiques, et les processus cognitifs sont à inférer à partir de ces données primaires.

Certaines procédures automatisées s’intègrent dans des paradigmes disciplinaires comme

ceux de la psychologie cognitive, tant par les modes de collecte (MEO) que pour

l’interprétation des résultats (MCP) : mémorisation, intégration, scripts, etc. Ces modèles

apportent ainsi de précieuses informations sur les mécanismes cognitifs à l’origine de la

signification ; mais ils sont limités aux applications de la discipline et ils sont difficilement

généralisables, pour les autres objets de recherche.

C’est certainement à ce stade qu’intervient l’analyse des discours. La démarche des

linguistes est différente de celles des psychosociologues. Ils abordent globalement l’étude des

processus de la signification et de la référence, à partir des structures conceptuelles et des

connaissances mises à jour au sein de leur discipline. Ils apportent ainsi des outils d’analyse

qualitatifs sur les matériaux collectés : ancrage déictique, actes de langage, formes

prédicatives, éléments contextuels et para-textuels, etc. Leur démarche ne consiste pas à

systématiser la collecte d’informations, à l’instar de l’analyse de contenu, mais, à partir du

matériel textuel à disposition, à étudier les « structures sémiotiques », les systèmes et les

processus qui génèrent du sens. Les travaux d’A.J. Greimas sont significatifs de ce type de

recherche, mais on peut aussi citer ceux de P. Charaudeau ou de C. Kerbrat-Orecchioni, qui

discernent des structures générales pour analyser le matériel discursif et le situer par rapport à

certains enjeux de communication sociale. Les données acquièrent ainsi du sens, par le média

des cadres linguistiques, et on évite ainsi des interprétations trop hâtives, uniquement fondées

sur un empirisme parfois trompeur. Réciproquement, la systématisation de la collecte et

l’analyse des phénomènes langagiers à partir de ces procédures automatiques ont l’intérêt

d’apporter du matériel empirique aux études des linguistes. Pour structurer la grammaire

comparée, les linguistes de l’époque structurale ont puisé leur matière dans la diversité des

différentes langues, ils ont ainsi étudié les constructions phonétiques et grammaticales de

celles-ci. En revanche l’appréhension de la structure sémiotique, c'est-à-dire de la sémiosis

productrice de sens, éprouve bien des difficultés à trouver du matériel empirique pour asseoir

systématiquement les études, qui sont souvent fondées sur un assemblage d’expériences

diverses. Les problématiques autour de la signification et de la référence sont complexes et

imbriquées, globalité qui explique sans doute l’éclatement des recherches. L’analyse de

contenu apporte donc situations et contenus, et l’analyse de discours des cadres théoriques.

Dans un premier temps, certaines problématiques ont été posées et théorisées par la

pragmatique, à partir de l’analyse des phénomènes indexicaux (C.S. Peirce et C.W. Morris).

Page 390: UN REFERENTIEL, POUR QUOI FAIRE

390

Les études narratives des contes ont fait surgir de nouvelles problématiques autour de

la fonction structurelle du scénario dans la construction du sens (W. Propp ; 1970 ;

A.J.Greimas ; 1966). Mais les développements sémiologiques à partir de cette première phase

n’ont guère été concluants (R. Barthes ; 1966) ou se sont avérés très laborieux (A.J. Greimas ;

J. Courtès ; 1979). L’étude de quelques systèmes de codes ont permis d’approfondir notre

connaissance de certaines règles sémiotiques, certains principes d’oppositions sémiques et

certaines structures sémantiques (G. Mounin ; 1970 ; L.J. Priéto ; 1966 ; 1975), mais la langue

est un système bien plus complexe que les codes, en particulier en raison de la polysémie des

unités langagières. Les traitements par les logiciels et les différents modes de collecte des

données ont alors l’intérêt d’interroger les structures de la signification et de la référence, de

façon empirique, avec des matériaux fiables. C’est ce tournant qui a été opéré par les

cognitivistes - en particulier N. Chomsky lorsque, à partir des matériaux fournis par les

analyses systématiques de Z.S. Harris (1968/1971), il développe son concept de

« transformation » et son étude de la « grammaire générative ». Certes il s’inspire de la

linguistique cartésienne de Port Royal (1966/1969) pour affirmer ses concepts de structure

profonde et de structure de surface, de compétence et de performance. Mais son analyse du

matériel langagier n’a pris corps qu’avec les problématiques posées par l’analyse automatique

des discours et surtout la recherche des structures mathématiques du langage. Il ne s’agit pas

ici de prôner un empirisme linguistique naïf, mais seulement d’évoquer certaines perspectives

consistant à articuler des questionnements linguistiques, du matériel langagier

systématiquement collecté selon des procédures réfléchies, l’étude d’objets sociologiques ou

psychologiques bien définis, et des préoccupations quotidiennes à l’origine des

problématiques. Cette voie ne serait-elle pas féconde ?

1° Elle permet l’ouverture de la sémiologie aux autres sciences à travers des objets d’étude

sociologiques ou psychologiques (ouverture préconisée par F. de Saussure) ;

2° elle s’appuie sur des comparaisons systématiques et fiables ;

3° l’élaboration des procédures de collecte est liée à une réflexion sur les problématiques des

disciplines concernées, ainsi que de la linguistique ;

4° le matériel collecté est rassemblé en fonction des préoccupations de pratiques ordinaires.

Une telle démarche permet de préciser le concept de « compétence » au-delà de la

seule acception chomskyenne : l’extension à toutes les dimensions des compétences de

communication, telles qu’elles sont conçues par D.H. Hymes et C. Kerbrat-Orecchioni. La

question est maintenant d’en cerner la pertinence pour les sciences de l’éducation.

Page 391: UN REFERENTIEL, POUR QUOI FAIRE

391

3-2) L’intérêt de ces méthodes pour l’étude des référentiels implicites :

Pour étudier un objet aussi complexe que les Référentiels, nous avons besoin d’une

approche globale : il est difficile d’en comprendre le fonctionnement sans interroger les

différentes dimensions et les différentes articulations entre celles-ci. Réciproquement, nous

avons besoin de cadres disciplinaires assez rigoureux pour analyser les phénomènes de façon

assez fine et percevoir les relations qui s’établissent entre les différents éléments. C’est à cela

que sont destinées les méthodes d’analyse des contenus et des discours. Mais les méthodes ne

font pas l’objet, elles apportent chacune des outils pour étudier certains attributs de celui-ci.

L’intérêt de la pragmatique a déjà été largement étayé par les discussions sur les

représentations sociales et sur les règles conversationnelles, qui sont fondamentales pour la

communication entre les membres d’une même communauté culturelle. Elles donnent du sens

à de nombreuses actions, dite « de socialisation », qui sont mises spontanément en œuvre par

les enseignants, en particulier à la maternelle et dans le primaire, mais aussi dans certains

contextes éducatifs comme les activités culturelles, sportives, les accueils de loisirs, les

séjours de vacances, etc. : tours de parole, règles de politesse ou du moins de respect d’autrui

(ce qui revient au même), règles conversationnelles, positionnements au cours des

interactions, etc. L’étude de ces phénomènes offre une substance empirique à la notion de

« curriculum caché » de P. Perrenoud. Il est difficile de penser que, lors des évaluations, ces

compétences de communication n’entrent pas en ligne de compte, de façon implicite, dans les

interactions entre les évaluateurs et les candidats (que ce soit lors d’examens, d’entretiens

d’embauche, de soutenances). Les appréciations portées lors de l’expérience N° 1 nous ont

conduit à formuler des hypothèses qui vont dans ce sens : elles suggèrent que des

considérations de ce type sont prises en compte lors des évaluations, surtout dans les

professions éducatives où les postulants ont à transmettre ces règles aux jeunes générations.

Mais comment identifier ces modes de communication implicites et, surtout, les critères de

jugements sur ces « façons de faire » dans le discours des acteurs. Les philosophes du langage

ont ouvert une piste intéressante en étudiant les « dispositifs du discours » qui favorisent les

énonciations performatives, c'est-à-dire les formes d’expression qui accompagnent les actes

que les personnes ont à poser : l’évaluation fait partie de ces actes illocutoires, qui ont une

certaine valeur pour la société. Mais leurs recherches se sont beaucoup centrées sur certaines

formes d’énoncés, en particulier la première personne de l’indicatif présent (je décrète, je

certifie que, je l’évalue à, etc.). L’analyse de l’énonciation permet d’élargir le champ

d’étude de ces formules en nous orientant vers d’autres indicateurs performatifs du discours.

Page 392: UN REFERENTIEL, POUR QUOI FAIRE

392

Il n’est pas besoin de dire « j’évalue à », « j’estime que » ou « je le crédite de tant »,

pour porter un jugement de valeur, celui-ci apparaît aussi dans diverses formes discursives :

les modalisations adverbiales, les modes temporels ou les verbes modaux, ont été relevés par

J. Austin (1962/1970 : 94, 95). On précisera ces notions dans le paragraphe sur les prédicats.

Mais il est aussi possible de connaître certaines circonstances prises en compte par les acteurs

à travers leur description (compléments circonstanciels, phrases subordonnées, etc.). Enfin les

ancrages discursifs expriment souvent le positionnement privilégié face aux objets dont il est

question dans le discours. L’analyse de l’énonciation permet ainsi de discerner les modes de

raisonnement qui conduisent à l’acte d’évaluer, voire à celui de prendre une décision (et quel

type de décision) si les conditions s’y prêtent. C’est cette structure méthodologique qui servira

de cadre à toute approche pour analyser les conceptions de l’évaluation proposée par les

acteurs. Mais celle-ci pourra s’appuyer sur les autres approches pour approfondir l’étude.

L’analyse syntaxique est un moyen de suivre le cheminement logique de l’énonciateur à partir

des points d’ancrage qu’il adopte pour situer son discours dans le contexte de l’énonciation.

Elle permet de saisir, de façon plus précise, la progression (le scénario ou le script) et

d’analyser les différents plans de celle-ci (les isotopies). Elle permet aussi d’observer la

cohérence qui est mise en œuvre entre les propositions, le fil directeur de l’énonciation, mais

surtout les types de rapports logiques qui sont sollicités pour créer cette cohérence. Ceux-ci

seront soit internes au texte, grammaticaux (comme les anaphores, les conjonctions) ou

sémantiques (comme les relations taxinomiques entre un terme générique et un terme de la

classe), soit externes au texte, en référence au contexte ou à des schémas-type induits par

celui-ci. On retrouve ici l’articulation entre les phénomènes de signification et de référence,

exposée à travers le modèle des niveaux de référenciation (pages 274 à 285). Cette analyse

syntaxique permet ainsi d’observer, quand elle est systématique au sein d’une population

donnée / ou dans une situation donnée, les logiques et les références implicites de celle-ci /

adaptées à celle-ci. Elle permet aussi, par là même, de comparer les logiques adoptées par

deux populations sociologiquement différentes. L’approche lexicologique apporte alors un

troisième type d’informations, qui vient compléter soit l’approche énonciative, soit l’approche

syntaxique. Dans le cas de la première complémentarité, on a déjà évoqué l’approche

qualitative qui consiste à relever les éléments qui déterminent le contexte connotatif de

l’énonciation (cf. C. Kerbrat Orecchioni ; 1977). Elle permet de discerner les acceptions

adéquates des lexèmes qui signifient les objets du discours : les sèmes contextuels pertinents

pour reprendre l’expression d’A.J. Greimas.

Page 393: UN REFERENTIEL, POUR QUOI FAIRE

393

De fait, ces connotions offrent aussi des informations sur certains traits sémantiques

privilégiés, qui ont une connotation évaluative, par exemple péjorative ou, à l’inverse,

surdéterminée : par exemple, le choix des termes utilisés pour parler des candidats ou de

certains objets de l’évaluation. Ces connotations offrent ainsi des informations sur les

relations mises en œuvre par l’énonciateur dans ses interactions avec les candidats (par

exemple, discrimination entre candidats) ou dans son positionnement vis-à-vis des objets de

l’évaluation (par exemple, critique des compétences d’un Référentiel prescrit). Dans le cas de

la seconde complémentarité, les relations inscrites dans le discours entre certains termes et

attributs (être, avoir) ou fonctions (faire) déterminent le sens qui est donné par l’énonciateur à

ces signifiants, c'est-à-dire sa conception de ces termes (par exemple, certains objets de

l’évaluation : qu’est ce qu’une « compétence » pour cet acteur ?). Ces informations peuvent

être quantitatives ou qualitatives, fondées sur des rapports de cooccurrence ou de connotation.

Mais l’observation de ces relations de cooccurrence n’a guère de sens si elles ne sont

collectées que de façon quantitative, sans être réinscrites dans les formes discursives. Ce sont

les rapports avec les constructions logiques identifiées à partir de l’analyse syntaxique, qui

nous permettent de saisir la façon dont les référents, signifiés par les termes, sont inscrits dans

les schémas-type de l’acteur : par exemple, la façon dont la compétence est observée

(attributs), la façon dont elle est mise en application (dans quelles circonstances), l’intérêt de

l’évaluer (sa fonction), etc. Ainsi aucune de ces approches ne permet d’inférer de signification

assez complète sans faire appel, de façon plus ou mois explicite, aux autres. Lorsque des

approches lexicologiques sont mises en œuvre, les données quantitatives ne sont pas

concluantes en elles-mêmes, elles sont toujours interprétées en référence aux circonstances de

l’énonciation ou en fonction de schémas-type implicites (représentations sociales), qui

donnent du sens à ces données. N’est-il pas alors préférable de chercher ces cadres logiques,

indispensables à l’interprétation, dans les propres constructions des acteurs, que celles-ci

soient énonciatives (par exemple, la structure du questionnaire dans l’expérience N° 2) ou

syntaxiques (la structure syntaxique des réponses) ?

Les trois démarches sont donc complémentaires : les approches lexicologiques sont à

privilégier pour discerner les significations des concepts utilisés, les approches syntaxiques

pour analyser les raisonnements logiques implicites du locuteur, les approches énonciatives

pour étudier la façon dont le discours s’intègre dans les situations : les positions de

l’énonciateur vis-à-vis des contraintes énonciatives du contexte, mais aussi vis-à-vis de la

situation décrite par le discours. Il ne faut pas en déduire pour autant que l’analyse de la

logique de l’acteur ne s’observe qu’au niveau de l’organisation syntaxique du discours.

Page 394: UN REFERENTIEL, POUR QUOI FAIRE

394

Les travaux d’O. Ducrot ont mis en valeur que, s’il existe une certaine logique interne au

discours, plus exactement une logique implicite induite par l’agencement des propositions

(intra et inter-propositionnel), l’inférence logique n’est pas un processus spécifiquement

linguistique. A la suite de ces travaux et au regard du modèle sur les niveaux de

référenciation, on traduirait cette position en d’autres termes : la logique n’est pas seulement

un processus de signification (à plus forte raison syntaxique), mais une articulation complexe

de ceux-ci avec les processus référentiels. Ainsi la logique s’observe aussi à travers les

circonstances de l’énonciation et les relations entre traits sémantiques. Pour comprendre la

logique d’un Référentiel de compétences, un évaluateur a besoin de s’interroger sur le sens de

ce Référentiel, c'est-à-dire 1° sur les conditions de production : qui l’a produit ? Ou, plus

précisément, par quelle instance est-il produit ? 2° sur les raisons de l’énonciation : pourquoi

a-t-il été produit ? A quoi sert-il ? Il peut ainsi pénétrer dans les raisons logiques de

l’organisation taxonomique, c'est-à-dire le mode classificatoire qui agence le discours et

l’organisation propositionnelle des énoncés. Mais cela ne suffit pas : 3° il va devoir aussi

situer ces énoncés en référence à des schémas-type de son activité professionnelle et discerner

l’intérêt de faire l’évaluation dans ces situations ; 4° et, lorsqu’il en arrive à ce point, il lui faut

en sus comprendre le sens des concepts et la façon dont il peut observer les objets qui s’y

rapportent. On pourrait aisément montrer qu’à partir d’énoncé aussi simple que « Suzanne est

tombée dans l’escalier, elle est alitée », la relation de causalité, induite par l’agencement inter-

propositionnel sans qu’il y ait pourtant le moindre signe morphologique de type linguistique,

repose sur la même complexité de démarche : qui sont les interlocuteurs ? Qui est

« Suzanne » ? Pourquoi parlent-ils de « Suzanne » ? En quoi le fait de « tomber dans

l’escalier » est-il en rapport logique avec l’alitement ? Qu’est ce que « alitée » signifie, dans

quel état est-elle ? En fonction de qui est « Suzanne » (petite fille, jeune femme, mère de

famille ou personne âgée), quelles sont les significations induites supplémentaires ? Certes la

relation logique est induite par les énoncés : 1° cohérence textuelle autour de l’actant

(« Suzanne ») par relation anaphorique (« elle »), 2° prédicat factif (faire = tomber) dans la

première proposition, statif (être = alitée) dans la seconde ; les deux induisent que le « faire »

a conduit à l’ « état ». Cependant la logique n’est pas induite par cette seule construction

syntaxique, mais par toutes les dimensions : analyse du contexte de l’énonciation,

représentation de la situation décrite, induction des significations attachées au concept (alitée).

Page 395: UN REFERENTIEL, POUR QUOI FAIRE

395

Il se pourrait que Suzanne soit alitée pour une autre raison ; pourtant, de fait, cette

construction énonciative induit la relation de causalité, du moins tant qu’elle correspond à des

schémas-type acceptables118. On peut donc fort bien identifier le cheminement logique de

l’énonciateur dans l’organisation syntaxique de son discours. Mais, là encore, les autres

approches seront sollicitées pour collecter le maximum d’indices communiqués par lui et

éviter ainsi de projeter, de façon inconsciente, les schémas-type ou les schèmes sémantiques

du chercheur. Certes cet écueil est difficile à proscrire totalement, nous ne sommes jamais

dans l’esprit du locuteur et nous nous appuyons toujours sur des connaissances et des schémas

institués, pour communiquer et interpréter. Mais la conscience de cette relativité apporte une

certaine modestie et une prudence méthodologique.

On a privilégié, ci-dessus, une approche par l’entrée de l’ancrage énonciatif qui

semble la plus adaptée à nos recherches sur l’évaluation (en raison de l’importance des

notions de « positionnement » et de « modalisation », précisées plus loin). Mais un

questionnement sur la logique de l’acteur justifierait, certainement davantage, une entrée par

l’approche syntaxique, accompagnée, en fonction des effets de sens supposés, de la collecte

d’informations supplémentaires, énonciatives ou sémantiques, qui infirment ou confirment les

premières suppositions, et qui, dans tous les cas, précisent les représentations sous-jacentes :

figures, modes, relations logiques, etc. (cf. l’exemple d’O Ducrot). Enfin une entrée

lexicologique répondrait certainement mieux à une heuristique conceptuelle : par exemple,

qu’est ce que les acteurs entendent par « compétence » ? Mais, là encore, la seule approche

lexicologique est sans issue si les relations du concept avec ses attributs, fonctions,

circonstances, modes, etc. ne sont pas inscrites dans des représentations ou des

apprésentations. Or, pour découvrir celles-ci, il convient d’identifier dans quels schémas

s’inscrivent ces relations (approche syntaxique) et dans quelles situations l’utilisation du

concept est pertinente (approche énonciative). Il importe donc moins de savoir dans quel

ordre réaliser ces approches que de saisir l’ensemble des articulations qu’il est possible

d’opérer, pour étudier le sens des énoncés. Les problématiques sont, en général, bien plus

complexes que les quelques exemples évoqués ci-dessus. Par ailleurs elles s’inscrivent

souvent dans des traditions disciplinaires au sein desquelles les concepts ont une histoire. Les

méthodologies en seront donc d’autant plus diversifiées et les articulations plus complexes.

118 Cela ne marcherait peut-être pas avec un énoncé du type : « Suzanne est tombée dans l’escalier, elle est mariée » ; ni non plus avec « Suzanne est tombée dans l’escalier, elle a eu 16/20 au bac de français », à moins qu’une phrase complémentaire explique cette relation « ça lui a fait du bien d’être alitée, elle s’est mise à travailler ».

Page 396: UN REFERENTIEL, POUR QUOI FAIRE

396

Les paragraphes qui suivent ont donc, pour seul objet, de poser quelques repères

méthodologiques (concepts et structures) pour l’analyse des discours, en particulier ceux qui

sont pertinents pour étudier nos objets : Référentiels, critères et indicateurs.

4) Sémiotique et grammaire, la question du sens :

4-1) Les orientations différentes de la recherche en linguistique :

La recherche en linguistique n’a pas pris, au début du XXème siècle, la même

orientation en Europe et en Amérique. En Europe, l’héritage d’une longue tradition de

recherche historique (philologie) et grammairienne conduit la recherche vers l’analyse des

systèmes linguistiques, de leur structure, de la formation, de leur lexique, etc. A la même

époque, les américains s’orientent plus vers l’étude des processus et systèmes de la

signification (C.S. Peirce, C.W. Morris). Ces différences se résorbent avec l’introduction de la

sémiotique en Europe (L. Hjelmslev, puis A.J. Greimas) et les travaux sur l’analyse

componentielle, puis la grammaire générative aux Etats-Unis (L. Bloomfield, Z.S. Harris, N.

Chomsky, etc.), non sans résistance d’ailleurs ainsi que l’illustrent les critiques de G. Mounin

à l’encontre de L. Hjelmslev (1970 : 95 à 102) ou les réactions de J.R. Searle aux théories de

N. Chomsky, critiques par ailleurs justifiées qui ouvrent un débat complexe. Sans approfondir

ici la question sur ces oppositions entre linguistes qui traduisent des problématiques propres à

cette discipline, on peut noter quelques points de divergences qui ont un intérêt pour la suite

de l’exposé.

Comment s’opère la construction du sens ? La réponse de la linguistique structurale

est claire depuis F. de Saussure : cette question renvoie à d’autres disciplines que la

linguistique qui n’a pas vocation à approfondir l’étude sémiologique. La conception du

signifié, les processus et systèmes qui sont mis en œuvre lors de la formation du concept, en

tant que constituant du sens, tout cela devient dès lors un objet externe à la linguistique. Cet

objet, L. Hjelmslev le réintègre dans son champ d’étude et le dénomme « plan du contenu »,

par opposition au « plan de l’expression » qui caractérise celui des formes signifiantes (1943 :

65). Il ne semble donc pas abusif de noter que les grammairiens ont surtout privilégié le

« signifiant », l’étude de la structure des formes graphiques et phoniques et leur articulation /

hiérarchisation, alors que les sémioticiens ont privilégié le « signifié », le plan du contenu.

Page 397: UN REFERENTIEL, POUR QUOI FAIRE

397

On notera tout de même l’œuvre de L.J. Prieto qui s’attache, dans les années soixante (1964,

1966), à cette tâche ardue de discuter sur l’articulation entre le plan de l’expression et le plan

du contenu en appliquant les principes de la linguistique structurale. Il aborde les rapports

entre phonie et sens. Après un bref aperçu des travaux de la phonologie, il définit son objet

d’étude, la noologie :

« ce que je me propose dans le présent ouvrage, c’est de poser les fondements de la théorie fonctionnelle du signifié, c'est-à-dire de la théorie qui part du fait concret qu’est le sens et l’étudie du point de vue de la contribution de la phonie à son établissement » (1964 : 34)

Il redonne ainsi une place à la situation de l’énonciation, aux circonstances et à « l’acte de

parole ». Pour conduire ces études, il s’appuie sur une étude structurale des systèmes de

signaux (1966). Le signifiant et le signifié sont définis comme classes de phénomènes, les uns

sur le plan de l’expression, les autres sur le plan du contenu. Cela ouvre sur une analyse des

structures de classification dans les deux plans, et surtout des principes de celles-ci, qu’il

précise ensuite pour classer les signifiés : « restriction » (inclusion), « empiétement »

(intersection), « opposition » (exclusion), etc. Mais la méthode utilisée par l’auteur a le revers

de son atout : en reprenant les méthodes de la linguistique structurale, elle a mis en valeur la

façon dont le plan du signifiant s’articule avec le signifié pour créer la sémiosis (production

de l’effet de sens). Ces réflexions donnent de la consistance au concept de hiérarchie,

syntaxique et surtout sémantique (classification des lexèmes), particulièrement utile pour

suivre les phénomènes de cohérence textuelle entre les propositions (cf. ch. 8, &. 1-2 et 2-2-

b). On reviendra par ailleurs sur la définition du sème, du noème et du champ noétique,

concepts pertinents pour décoder certains effets de sens produits par le discours. Le revers,

c’est de se limiter à une approche purement linguistique, comme si les représentations des

acteurs n’interagissaient pas dans la construction du signifié. Or, si la linguistique peut faire

l’impasse de ces relations entre concepts et représentations, cela paraît inconcevable pour

l’analyse du discours.

Ce bref exposé des oppositions linguistiques au XXème siècle n’a pas d’autre prétention

que de différencier précisément les concepts de « grammaire » et de « sémiotique » :

- on utilisera le premier pour exprimer les règles formelles de la structure langagière, qui

offrent à deux individus de la même communauté linguistique la possibilité de

communiquer et de comprendre leurs énoncés respectifs (N. Chomsky) ;

Page 398: UN REFERENTIEL, POUR QUOI FAIRE

398

- on privilégiera le second pour exprimer un ensemble de systèmes et processus de

signification, pourvu d’une articulation interne autonome et d’un réseau de relations

hiérarchiquement organisées entre des unités distinctes et combinables (AJ. Greimas, J.

Courtès ; 1979). Les langues naturelles sont des sémiotiques, mais bien d’autres systèmes

de signes ont aussi ces caractéristiques : par exemple, les signes du code de la route ou de

la navigation fluviale, mais aussi les protocoles sociaux, la narration filmique, etc.

Cette différenciation distingue deux champs de recherche :

- celui de la grammaire comparée ou générative, dont l’objectif est d’expliquer la

structure des langues

- celui de la sémiotique et de la pragmatique qui étudient respectivement les processus

de la signification et les situations d’énonciation, objets plus proches de nos

préoccupations.

Le concept de « sémiotique », tel qu’il est défini par A.J. Greimas et J. Courtès, fournit un

cadre pour observer les structures et les éléments du plan du contenu à partir du plan de

l’expression. Mais on a aussi montré, en analysant les travaux de L.J. Prieto, l’intérêt

d’introduire un troisième plan pour étudier le plan du signifié, celui de la référence. On

observe ainsi trois niveaux distincts d’analyse : celui des unités signifiantes et de leur

organisation, que l’on appellera plan de l’expression, celui des concepts et de leurs relations

logiques, qui créent aussi de la signification (plan du contenu), et celui des objets du monde

sensible auquel il est fait référence, plus exactement de leurs représentations cognitives (plan

de la référence). La signification est le produit du rapport entre le signifiant et le signifié, la

référence du rapport entre le plan du contenu (le signifié) et le plan de la référence (la

représentation de l’objet dénoté). Pour éviter tout malentendu sur cette proposition, il convient

de différencier le « référent » et « l’objet dénoté » : ce dernier est lui-même appréhendé par

notre système perceptif, puis enregistré et mémorisé en fonction de nos cadres de référence

qui sont des constructions cognitives, ainsi que l’ont mis en valeur les travaux des

psychologies génétique et cognitive ; en d’autres termes, nous avons une représentation

cognitive des objets, c’est à celle-ci qu’on attribuera le terme de « référent ».

On a repris la terminologie de L. Hjelmslev pour nommer ces trois niveaux d’analyse,

à savoir « plans du discours » : expression, contenu et référence. On les différencie ainsi

d’autres termes qui ont un sens précis en linguistique : « axes », « niveaux », « dimensions »,

« processus », « systèmes », etc. Dans les paragraphes qui suivent, on discernera le sens

technique de ces différents concepts : la précision n’est jamais superflue pour investir un

domaine méthodologique.

Page 399: UN REFERENTIEL, POUR QUOI FAIRE

399

4-2) L’étude des structures grammaticales : axes syntagmatique et paradigmatique :

C’est incontestablement à F. de Saussure que nous devons les cadres d’analyse qui

servent de fondement méthodologique à la linguistique structurale contemporaine. Il propose

de distinguer, à l’instar de l’économie politique, la linguistique en deux sciences : celle qui

étudie l’évolution des langues à travers l’histoire (linguistique diachronique) et celle qui

étudie l’état actuel des langues, « les rapports entre choses coexistantes » (linguistique

synchronique) :

« Est synchronique tout ce qui se rapporte à l’aspect statique de notre science, diachronique tout ce qui a trait aux évolutions. De même, diachronie et synchronie désigneront respectivement un état de langue et une phase d’évolution » (1916 : 117).

C’est dans le cadre de cette linguistique synchronique qu’il établit les principes fondamentaux

pour étudier la grammaire des langues actuelles :

« C’est à la synchronie qu’appartient tout ce qu’on appelle la « grammaire générale » ; car c’est seulement par les états de la langue que s’établissent les différents rapports qui sont du ressort de la grammaire » (1916 : 140). « La linguistique statique ou description d’un état de langue peut être appelée grammaire (…) La grammaire étudie la langue en tant que système de moyens d’expression ; qui dit grammatical dit synchronique et significatif, et comme aucun système n’est à cheval sur plusieurs époques à la fois, il n’y a pas pour nous de « grammaire historique » ; ce qu’on appelle ainsi n’est en réalité que la linguistique diachronique » (1916 : 185).

Il propose d’analyser la structure de la langue à partir de deux sphères distinctes qui

« correspondent à deux sphères de notre activité mentale, toutes deux indispensables à la vie

de la langue ». Il y a l’axe « syntagmatique », succession des unités linguistiques au cours de

la chaîne du langage, et l’axe « paradigmatique », ensemble des substitutions possibles à

chaque point de la chaîne, qui relèvent des choix individuels de l’énonciateur119.

« Les unités de la langue relèvent en effet, de deux plans : syntagmatique quand on les envisage dans le rapport de succession matérielle au sein de la chaîne parlée, paradigmatique quand elles sont posées en rapport de substitution possible, chacune à son niveau et dans sa classe formelle » (E. Benveniste ; 1966 : 22).

Pour bien saisir l’intérêt de ce cadre d’analyse, il est important de connaître les opérations qui

sont à l’origine de cette décomposition : les combinaisons syntagmatiques (ou syntagmes) et

les rapports associatifs (ou associations) :

119 E. Benveniste parle de « deux plans », mais on préfèrera ici le terme souvent usité d’ « axes » pour éviter la confusion avec les plans du contenu et de l’expression.

Page 400: UN REFERENTIEL, POUR QUOI FAIRE

400

« D’une part, dans le discours, les mots contractent entre eux, en vertu de leur enchaînement, des rapports fondés sur le caractère linéaire de la langue, qui exclut la possibilité de prononcer deux éléments à la fois. Ceux-ci se rangent les uns à la suite des autres sur la chaîne de la parole. Ces combinaisons qui ont pour support l’étendue peuvent être appelées syntagmes. Le syntagme se compose donc toujours de deux ou plusieurs unités consécutives (par exemple, re-lire ; contre tous ; la vie humaine ; Dieu est bon ; s’il fait beau temps, nous sortirons, etc.). Placés dans un syntagme, un terme n’acquiert sa valeur que parce qu’il est opposé à ce qui précède et à ce qui suit, ou à tous les deux. D’autre part, en dehors du discours, les mots offrant quelque chose de commun s’associent dans la mémoire (…). On voit que ces coordinations sont d’une toute autre espèce que les premières. Elles n’ont pas pour support l’étendue ; leur siège est dans le cerveau ; elles font partie de ce trésor intérieur qui constitue la langue chez chaque individu. Nous les appellerons rapports associatifs. Le rapport syntagmatique est in praesentia, il repose sur deux ou plusieurs termes également présents dans une série effective. Au contraire le rapport associatif unit des termes in absentia dans une série mnémonique virtuelle » (F. De Saussure ; 1916 : 170, 171).

L’approche de l’axe syntagmatique permet d’étudier les « types de syntagmes construits sur

des formes régulières », c'est-à-dire les structures syntagmatiques qui reviennent

régulièrement. Quant à l’axe paradigmatique :

« Les groupes formés par association mentale ne se bornent pas à rapprocher les termes qui présentent quelque chose de commun ; l’esprit saisit aussi la nature des rapports qui les relient dans chaque cas et crée par là autant de séries associatives qu’il y a de rapports divers. Ainsi dans enseignement, enseigner, enseignons, etc., il y a un élément commun à tous les termes, le radical ; mais le mot enseignement peut se trouver impliquer dans une série basée sur un autre élément commun, le suffixe (cf. enseignement, armement, changement, etc.) » (F. De Saussure ; 1916 : 173, 174).

Ainsi le grammairien met en valeur aussi bien la logique fonctionnelle des enchaînements sur

la chaîne de la parole (par exemple, déterminant, groupe nominal, verbe, complément

d’objet), que celle des substitutions possibles à un point de la chaîne, qu’on appelle

paradigme : par exemple, les désinences des verbes pour marquer la personne ou le temps. A

partir d’une telle structure, l’analyse des segmentations de la chaîne devient possible et les

unités linguistiques commencent à se distinguer : par exemple, sujet, verbe, attribut,

complément d’objet, mais aussi préfixe, radical, suffixe, désinences.

4-3) L’étude des structures sémiotiques : sémiosis, processus et systèmes :

La « sémiosis » est le processus par lequel quelque chose fonctionne comme signe (F.

D’Armengaud ; 1985) ; en ce qui concerne la langue, la sémiosis est donc le phénomène qui

génère le sens lors du rapport entre le signifiant phonique et le signifié conceptuel.

La « sémiotique » est donc la structure d’ensemble de ces phénomènes de sémiosis.

Page 401: UN REFERENTIEL, POUR QUOI FAIRE

401

Pour analyser la sémiotique, L. Hjelmslev (1943) propose de la décomposer en « processus »

et « systèmes ». La notion de « processus » fait référence à la succession temporelle entre les

unités du discours (axe syntagmatique), la notion de « système » traduit une structure

catégorielle entre ces unités (axe paradigmatique) (Hjelmslev).

« Il est devenu courant, dans la linguistique, d’appeler corrélation la fonction qui existe entre les membres. Il semble donc qu’il convienne d’adopter ce terme pour la fonction ou…ou. Et parmi les désignations possibles de la fonction et…et, nous nous arrêterons au mot relation (…) Sur cette base, nous pouvons définir un système comme une hiérarchie corrélationnelle, et un processus comme une hiérarchie relationnelle (…) Nous trouvons des désignations commodes et traditionnelles d’un processus et d’un système sémiotiques dans les termes de syntagmatique et de paradigmatique. Quand il s’agit de la langue naturelle parlée, qui seule nous intéresse pour l’instant, nous pouvons aussi employer des termes plus simples : nous appelons ici le processus un texte et le système une langue » (1943 : 54 et 55).

Dans sa formulation scientifique, la définition des notions de processus et système que nous

propose L. Hjelmslev apparait trop proche de l’analyse du plan de l’expression en axes

syntagmatique et paradigmatique pour apporter de nouvelles dimensions à la recherche ; dans

sa version plus simplifiée, les définitions sont trop vastes pour être exploitées. Ces confusions

ont conduit G. Mounin à critiquer l’auteur danois sur plusieurs points.

« Le postulat fondamental de Hjelmslev en matière de sémiologie, c’est qu’il existe un isomorphisme de tous les systèmes de signes ou systèmes de communication ; d’où il conclut que la théorie du langage construite sur le modèle formel des langues naturelles est applicables à tous les systèmes de signes en général » (p.140). « La conséquence en est (…) qu’une langue est une sémiotique et que toute sémiotique est une langue (ou un langage), et que l’adjectif sémiotique et l’adjectif linguistique sont pratiquement interchangeables (même si le texte danois et texte anglais manipulent ces couples de termes avec plus de souci de les maintenir distinct que la traduction française) » (1970 : 96).120

La critique de G. Mounin soulève ici une question abordée dans le paragraphe sur les écueils

de l’analogie (pages 33 à 35) qui modélise les phénomènes par isomorphisme, là où la science

a pour objet, au contraire, de discerner les différences et les spécificités. On rejoindra donc G.

Mounin quand il évoque « les dangers qu’on court à s’enfermer dans un système hypothético-

déductif, sans le vérifier à chaque instant avec les « faits d’expérience » : les traits communs

entre systèmes « ne permettent absolument pas de postuler a priori l’isomorphisme absolu de

tous les systèmes ». Mais L. Von Bertalanffy nous a aussi invité à différencier les analogies

des homologies, c'est-à-dire des « lois identiques sur le plan formel », même si « les facteurs

qui agissent sont différents ». La recherche des raisons objectives de ces dernières conduit

souvent à la découverte de structures générales.

120 Il convient certainement de transformer « langue » par « sémiotique ». Cette critique de la traduction française a été exposée par G. Mounin (1970 : 95, 96).

Page 402: UN REFERENTIEL, POUR QUOI FAIRE

402

Si les « systèmes de signes » sont différents en raison de leur fonction dans la communication,

ils ont non seulement des « traits communs », repris par G. Mounin, (rapport signifiant /

signifié, expression / contenu, forme /substance, paradigmatique / syntagmatique, etc.), mais

aussi certainement des structures homologiques, déterminées par nos modes de raisonnement.

Par conséquent, si les critiques formulées par lui apparaissent tout à fait pertinentes, elles

seraient préjudiciables si elles nous éloignaient de l’objet de recherche de L. Hjelmslev, bien

différent de celui de F. de Saussure. Les deux auteurs n’approchent pas les mêmes

phénomènes, l’un s’attachant à l’étude de la grammaire (en excluant l’étude de la sémiologie),

l’autre à l’analyse de la sémiotique. Pour étudier cette dernière (c'est-à-dire, le système de

signification et ses relations de référence avec les représentations du monde sensible),

« processus » et « systèmes » sont deux dimensions pertinentes, l’une pour analyser les choix

lors de l’acte de communication, l’autre pour rechercher les références communes. Le terme

« processus » dénomme les enchaînements d’évènements sur l’axe temporel, il exprime donc

des choix dans la façon de construire l’énonciation. Le « système » est l’ensemble structurel,

l’organisation des éléments et les modes de relations institués entre eux. Les processus

n’acquièrent de signification que dans la mesure où ils s’inscrivent dans des systèmes : c’est

le cas entre les processus et systèmes de la langue (syntagmes et paradigmes), mais pas

seulement, c’est aussi le cas lorsque nous intégrons un évènement social par rapport à nos

cadres de référence, institués par nos expériences, pour lui donner de la signification (cf. E.

Goffman ; 1974/1991), ou quand nous communiquons de la signification à un symbole, ou

une succession de symboles iconographiques, en vertu de ce qu’ils représentent pour nous. On

peut donc supposer, à titre d’hypothèse du moins, qu’il existe certaines homologies entre les

différents plans, qui correspondent à des modes de notre « activité mentale ». En analyse des

discours, les processus langagiers et les actes de langage dans leur linéarité sont un moyen de

découvrir les processus cognitifs (raisons, motivations, attentes, besoins) à l’origine de l’acte

de communication. Les systèmes langagiers (catégories d’attributs, de déterminants, de

verbes) permettent alors d’accéder à l’organisation du contenu et aux modalités des systèmes

de référence privilégiés dans le discours. Prenons un exemple :

« J’aime les tables en chêne ou noyer, avec tenons et mortaises, pour leur solidité ». - La fonction de l’acte de communication se construit à partir de l’identification du sujet dont on

parle (« je », celui qui énonce parle de lui-même), du verbe modalisateur qui exprime le jugement « aimer » et de la finalité de ce jugement (« pour ») : l’énonciateur exprime un choix affectif (« aimer ») qu’il argumente (« pour »).

- Les dimensions du système sont l‘essence du bois (chêne, noyer, etc.), les modes de fabrication (tenons, mortaises, etc.), les types de sujets (pronoms), les états du sujet (jugement affectif) et la fonction téléologique liée au prédicat (pour).

Page 403: UN REFERENTIEL, POUR QUOI FAIRE

403

Les structures sémiotiques sont donc des ensembles de processus et systèmes qui ont une

fonction, à la fois pour créer de la signification, plus exactement la sémiosis, à la fois pour

générer de la référence, puisqu’elles construisent ce sens en rapport avec les processus

cognitifs à travers lesquels nous appréhendons le monde sensible. Ces différents plans n’ont

pas forcément la même structure interne. Le découpage du plan de l’expression s’organise

autour de la double articulation (A. Martinet ; 1985) - en phonèmes (2ème articulation) et en

monèmes (1ère articulation) -, le plan du contenu se construit autour des concepts, signifiés par

les monèmes (réseaux sémantiques, scripts, micro- et macro-structures, etc.), le plan du

référent se constitue à partir des représentations et des apprésentations. Mais on peut

supposer, à titre d’hypothèse, qu’il existe certaines homologies entre les différents plans, sans

quoi les relations de sens n’existeraient pas entre eux. Un exemple étayera l’argumentaire :

« le chat attrape la souris, qui est sortie de son trou ». La segmentation phonologique sur l’axe

syntagmatique conduit à différencier les unités qu’A. Martinet appelle des monèmes : « le /

chat / attrap/e / la / souris /, qui / est / sort/ie / de / son / trou ». Chaque monème est constitué

par une unité signifiante en relation avec le plan du contenu. « attrape », se décompose en un

lexème verbal « attrap » et une désinence « e » qui signifie le temps, ici affirmatif - présent -

troisième personne. Mais ce lexème peut aussi se décomposer en un préfixe et un radical

« a(t)/trapp », si cette segmentation a de la signification pour l’émetteur et / ou le récepteur ;

en revanche, « souris » est un monème unique, dans la mesure où sa décomposition (sou/ris)

n’a pas de sens par rapport au lexique de la langue. Chaque monème est donc en relation avec

un concept, c'est-à-dire une signification mémorisée, qui peut être lexicale (« chat »,

« souris », « attraper », « sortir », « trou ») ou grammaticale : désinences verbales,

construction avec la copule « est », pronom relatif « qui », etc. Dans la mesure où il s’agit de

phénomènes de mémorisation, c’est à la psychologie (cf. F. de Saussure) de s’emparer de la

question, ce que la psychologie cognitive a fait, mais aussi la psychologie russe (L. Vygotski).

La problématique peut être cependant de deux sortes : 1° qu’est ce qui conduit à ce qu’il y ait

différenciation des concepts signifiés à partir des signifiants ? On est dans l’étude des

phénomènes de signification, domaine de la linguistique. Les travaux de L.J. Priéto sont

certainement les plus avancés sur cette question. Mais, lorsque cet auteur préconise d’utiliser

la commutation (1966 : 62 ; 1975a : 78-83) pour étudier le plan du contenu, il réduit la notion

de « concept » à sa seule dimension de « signifié » – ce qui est le propre de la discipline

linguistique, du moins fonctionnelle et structuraliste. Or, de la sorte, est occultée l’étude des

relations qui s’instituent, sous forme mémorisée, entre le plan du référent et celui du contenu.

Page 404: UN REFERENTIEL, POUR QUOI FAIRE

404

2° La problématique peut être alors posée d’une autre façon : comment se construit cette

mémorisation des concepts ? Le plan de contenu n’est pas seulement celui d’une relation d’un

signifié avec un signifiant qui l’exprime, mais aussi avec des propositions dans lesquelles ce

signifié s’intègre, en rapport avec une organisation syntaxique (cf. AAD, APP et APD) qui

exprime un scénario : « la souris sort de son trou, le chat lui saute dessus et l’attrape ». Ce

scénario (du plan de la référence) pourrait très bien s’exprimer à travers d’autres sémiotiques,

par exemple le cinéma (deux plans successifs), la photographie (un trou, une souris devant le

postérieur tourné vers le trou et un chat en train de bondir), les bruitages, la musique

classique, etc. Une question fondamentale se pose alors, particulièrement importante pour

l’analyse des discours, surtout pour donner du sens aux approches syntaxiques : qu’est-ce qui

fait qu’une grammaire universelle (au sens de N. Chomsky ; 1975/1981), qui s’exprime sous

forme d’indicateurs syntagmatiques (phrase marker) et de phrases (plan de l’expression) et se

traduit en microstructure propositionnelle (plan du contenu), puisse signifier un scénario sur

le plan de la représentation ou par apprésentation (plan du référent) ? On quitte ici le domaine

de la linguistique pour entrer dans celui de la psychologie (phénomènes de mémorisation) ou

de la microsociologie (institution des représentations).

Il n’est pas donc surprenant que G. Mounin (1970), en raison de sa position de

linguiste, valorise les travaux de L.J. Prieto et critique vigoureusement ceux de R. Barthes. Il

ne nie pas le fondement psychosociologique des travaux de ce dernier, mais ne leur reconnaît

pas le caractère scientifique propre à la sémiologie : il est vrai que ses Eléments de sémiologie

(1966) sont très confus, parfois inexacts ou du moins imprécis, dans sa reformulation des

concepts linguistiques, mais son Analyse structurale des récits, en revanche, pose une

réflexion pertinente sur les phénomènes de distribution et d’intégration des figures du contenu

(concepts) dans un schéma narratif. Et nous avons besoin, pour donner du sens à nos analyses

syntaxiques, de préciser ces processus et les systèmes qui les accueillent / les absorbent. En

quoi le fait d’exprimer des signifiants dans une structure syntaxique déterminée (par ex., « le

chat (sujet) attrape (groupe verbal factif - forme active) la souris (complément d’objet) »)

conduit-il à la représentation du scénario, de l’action en train de se dérouler. Ce que nous

cherchons à découvrir, ce sont les processus cognitifs qui représentent l’action réelle à partir

du processus langagier. Cette question ne peut pas se résoudre avec les seules explications

linguistiques, elle a aussi besoin des apports scientifiques de la psychologie, pour expliquer

les phénomènes de mémorisation, et de la microsociologie, pour expliquer

l’institutionnalisation des représentations. C’est ce qu’on va discuter maintenant en abordant

la question du sens.

Page 405: UN REFERENTIEL, POUR QUOI FAIRE

405

4-4) Grammairiens, sémioticiens et pragmatique :

La petite guerre entre les grammairiens et les sémioticiens n’aurait guère d’intérêt,

pour nous, si elle ne soulevait des questions fondamentales pour l’analyse de contenu. Quand

les pragmatiques ou les sémioticiens critiquent les grammairiens, ils le font surtout sur la

question du sens. Ces derniers évoquent souvent, pour fonder leurs procédures d’analyse de la

syntaxe, la notion de sens, mais sans la définir de façon globale : par exemple, lorsque les

grammairiens parlent de commutation pour identifier les types d’unités de la langue. Les

grammairiens n’ont pas ménagé, non plus, leurs critiques à l’encontre de la sémiotique.

Effectivement, lorsque les sémioticiens analysent le plan du contenu, ils le font, le plus

souvent, à partir des structures identifiées par les linguistes sur le plan de l’expression.

C’est le cas de L. Hjelmslev quand il définit le processus et le système, de R. Barthes quand il

reprend la théorie des niveaux d’E. Benveniste, de B. Pottier et d’A.J. Greimas quand ils

articulent « traits sémantiques » et « lexème ». L’étude de la sémiotique repose, de fait, sur

une contradiction fondamentale : il n’est possible d’analyser le plan du contenu qu’à partir de

formes que l’on observe le plus souvent au niveau de l’expression. En d’autres termes,

comment analyser les phénomènes qui s’opèrent au niveau du contenu, alors que nous

n’observons que des phénomènes langagiers qui apparaissent sur le plan de l’expression ?

Comment passer du discours entendu ou lu (phonétique ou graphique) à l’analyse du contenu

mis en jeu ? On aperçoit bien à quel point cette question est fondamentale pour l’analyse des

discours. Reprenons notre exemple pour illustrer cette problématique du sens. Avec les

mêmes lexèmes, les transformations grammaticales modifient le sens de l’énoncé. Ce n’est

pas la même chose de dire :

« Le chat a attrapé une souris qui est sortie de son trou » (1)

« La souris a été attrapée par un chat quand elle est sortie de son trou» (2)

« Il y avait une souris, elle est sortie du trou et un chat l’a attrapé » (3)

« Une souris sort de son trou, un chat l’attrape » (4)

Dans (1), c’est du chat dont on parle, un chat identifié par les deux interlocuteurs (chat

de la maison, chat du voisinage, etc.). Dans (2), c’est de la souris dont il est question, souris

qui a été l’objet de discours antérieur. Dans (3), on raconte l’histoire d’une souris qui s’est

faite attraper. Dans (4), il en est de même, mais la forme au présent nous plonge dans

l’évènement. On remarque, là encore, que, pour interpréter les différences de sens, logiques et

sémantiques, induites pas les énoncés ci-dessus, il convient de faire appel à notre imaginaire

(en mémoire) de la situation d’énonciation : dans quel cadre l’énoncé a-t-il pu être produit ?

Page 406: UN REFERENTIEL, POUR QUOI FAIRE

406

Par exemple un couple qui discute du chat de la maison pour (1). Pour (2), une souris

particulière qui importunait nos deux interlocuteurs, ou deux expérimentateurs qui ont perdu

leur cobaye, etc. (3) et (4) s’inscrivent plutôt, en raison de l’indétermination, dans le schéma

narratif d’une histoire contée. Notons ici que la locution « il y avait » engendre implicitement

ce cadre de référence, par analogie à une représentation traditionnelle de notre culture : « il

était une fois ». Mais (1) et (2) pourraient s’intégrer aussi dans un tel schéma narratif, si un

énoncé du type (3) avait été produit en amont dans le texte, générant ainsi le contexte d’une

narration : « il y avait une souris qui vivait dans une forêt » + (2) + alors, etc. Il en est de

même pour l’énoncé (1), à la différence que c’est du chat dont il convient de parler en amont :

« Un chat régnait en maître sur une forêt » + (1) + la souris, etc. Les grammairiens peuvent,

par le jeu des transformations, étudier ainsi les rapports qui existent entre les articles

déterminés « le » ou « la » et les articles indéterminés, « un » ou « une ». Mais ils occultent

trop souvent que cette analyse des énoncés puise son sens dans la référence à un imaginaire,

inscrit dans la mémoire des interlocuteurs et suffisamment institué socialement pour que la

démonstration soit entendue au niveau de toute la communauté culturelle (par exemple, « il

était une fois »). Un autre exemple illustrera l’importance de cet imaginaire du contexte

d’énonciation pour la production du sens : la métaphore. Imaginons que l’énoncé (3) + (2) soit

produit par le patron d’une grosse chaîne, qui, pour des raisons historiques, a laissé une niche

régionale à son concurrent, et que l’énoncé s’adresse donc à celui-ci au moment où il montre

des velléités d’expansion, le sens en devient tout à fait différent : cela devient une menace,

c'est-à-dire un acte perlocutoire ou, pour reprendre la catégorisation de L.J. Prieto (cf. ci-

dessous), une injonction. Aussi pose-ton le postulat (pour l’instant hypothétique) que le sens

ne peut pas se construire sans une référence implicite au contexte de l’énonciation. Cette

référence s’élabore spontanément, dans l’imaginaire, lorsque les grammairiens analysent des

énoncés pour découvrir les règles de la grammaire.

L.J Prieto a rompu avec cette opposition traditionnelle entre grammairiens et

sémioticiens. Il définit le sens comme « toute influence que quelqu’un peut essayer d’exercer

sur quelqu’un d’autre en produisant un signal » (1975b : 24). Il propose ensuite deux types de

sens fondamentaux, l’information et l’injonction. Cette approche est intéressante, dans la

mesure où elle lui sert de cadre référentiel pour aborder son étude du plan du contenu. Cette

conception du sens est proche de l’acte locutoire et perlocutoire de J. Austin (1962/1970)121.

121 On notera au passage qu’un troisième type de sens pourrait alors être recherché, celui qui correspond à l’acte illocutoire, c'est-à-dire à l’expression par l’énonciateur de ses états affectifs ou de son implication dans l’énonciation, type de sens qui n’est pas négligeable pour l’étude des phénomènes d’appréciation / évaluation.

Page 407: UN REFERENTIEL, POUR QUOI FAIRE

407

Mais la définition de L.J. Prieto apparait trop réductrice et n’englobe pas tous les phénomènes

de sens, du moins ceux décrits par d’autres auteurs, en particulier E. Benveniste (1966). Ce

dernier a proposé un modèle plus global du sens, qui apparaît comme le produit des processus

de distribution (sur la chaîne syntagmatique) et d’intégration (sur l’axe paradigmatique). On

reviendra sur ce modèle ci-dessous (pages 432 à 436), mais on notera qu’il se limite aux

systèmes de la signification, sans poser les fondements référentiels qui expliquent la

modification de sens lors de la substitution d’une unité par une autre. R. Barthes est parti de

cette conception pour en développer une exploitation originale sur le plan du contenu, une

Analyse structurale des récits (pages 436 à 439), mais son étude s’arrête aux schémas

narratifs. Pour ces deux modèles, le sens se construit en alternant des processus de distribution

sur un axe temporel, avec des processus d’intégration dans des systèmes élaborés. Il apparaît

donc possible de regrouper cet ensemble de phénomènes dans le modèle proposé plus haut122

(pages 274 à 285) qui articule les processus de signification induits par la coexistence de

phénomènes du même ordre, sur un axe temporel, et les processus de référence qui font appel

à des systèmes mémorisés, socialement institués. On propose donc de définir le sens comme

le produit de ces processus de la signification avec les systèmes de référence dans lesquels ils

s’intègrent. C’est pourquoi le sens ne peut se construire que lors de l’inscription dans un

contexte ou une situation, que ceux-ci soient hic et nunc ou imaginés. Ainsi analyser le sens

des lexèmes ne peut se réaliser indépendamment de cette référence à une situation ou à un

scénario, induits par le contexte ou par l’environnement textuel - ce qu’A.J. Greimas a mis en

valeur avec la notion de sème contextuel. Reprenons notre exemple à partir d’un énoncé écrit

dont il est demandé de chercher le sens : « Le chat se réalise quand plusieurs souris s’agitent

en même temps ». Il est certes possible de traduire « se réalise » par « s’épanouit », dans la

mesure où la chasse aux souris est le jeu de prédilection des chats. Mais, si cette acception est

écartée, l’énoncé devient une énigme. Rajoutons alors à cet énoncé un indice (« sur la toile »),

une nouvelle signification commence à prendre jour, en référence à un contexte différent : « le

chat n’est possible que si plusieurs souris sont connectés en même temps sur internet ». Pour

acquérir du sens, les concepts s’inscrivent donc dans des scénarios et des représentations

sociales qui correspondent à des pratiques instituées, à une époque donnée, au sein d’une

communauté. Cette énigme n’aurait aucun sens quarante ans en arrière : à cette époque, les

pratiques autour de l’informatique étaient peu développées, elles sont aujourd’hui un

phénomène de société. Pour que cette énigme, et ces nouvelles significations, soient

comprises par le récepteur, il ne lui suffit pas d’avoir une compétence linguistique.

122 Il est important de rappeler que ce modèle a été induit par ces rapprochements empiriques, et non l’inverse.

Page 408: UN REFERENTIEL, POUR QUOI FAIRE

408

Il lui faut aussi une compétence encyclopédique (C. Kerbrat-Orecchioni ; 1999), du moins a-t-

il besoin de faire référence à des pratiques connues par lui. La plupart des exemples que l’on a

pris ci-dessus sont empruntés à des activités ordinaires de l’enfance : contes, jeux de mots,

énigmes, sans omettre, bien entendu, toutes les habitudes sociales qui s’inscrivent dans notre

quotidien. Nous apercevons donc ici à quel point le sens implicite de nos conceptions n’est

pas inné, mais s’est construit progressivement dans notre enfance, puis à travers les

différentes expériences de notre vie. L’inférence du sens ne peut donc se déduire de la seule

analyse syntaxique, pour ce qui concerne la logique, ni de la seule analyse sémantique et

lexicologique, pour ce qui concerne les concepts ; l’énoncé est toujours à resituer par rapport

aux représentations sociales de référence.

Cela pose un problème de fond pour l’analyse des discours. La déduction du sens

implique la prise en compte des processus de référenciation mis en jeu lors de l’acte

d’énonciation. Pour les identifier, il nous faut donc les rechercher dans le contexte ou

l’environnement textuel. C’est à ce niveau qu’interviennent les protocoles (MEO) des autres

disciplines scientifiques, pour fixer des axes sur la façon de collecter des informations en

fonction de l’objet d’étude. Les recherches les plus récentes de l’analyse de contenu (APD,

APP et ACD) ont déjà expérimenté cette voie, soit pour découvrir les processus cognitifs qui

sont sollicités (APP), soit en référence aux contextes énonciatifs et pragmatiques (R.

Ghiglione, A. Trognon ; 1993), soit lors d’approches sociologiques (J.B. Grize, P. Vergès, A.

Silem ; 1987). Cette contrainte est aussi apparue lors des expériences présentées à la fin de

cette thèse : les analyses des discours ont été enrichies, soit par une approche ethnographique,

soit par des méthodes sociologiques traditionnelles. Par exemple, lors de la première

expérience (ch. 12), l’observation d’un conflit de conceptions entre les interviewés

(discussions et tensions), à l’issue de la communication des premiers résultats, a permis

d’identifier des différences d’appréciation selon l’implication des acteurs. La notion de critère

en a été ainsi réifiée. L’analyse formelle des énoncés, exposée au chapitre 12, aurait-elle du

sens si nous n’avons pas conscience que ces constructions conceptuelles s’inscrivent dans des

modes de fonctionnement lors des recrutements ou des stages (attentes de rôle entre directeurs

et animateurs). La fiche signalétique de la deuxième expérience (ch. 13) s’inscrit, elle-aussi,

dans un paradigme de la sociologie traditionnelle (croisement statistique des conceptions en

fonction des types d’acteurs). Ainsi, analyse de discours et paradigmes disciplinaires se

complètent pour une approche plus rigoureuse (socio-logique pour reprendre l’expression de

J.B. Grize ; 1987) des objets d’étude.

Page 409: UN REFERENTIEL, POUR QUOI FAIRE

409

Chapitre 9

Les structures de la signification et de la référence

1) Paradigmes psychologiques et données langagières :

Les données linguistiques n’acquièrent du sens qu’en référence aux données collectées

dans le contexte ou dans l’environnement textuel. Cela nous conduit à mettre en œuvre des

protocoles (MEO) complémentaires à l’analyse des discours. Cette démarche que le

scientifique rationalise et systématise, l’auditeur ordinaire la pratique tous les jours pour

réceptionner les messages de divers énonciateurs. C’est un processus ordinaire de la

communication quotidienne. Par conséquent l’ensemble de ces processus et systèmes jouent à

notre insu au moment du traitement des données. Il est difficile de s’en démarquer totalement,

mais il est possible, tout de même, d’en prendre conscience et d’agir pour éviter les

projections arbitraires. Deux problématiques se posent alors :

1° L’organisation de l’énoncé est-elle le produit de la structure profonde de l’acteur, qui est

inférée à partir du discours, ou simplement de son adaptation à la situation conjoncturelle. La

multiplication des discours analysés est la seule solution pour se garantir contre les aléas des

spécificités liées à la situation, et discerner le particulier du régulier. Mais il s’agit là d’une

question plus générale des sciences humaines, sur la généralisation des observations

expérimentales.

2° Les analyses de discours n’ont de validité qu’en raison d’un postulat implicite sur

l’intériorisation et la mémorisation de processus cognitifs et sur leur fonction dans la

communication, pour les individus d’une communauté linguistique et culturelle. Deux

questions en sont alors déclinées :

- Comment s’opère l’intériorisation de ces processus, qui permettent à tout jeune de la

communauté de les mémoriser et de les reproduire ? C’est l’objet des psychologies

génétique et cognitive, qui apportent différents modèles.

- Comment ces processus et systèmes deviennent-ils des cadres de référence, connus et

reconnus par l’ensemble de la communauté ? En d’autres termes, comment la société, en

tant qu’organisme constitué d’individus qui communiquent, génère-t-elle

l’institutionnalisation de ceux-ci ? C’est l’objet de la sociologie interactionniste, de

l’ethnométhodologie et de l’anthropologie de la communication (Y. Winkin ; 1996).

Page 410: UN REFERENTIEL, POUR QUOI FAIRE

410

Une connaissance progressive de ces mécanismes spontanés, qui sont plus ou moins

conscients, nous conduit de ce fait à poser un regard plus objectif, c'est-à-dire à identifier, à

travers le discours ou au cours des interactions, les processus et systèmes de communication

mis en jeu. Les dimensions sociologiques ont été approfondies au chapitre précédent.

Les aspects psychologiques, en revanche, ont seulement été évoqués au cours de celui-ci ;

effectivement les protocoles de cette discipline s’adaptent moins à notre objet de recherche.

Mais, au moment de l’interprétation du matériel langagier, nous avons besoin de prendre en

compte les compétences que les interlocuteurs possèdent, qui concernent ces processus et

systèmes langagiers et qui les conduisent à inférer, par exemple, 1° une liaison sémantique

derrière la cooccurrence de deux termes (un substantif et son attribut, ou encore le sujet et le

verbe, etc.), 2° des microstructures et macrostructures derrière une narration ou une

argumentation, 3° une logique et des connaissances implicites derrière la cohérence textuelle,

4° des scénarios implicites derrière les présuppositions, etc. Les modélisations de l’APP

(analyse propositionnelle prédicative) de W. Kintsch ont permis d’intégrer certaines de ces

dimensions au sein des analyses propositionnelles des discours (APD) (pages 362 à 364).

Mais l’espace de recherche est loin d’avoir été balayé par les cognitivistes, ne fut-ce qu’en

raison de leurs choix paradigmatiques (MCP et MEO) qui les ont conduit à écarter les

hypothèses de la psychologie génétique : J. Piaget, L. Vygotski et leurs écoles (pages 83 à

94). La notion de schéma reste très sommaire, au même titre que celle de script. La façon dont

s’articule l’énonciation avec les représentations et modèles mentaux des acteurs sont

imprécises, ainsi que le souligne M.F. Ehrlich (1994 : 95 et 96). On abordera donc quelques

connaissances de ces deux courants de la psychologie, afin de discerner certains objets dans le

discours des acteurs ou dans les jeux de positionnement au cours des interactions.

1-1) Les recherches cognitivistes : script, schéma, superstructure et scénario :

Les connaissances psychologiques sont importantes pour discerner certains processus,

à l’origine de nos systèmes de référenciation. Elles s’inscrivent ici de deux façons :

1° pour préciser la notion de « concept », en tant que phénomène de mémorisation et de

compréhension de l’univers sensible, une acception par là même plus étendue de celle-ci que

le « signifié » de la linguistique ; notons que les cognitivistes différencient, dans leurs

modèles, les processus de mémorisation, souvent étudiés à partir des méthodes de rappel, et

ceux de compréhension, qui justifient une approche pluridisciplinaire et des protocoles plus

complexes (M.F. Ehrlich ; 1994 : 11) ;

Page 411: UN REFERENTIEL, POUR QUOI FAIRE

411

2° pour apporter des éléments, lors de l’analyse du sens des processus discursifs, en

particulier au sujet des relations référentielles entre ceux-ci et les systèmes d’appréhension du

monde sensible. Comment un processus discursif donné s’intègre-t-il dans nos systèmes de

connaissances stockées en mémoire ? Comment acquiert-il de la signification ? Par exemple,

qu’est ce qui donne du sens à un lexème, à une phrase, à la succession de deux énoncés, etc. ?

(Cf. divers exemples ci-dessus).

Des modélisations ont été proposées par certains psychologues cognitivistes pour

analyser ces phénomènes de mémorisation et de signification, en particulier celui de « réseau

structural actif » (ASN) de D.E. Rumelhart et D.A. Norman (1975) (cités par M.F. Erhlich ;

1994 : 42) : « réseau ou graphe étiqueté qui consiste en une série de nœuds interconnectés par

une série de relations. Chaque relation est une association entre deux nœuds et a des

propriétés importantes : elle est étiquetée et orientée. » Pour ces auteurs, les nœuds traduisent

des « lieux de rencontre des relations qui constituent un concept ». Les « concepts » sont donc

le produit des connexions entre relations, ce qui laisse un champ très ouvert de recherche sur

les types de relations et leurs fonctions, ainsi que les raisons / façons qu'elles ont de se

connecter. Dans ce cadre ont été proposées les notions de « schéma » et de « script » :

« Outre ces réseaux sémantiques, les auteurs font également quelques hypothèses sur des unités de représentation d'ordre supérieur : le schéma est un « paquet organisé de connaissances », il rend compte par exemple, du mode d'organisation des concepts et de la notion de prototype ; le script est un type particulier de schéma qui concerne les évènements et leur caractère séquentiel » (M.F. Ehrlich ; 1994 : 43).

Cette notion de « script », concept introduit par R.C. Schank en 1975, est définie autrement

par A. Baddeley : « ce sont des schémas qui contiennent une bonne partie de notre

connaissance concernant les activités sociales » (1994 : 362). La notion de réseau, quant à

elle, a été développée à la fin des années 60 par R. Quillian, un jeune informaticien qui

« s'intéressait au problème important mais difficile de la réalisation de programmes

informatiques capables de comprendre un texte » (A. Baddeley ; 1990 : 353). Ce modèle n'est

pas radicalement différent de celui proposé par Aristote, à la différence qu'il n'est pas un

« modèle logique » mais « psychologique » (idem : 354). Cela a conduit son auteur à

travailler avec un psychologue, A. Collins, pour en vérifier la validité :

« Le modèle de Quillian est fondé sur la supposition de l'existence d'un réseau de relations hiérarchisées entre les concepts. Les concepts sont représentés par les nœuds du réseau, chaque nœud étant associé à un certain nombre de propriétés. L'hypothèse d'économie cognitive constituait une caractéristique notable du modèle de Quillian » (A. Baddeley ; 1990 : 354, 355).

Page 412: UN REFERENTIEL, POUR QUOI FAIRE

412

Ces conceptions nous sont présentées d’une autre façon par Lindsay et D.A. Norman :

« Une part importante du sens ou de la compréhension d’un concept doit être intimement liée à sa relation avec d’autres concepts en mémoire. (…) Les diagrammes utilisent deux symboles pour représenter les concepts en mémoire : des boîtes et des flèches (…) (et ils) portent le nom de réseaux sémantiques : ils font ressortir l’ensemble des interconnexions entre les composantes significatives (sémantiques) en mémoire. (…) Nous voyons qu’il est possible d’utiliser le bassin de la mémoire de plusieurs façons différentes. D’un côté, on peut le concevoir comme un réseau sémantique : les nœuds représentent des concepts et des actions ; les relations entre les nœuds créent une structure mnémonique en forme de réseau. D’un autre côté, on peut concevoir la mémoire comme un ensemble de concepts associés chacun à une liste de caractéristiques » (1980 : 381-409).

La conception du « réseau » proposée par R. Quillian et A. Collins a été rapidement mise en

question par de nouvelles expériences (C. Conrad : 1972 ; L.J Ripps, E.J. Shoben, E.E.

Smith : 1973 ; A. Baddeley et ass. : 1984). Mais celles-ci « n'infirment pas les théories du

réseau dans leur ensemble », elles nous orientent plutôt vers une interprétation en termes de

« liaison sémantique » (A. Baddeley ; 1990 : 356). Les liaisons les plus courantes sont les plus

rapidement mobilisées dans les rappels. N'est-il pas alors pertinent de penser que ce sont elles

qui structurent les réseaux sémantiques ? Les protocoles cognitivistes ont ainsi eu le mérite de

mettre à jour certains processus cognitifs - telle la notion de « liaison sémantique » qui

exprime la relation de signification qui existe entre deux concepts. Les modélisations de W.

Kintsch nous conduisent à mieux appréhender les enjeux derrière cette notion et son

importance dans l'explication des processus de mémorisation. Pour cela, on analysera

progressivement les concepts qu'il nous propose.

« Les concepts-mots sont des entités abstraites entrées de la mémoire sémantique du sujet. Certains peuvent être lexicalisés, d'autres correspondent à une connaissance plus large et ne peuvent être traduits par un seul mot » (M.F Ehrlich ; 1994 : 44).

On retrouve ici le « signifié » de la linguistique, mais le concept est traité en tant qu'élément

constitutif de la mémoire sémantique. Pour la linguistique saussurienne, à un mot (signifiant)

correspond un concept (signifié), le rapport entre les deux constitue la signification. On sait

qu'il peut exister plusieurs acceptions pour un même mot (signifiant). Mais un concept peut

avoir aussi besoin de plusieurs mots pour s'exprimer, surtout quand il se construit.

« Les propositions représentent la signification des phrases. Ce sont des n-tuples de concepts mots fonctionnant l'un comme prédicat, le (ou les) autre(s) comme argument(s) » (Idem : 44).

Les mots constituent des phrases, la signification de ces dernières s'élabore en « proposition »

en raison des relations qui se forment entre les concepts, signifiés par les mots de la phrase.

« La base de textes est une liste de propositions qui respectent les règles de cohérence et est organisée de façon hiérarchique » (Idem : 45).

Page 413: UN REFERENTIEL, POUR QUOI FAIRE

413

Par conséquent la phrase se constitue au niveau du plan de l’expression. Les linguistes en ont

étudié les règles de hiérarchie syntaxique (par exemple, A. Martinet (1985)), ainsi que les

règles de transformation qui permettent d’élargir la palette (compétence linguistique au sens

de N. Chomsky). Les phrases produisent des propositions, sur le plan du contenu, mais ces

relations phrases / propositions n’ont guère fait l’objet d’étude de la part des linguistes. Ces

propositions développent pourtant des significations en raison des phénomènes qui s’opèrent

entre elles, sur le même plan, en particulier les phénomènes de cohérence textuelle

« Alors que la cohésion et la connexité sont liées à la présence de marques de relation entre constituants d'énoncés (cohésion) ou entre énoncés (connexité), la cohérence n'est pas dépendante des marques linguistiques, mais concerne l'interprétabilité du texte dans un contexte de communication (…) Dans cette perspective, la cohérence n'est pas une propriété des textes, elle dépend fondamentalement des univers de connaissances et de croyances du compreneur qui le conduisent à accepter ou non comme plausible la représentation construite à partir des énoncés » (M.F Ehrlich ; 1994 : 66, 67).

Ces diverses notions conduisent les auteurs de ce modèle à différencier microstructure,

macrostructure et superstructure :

« La microstructure, appelée « base de texte », est une liste de propositions (au sens de Kintsch) qui possède deux propriétés : elles est cohérente et hiérarchisée. La cohérence est dépendante des liaisons entre les propositions. Deux propositions sont liées si les faits qu'elles dénotent sont liés, c'est-à-dire si l'un est une condition de l'autre, condition faible (compatibilité) ou forte (implication) (…) La macrostructure représente la signification de l'ensemble du texte. C'est une liste cohérente et hiérarchisée de propositions (les macro-propositions) extraites des propositions de la microstructure à l'aide des règles de réduction de l'information sémantique » (Idem : 77).

Les phénomènes qui conduisent à l'élaboration de cette macrostructure peuvent être induits

par l'organisation de la microstructure (par exemple, les « répétitions d'arguments », souvent

sous forme d'anaphores, de pronoms relatifs, etc.), mais elles peuvent aussi être le produit de

superstructures ou de modèles de situations.

« La superstructure est une structure conventionnelle, commune à certains type de textes appartenant à une certaine culture. Les superstructures sont des principes d'organisation des textes (Idem : 70) ».

C'est à ce niveau qu'interviennent les schémas :

« Les macro-opérations sont guidées et contrôlées par un schéma. La notion de schéma renvoie, dans ce modèle, à des entités différentes : à une superstructure textuelle conventionnelle, par exemple, le schéma d'un récit, mais aussi aux buts spécifiques du lecteur, par exemple, lire afin de résoudre un problème » (Idem : 82).

D'autres auteurs, en particulier S.C. Garrod et A.J. Sandford, ont forgé le concept de

« scénario » qui englobe de façon plus large ces phénomènes :

« Les scénarios sont des représentations de situations qui comportent des éléments non explicités dans le texte, mais dérivés des connaissances que possède le sujet relativement à ces situations » (Idem 93).

Page 414: UN REFERENTIEL, POUR QUOI FAIRE

414

On parlera de phrases ou d’indicateurs syntagmatiques (phrase marker) sur le plan de

l’expression, de propositions, de macro- et de microstructures sur le plan du contenu, de

superstructure, de script, de schéma et de scénario sur le plan du référent. La question est de

savoir comment ces entités s’articulent entre elles. Lors de l’analyse du discours ou lors d’une

APP (analyse propositionnelle prédicative), la cohérence textuelle est recherchée en fonction

des éléments langagiers utilisés dans les phrases. Celle-ci génère alors des inférences

significatives en raison des liaisons, au niveau du contenu, entre les propositions et entre les

éléments de celles-ci. Des chaînes sémantiques se forment ainsi. Mais ces réseaux ne peuvent

être conçus indépendamment des modèles de situations, intériorisés sous forme de

représentations, d'abord parce que ceux-ci interviennent pour donner du sens aux liaisons

sémantiques (cohérence au niveau de la microstructure) et hiérarchiser et ordonner les

propositions (cohérence au niveau de la macrostructure), mais aussi en raison des liens avec

les superstructures et les buts du sujet qui déterminent les schémas mis en jeu lors du rappel

en mémoire. Le modèle de la « ligne de connaissance », ou « ligne-K », défini par M.L.

Minsky, est une façon d'exprimer la constitution de ces liaisons en connaissances :

« Nous conservons chaque chose que nous apprenons à proximité des agents avec lesquels elle a été encodé la première fois. De cette façon nous pouvons utiliser et récupérer facilement nos connaissances » (…) Et en prenant l'exemple d'un codage à la peinture des outils pour signifier ces marquages, il illustre ce concept de ligne-K : « Rappelez-vous seulement que le rouge signifie : « sert à réparer les bicyclettes ». La prochaine fois que vous réparez une bicyclette, vous pouvez gagner du temps en prenant à l'avance tous les outils marqués de rouge. Si vous utilisez différentes couleurs pour différents travaux, certains outils finiront par être marqués de plusieurs couleurs, autrement dit chaque outil sera rattaché à de nombreuses lignes-K différentes. Plus tard, quand il y aura un travail à faire, il vous suffira d'activer la ligne-K spécifique à ce type de tâche » (cité par A. Baddeley ; 1994 : 380).

Mais ce modèle est-il suffisant pour expliquer les différents processus et leur formation en

système mnémonique. Une expérience de W.J. Perrig et W. Kintsch nous oriente au moins

vers deux types de mémorisation, différence qui rejoint celle des ergonomes, entre

connaissances déclaratives et procédurales (M. de Montmollin ; 1986/1996 : 88) :

« L’analyse des décalages observés entre les différentes épreuves tend à indiquer que le rappel serait dépendant de la cohésion de texte (modèle propositionnel), alors que la vérification d'énoncé serait dépendante du modèle de situation » (M.F. Ehrlich : 1994 : 88).

Il y aurait donc mémorisation, à la fois sur le plan du contenu, dans les rapports qui

s’instituent entre les concepts et entre les propositions, à la fois dans les rapports de référence

du texte avec les modèles de situations, scripts, scénarios, schémas, dans lesquels le texte

s’insère, est utilisé et / ou utilisable.

Page 415: UN REFERENTIEL, POUR QUOI FAIRE

415

Les études des cognitivistes ne négligent pas ces phénomènes de référence, en

particulier le rôle des modèles de situation dans la formation des chaînes d’inférence, mais on

constate que leurs paradigmes de rappel (MEO) ont surtout privilégié l'étude des

significations et la cohérence textuelle au détriment du contexte. Les superstructures ne sont

guère étudiées en rapport avec les situations qui en conditionnent une appropriation par tous

les membres d'une communauté culturelle : qu’est-ce qui conduit à la normalisation des

« schémas de récit » et à une interprétation normalisée des situations sociales ? La

psychologie génétique précise la notion de « schème » et par là même de schéma et de

scénario, en relation avec les conceptions sociologiques de l’habitus. C’est cela qu’on se

propose maintenant d’analyser.

1-2) L’activité psycho-sensori-motrice et la formation des schèmes et des concepts :

Les notions de « schéma », de « script » et de « scénario » n’ont guère été traitées par

la psychologie génétique. Mais celle de « schème » est fondamentale pour donner de la

consistance à ces concepts, qui ont été trop peu développés par la psychologie cognitive.

Par ailleurs cette dernière est en relation significative avec l’habitus, considéré par P.

Bourdieu comme un schème générateur de pensées et de pratiques. Pour J. Piaget, dont le

parcours scientifique a été marqué par ses premières études zoologiques (J.M. Dolle ;

1974/1999 : 9, 10), la formation de l'intelligence est le produit d'une alternance constructive

entre des phénomènes d'assimilation des objets extérieurs aux structures cognitives déjà

construites / formées, et des phénomènes d'accommodation aux contraintes objectives (à

l'environnement extérieur, à la résistance des objets, etc.), l'équilibre entre ces deux

mouvements étant facteur d'adaptation et, de ce fait, construction / formation progressive des

schèmes de l'intelligence :

« Partons du développement sensori-moteur, et spécialement de l'existence de schèmes d'action, c'est-à-dire des systèmes de mouvements et de perceptions coordonnées entre eux, qui conduisent toute conduite élémentaire susceptible de se répéter et de s'appliquer à de nouvelles situations : par exemple saisir un objet, le déplacer, le secouer, etc. (…) Nous appelons assimilation cette modification des mouvements et positions externes par les mouvements propres, ainsi que la modification subjective résultant du fait que la perception ou la compréhension de ces mouvements et positions externes est nécessairement relative au « point de vue » propre. (…) Nous appelons accommodation cette modification des mouvements et du point de vue propres par les mouvements et positions extérieurs. (…) Un premier rapport possible entre l'assimilation et l'accommodation est la recherche d'un équilibre entre les deux. Nous parlons, dans ce cas, d'adaptation et ce sont les formes supérieures de cette adaptation qui aboutissent à l'activité intelligente » (J. Piaget ; 1945/1994 : 288, 289).

Page 416: UN REFERENTIEL, POUR QUOI FAIRE

416

Ainsi l'auteur étudie les « schèmes d'action », depuis les premiers d'entre eux dans la petite

enfance (succion, préhension des objets, cri pour obtenir satisfaction, réactions des adultes, en

particulier de la mère, etc.) jusqu’aux structures cognitives sur lesquelles est bâtie

l'intelligence humaine. L’intelligence apparaît comme une adaptation progressive de l’être

humain à son environnement par

« assimilation, en prenant ce terme dans le sens le plus large, l’action de l’organisme sur les objets qui l’entourent, en tant que cette action dépend des conduites antérieures portant sur les mêmes objets ou d’autres analogues » et « accommodation, étant entendu que l’être humain ne subit jamais telle qu’elle la réaction des corps qui l’environnent, mais qu’elle modifie simplement le cycle assimilateur en l’accommodant à eux. » (…) « On peut alors définir l’adaptation comme un équilibre entre l’assimilation et l’accommodation ce qui revient donc à dire un équilibre des échanges entre le sujet et les objets » (J. Piaget ; 1967 : 14).

Le primat de l'assimilation se manifeste alors, « soit simplement par une insuffisance de

décentration de l'action propre par rapport aux séquences extérieures, soit par une

inadéquation entre le schème d'assimilation et les objets » (J. Piaget ; 1945/1994 : 290).

Lorsque ce décalage entre le schème d'action et les objets est volontaire, ou du moins

consciemment répété, on peut parler de « jeu » : c'est le cas des jeux symboliques où les

objets sont intégrés dans des schèmes d'action sans y remplir une fonction particulière. C'est

aussi le cas des jeux plus construits qui adoptent des objets symboliques (les pions, les cartes,

les ballons, etc.) et fixent des règles d'utilisation de ceux-ci, c'est-à-dire des schèmes d'action

institués et codés. L’activité ludique est donc à l’origine des processus d’intégration d’objets

symboliques dans des schèmes. Par répétition et par adaptation aux situations, l’enfant

découvre l’univers, mais surtout, simultanément, il génère des rapports symboliques pour

organiser ces schèmes d’action. L’interaction entre les jeux répétitifs de l’enfant et son

environnement culturel inscrivent donc très tôt l’apprentissage des habitus dans les façons de

faire de l’enfant (par exemple, les habitudes culinaires, la façon de manger, la toilette, etc.).

Venons en maintenant au primat de l'accommodation, qui caractérise l'imitation :

reproduction de gestes, de comportements, de sons, etc. L’enfant imite aussi (ou du moins

apprend à reproduire) les phonies qu’il entend prononcer par les adultes. Il intègre ces

ensembles phoniques dans les situations pour lesquelles ils sont adaptés, par vection (cf. ci-

dessous). Mais l’appropriation est plus, dans un premier temps, symbolique / référentielle que

signifiante (au sens défini page 207), dans la mesure où la conception résulte d’une

construction cohérente entre ces différents outils symboliques pour les rendre signifiants – ce

qui est le propre de l’apprentissage de la langue en cours d’acquisition. Dans les deux cas (le

jeu et l’imitation), l'adaptation n’est pas totalement absente, mais, dans le premier cas (le jeu),

c'est l'environnement qui est adapté aux schèmes d'action préexistants.

Page 417: UN REFERENTIEL, POUR QUOI FAIRE

417

Dans le second (l’imitation), la reproduction de modèles existants est privilégiée pour

s'accommoder à l'environnement, par exemple l’utilisation de la parole pour demander ou

exprimer quelque chose. Cette reproduction n’est cependant performante et autonome qu’à

partir du moment où l’enfant a acquis les structures de coordination adaptées. L'intérêt des

travaux de J. Piaget ne se limite pas à l'étude de ces processus d'adaptation, il étudie aussi, à

partir des schèmes d'action primaires, la coordination des schèmes sensorimoteurs, puis leur

assimilation par répétition. C’est ainsi que se forment les représentations qui rendent possible

une action différée :

« Avec l'imitation différée (…) cette accommodation commence à s'intérioriser et se prolonge en représentation. (…) La représentation débute lorsque les données sensori-motrices actuelles sont assimilées à des éléments simplement évoqués et non perceptibles au moment considéré » (J. Piaget ; 1945/1994 : 291).

De façon synthétique, la coordination entre les sensations tactilo-kinesthésiques, liées aux

schèmes d'action, et les impressions, liées à des schèmes visuels et/ou auditifs, est, à force de

répétition et reproduction, à l’origine de la formation des images mentales et des signifiants

phoniques.

« L'imitation propre à cette seconde période est donc représentative, par opposition à l'imitation sensori-motrice qui fonctionne seulement en présence du modèle (…) L'image est donc à la fois imitation sensori-motrice intériorisée et esquisse d'imitations représentatives. L'image sonore d'un mot, par exemple, est à la fois le résultat intériorisé d'une imitation sensori-motrice acquise et l'ébauche de sa production ultérieure, autrement dit d'une imitation représentative. Une image visuelle, de même, est le prolongement des mouvements et de l'activité perceptive (…) accommodé à l'objet, en même temps qu'elle est la source d'imitations possibles » (Idem : 294).

On peut donc faire l’hypothèse que les représentations se constituent - du moins sous forme

de structures élaborées -, au cours de cette phase symbolique et que, là encore, la culture

intervient pour communiquer les croyances qui servent de référence aux schémas d’action,

c'est-à-dire de relations significatives entre ces symboles en rapport à leur utilisation dans des

schèmes d’action donnés. Cette phase est aussi celle au cours de laquelle se développe

l’apprentissage de la langue qui passe, selon L. Vygostki, par différentes phases avant

d’aboutir à des conceptions structurées à l’instar de celles des adultes. Cette problématique

mériterait, en sciences de l’éducation, de réels approfondissements pour discerner tous les

enjeux de communication derrière ces processus que l’on nomme couramment, dans le milieu

professionnel, « socialisation »123. Mais on s’attachera plutôt ici à en discerner les enjeux au

niveau de la communication et de la construction de concepts opératoires adaptés.

123 Rappelons, tout de même, les travaux de W. Doise et G. Mugny (1997), présentés au ch. 6 (page 240), qui ouvrent cette voie.

Page 418: UN REFERENTIEL, POUR QUOI FAIRE

418

L’activité sensori-motrice conduit à la formation des schèmes, sous « forme » de

représentations, qui permettent de mémoriser l'objet - du moins de l’imaginer de façon

différée, par rapport à ces schèmes dans lesquels il est intégré (représentation schématique).

Lors de cette phase de plus en plus importante d’intégration de nouveaux objets dans les

schèmes existants (développement des cadres de référence), l’enfant apprend aussi à donner

de la signification aux signifiants phoniques124 en apprenant les règles de la cohérence

textuelle, l’utilisation des connecteurs (conjonctions, subordination, coordination, etc.), etc.

Ces systèmes qui commencent à s’organiser pendant la période symbolique, sous forme de

pseudo-concepts, se structurent surtout lors de la période opératoire, quand ils sont en rapport

de référence avec les cadres aperceptifs de l’univers sensible. L. Vygotski s’appuie sur les

théories de la linguistique structurale pour développer ce point de vue :

« La linguistique moderne distingue la signification et la référence concrète du mot. Si nous appliquons cette distinction à notre problématique de la pensée enfantine par complexes, nous pourrions dire que les mots de l’enfant coïncident avec ceux de l’adulte dans leur référence concrète, c'est-à-dire qu’ils indiquent les mêmes objets, qu’ils se réfèrent au même cercle de phénomènes, mais qu’ils ne coïncident pas dans leur signification » (1934/1997 : 243).

Il convient tout de même de rappeler que J. Piaget et B. Inhelder se démarquent de la tradition

psychologique (et philosophique) qui fait dériver l’image mentale d’une association entre

perception et vision :

« Du point de vue génétique, si l’image prolongeait sans plus la perception, elle devrait intervenir dès la naissance, tandis qu’on n’en observe aucune manifestation au cours de la période sensori-motrice et qu’elle semble débuter seulement avec l’apparition de la fonction sémiotique » (J. Piaget et B. Inhelder ; 1966/2008 : 67-68).

La coordination sensori-motrice se fait par intégration et par vection. Si l’attention de l’enfant

est attirée par un objet, ce n’est pas seulement en raison de la vue de cet objet, mais aussi du

rapport, au niveau de la mémoire, avec des schèmes d’action qui lui ont procuré du plaisir (ou

du déplaisir, s’il y a rejet). Pour s’approprier cet objet, l’enfant fait alors appel à d’autres

schèmes d’action qu’il a construits et intériorisés par exercices sensori-moteurs (par exemple,

celui de la préhension ou les divers modes de déplacements). Les schèmes s’intègrent ainsi les

uns dans les autres et se constituent en systèmes de plus en plus complexes. Il y a vection

lorsqu’un ensemble de structures anciennes sont restructurées par de nouvelles acquisitions :

« il y a vection, dans une évolution intellectuelle, dans la mesure où le changement tend à conserver le maximum possible du passé tout en l’intégrant dans des formes nouvelles. L’équilibre d’un système de connaissances étant par définition l’état où les structures nouvelles s’intègrent les précédentes » (J. Piaget ; 1950 : 293).

124 J'ai choisi volontairement le terme de « signifiant phonique », différent de celui d'« image sonore », utilisé par J. Piaget. Le terme de « signifiant » rejoint celui des linguistes.

Page 419: UN REFERENTIEL, POUR QUOI FAIRE

419

La vection apparaît ainsi comme une phase au cours de laquelle un ensemble de schèmes, qui

se sont structurés entre eux au cours des expériences, se réorganisent à partir des nouveaux

moyens acquis par le développement de l’intelligence : ainsi en est-il lorsque le langage se

structure, favorisant de nouveaux modes de communication, lorsque les opérations concrètes

offrent à l’enfant une plus grande autonomie, etc. Les psychologues analysent ainsi les

processus cognitifs qui se structurent progressivement dans l’enfance pour former la pensée

humaine. Alors que dans la petite enfance, au niveau préopératoire, les réactions sont centrées

« sur les configurations perceptives ou imagées », elles sont fondées, au niveau opératoire,

« sur l’identité et la réversibilité par inversion et par réciprocité » (J. Piaget et B. Inhelder ;

1966/2008 : 95). En même temps que se dégagent celles d’ « identité », de « réversibilité » et

de « réciprocité », la notion de « conservation » des objets s’affermit. De même la sériation

accompagne-t-elle l’acquisition de la transitivité, et la classification celle de l’inclusion. Enfin

« la construction des nombres entiers s’effectue, chez l’enfant, en liaison étroite avec celle des

sériations et des inclusions de classe » (Idem : 99). Les processus sur lesquels nous

construisons notre logique d’adulte se constituent donc, à partir des cadres intériorisés et des

phénomènes d’adaptation, au cours de nouvelles actions et coordinations. L’enfant apprend

ainsi à décentrer son point de vue égocentrique pour appréhender le monde des objets.

La pensée de ces auteurs a souvent été simplifiée à l’excès, puis critiquée à partir de

ces interprétations simplistes125. La notion de « stade de l’évolution », en particulier, a été

grossièrement assimilée à un tableau des acquisitions cognitives en fonction de l’âge des

enfants, conception réductrice que J. Piaget n’a pas manqué de critiquer126. L’important, pour

lui, n’a jamais été d’aboutir à une classification par âge, mais à une étude des phénomènes

d’assimilation active de l’objet et de vection généralisante, principe de la hiérarchisation des

acquisitions autour duquel se structurent les phénomènes sociaux, décrits par A. Schutz (ch. 6,

pages 204 à 210), qui ont conduit à l’élaboration du modèle des niveaux de référenciation.

125 Ces interprétations simplistes de la psychologie génétique ne sont-elles pas induites par les représentations sociales des milieux professionnels qui les ont adaptées à leurs pratiques, selon les mêmes processus que ceux mis en lumière par S. Moscovici lors de son étude de la psychanalyse (1961). Les théories de J. Piaget ont effectivement surtout été popularisées au sein des milieux enseignants, en particulier en France, par l’intermédiaire d’H. Wallon qui fut président du Groupe Français de l’Education Nouvelle, président de la Société Française de Pédagogie, et, surtout, qui a occupé le poste de secrétaire national de l’Education Nationale à la libération. Si le psychologue ne peut être taxé de réductionnisme, en est-il de même des institutions qui ont diffusé ses idées ? 126 On sait que les psychologues travaillent souvent à partir de la « loi normale » et que l’âge des acquisitions est variable en fonction des individus : l’âge communiqué correspond à une moyenne autour de laquelle se concentre la majorité de la population étudiée.

Page 420: UN REFERENTIEL, POUR QUOI FAIRE

420

Plus globalement on peut se demander si ce n’est pas l’ensemble des phénomènes de

hiérarchie syntaxique qui sont induits par cette structuration progressive de nos schèmes

intellectuels ? Si on observe la pensée du jeune enfant à partir de nos schémas adultes, elle

apparaît syncrétique, « une sorte de compromis à différents niveaux entre la représentation qui

se cherche et la complexité mouvante de l’expérience » :

Le syncrétisme « exprime les rapports que l’enfant est capable d’établir entre les parties et le tout. La confusion est encore à peu près complète. La perception des choses et des situations reste globale, c'est-à-dire que le détail en reste indistinct. Cependant, l’attention de l’enfant nous paraît se porter sur le détail des choses. Il en révèle même de si particuliers, si ténus ou si fortuits qu’ils nous avaient échappé. (…) La perception de l’enfant est donc plutôt singulière que globale ; elle porte sur des unités successives et mutuellement indépendantes, ou plutôt n’ayant entre elles d’autre lien que leur énumération même » (H. Wallon ; 1941/1968 : 163, 164).

Le langage que le jeune enfant s’approprie n’est pas, dans un premier temps du moins, un

moyen de nommer les choses ; il est plutôt un attribut phonique (signifiant) qui permet de les

distinguer et / ou de les agréger à partir de leurs fonctions pour l’action. On retrouve ici les

deux modes prédicatifs (statifs et factifs) qu’autorisent nos constructions syntaxiques. Il n’y a

catégorisation qu’à partir du moment où ces deux dimensions prédicatives (attribut et

fonction) s’articulent entre elles. C’est cette nouvelle structuration que permet l’apprentissage

de la langue. L’enfant va ainsi pouvoir construire progressivement une représentation de

l’univers et, par là même, se décentrer de ses intérêts immédiats.

« Chez l’enfant, les cadres classificateurs n’existent pas encore. D’où la particularité marquée et comme irréductible de ses impressions et de ses souvenirs. (…) Le subjectif et l’objectif se mêlent encore donnant lieu à ce que Levy-Bruhl a dénommé participation. L’enfant commence par ne pas savoir s’isoler du spectacle qui le captive ou de l’objet qu’il désire. Ainsi sa vie va-t-elle se fragmentant avec les situations diverses dans lesquelles il se confond tour à tour. (…). L’impuissance où est l’enfant de distinguer entre la chose et ses aspects simultanés ou passagers résulte de son impuissance à imaginer les aspects sous forme de qualités indépendantes ou mieux de catégories qualitatives. (…) Chez l’enfant, les qualités des choses commencent à se combiner à chacune particulièrement, sans pouvoir servir à les ranger par comparaison systématique. Elles ne sont pas encore passées sur le plan fonctionnel des catégories. C’est là une étape tardive suivant l’origine plus abstraite ou plus concrète des principes classificateurs (…) » (Idem : 165-169).

L’apprentissage de la langue favorise le développement d’un outil de communication sur les

choses, et de ce fait l’élaboration de représentations de plus en plus cohérentes. En particulier

la coordination entre les différentes catégorisations des objets apparaît indispensable pour

parvenir à construire une explication sur les phénomènes découverts à travers l’expérience

sensori-motrice, et surtout pour pouvoir communiquer avec les pairs et les aînés, avec / autour

de / à partir de ces constructions conceptuelles.

Page 421: UN REFERENTIEL, POUR QUOI FAIRE

421

« Le progrès de la causalité chez l’enfant est ainsi lié au développement de la fonction catégorielle. (…) L’enfant arrivera à exprimer la causalité mécanique, dont il a déjà le maniement dans la pratique, mais qui ne peut se concevoir intellectuellement sans une dépersonnalisation complète de la connaissance ni sans le pouvoir de distinguer entre les objets, d’analyser leurs structures et leurs rapports » (Idem : 182, 183).

Par conséquent l’enfant a besoin d’expériences et d’activités pour pouvoir construire les

schèmes de son intelligence qui lui serviront à s’adapter à son environnement. Mais aucun

d’entre nous n’a reconstruit, par lui-même, l’explication du fonctionnement de l’univers. Les

conceptions que nous adoptons aujourd’hui ont été forgées à travers l’histoire et nous ont été

communiquées par nos aînés grâce au langage, qui a donc, en lui-même, un pouvoir

explicatif, sous forme de conception, indépendamment de l’expérience. Ces conceptions ne

sont cependant exploitables, par un sujet, qu’à partir du moment où elles sont en rapport de

référence avec son expérience, c'est-à-dire avec l’ensemble des schèmes de son intelligence.

L. Vygotski a insisté sur cet aspect à partir de ses travaux sur le développement

génétique des concepts. Pour cet auteur, la formation du concept est le produit d’un long

processus :

« La formation du concept ou le fait qu’un mot acquiert une signification est le résultat d’une activité complexe (maniement du mot ou du signe) à laquelle participent toutes les fonctions intellectuelles essentielles dans une combinaison spécifique » (1934/1997 : 206).

A partir des travaux de J. Piaget, dont il reconnaît toute la perspicacité (idem : 282, 283), cet

auteur étudie la genèse des concepts, depuis l’image syncrétique et ses différentes étapes

jusqu’à la formation de « généralisations » qu’il qualifie de « pensée par complexes »

(deuxième grand stade) (idem : 214, 215). Il en distingue différents types (« associatifs »,

« collections », « en chaîne » ou « diffus ») qui se combinent pour former des « pseudo-

concepts ». On a déjà évoqué la façon dont cette appropriation progressive conduit à

l’organisation taxonomique du lexique - classification générique par univers sémantique (ch.

6, pages 279 à 282). La maîtrise progressive de la compétence linguistique (de la grammaire),

d’abord par des structures propositionnelles simples, puis de plus en plus complexes, organise

ce champ sémantique. Enfin l’enfant apprend, à travers l’usage, l’utilisation pragmatique de la

parole et l’adaptation des énoncés en fonction du contexte. Les relations entre les objets ne se

font donc pas sur une base rationnelle et fonctionnelle, à l’instar du concept, mais sur la base

de généralisations à partir des différentes modalités d’intégration, de façon syncrétique et

diffuse. L’auteur analyse ainsi la communication qui s’institue entre les concepts spontanés de

l’enfant et les concepts des adultes, en particulier les concepts scientifiques qui sont

communiqués par l’école.

Page 422: UN REFERENTIEL, POUR QUOI FAIRE

422

« En raison de la contradiction qui lui est inhérente, le pseudo-concept, tout en étant un complexe, contient déjà en germe le futur concept. La communication verbale avec les adultes est ainsi un moteur, un facteur puissant du développement des concepts enfantins. Le passage de la pensée par complexes à la pensée conceptuelle se fait imperceptiblement pour l’enfant parce que dans la pratique ses pseudo-concepts coïncident avec les concepts des adultes. Il se crée donc une situation génétique originale qui est plutôt la règle que l’exception dans tout le développement intellectuel de l’enfant. Ce qui constitue l’originalité de cette situation, c’est que l’enfant commence en fait à utiliser et à manier les concepts avant d’en prendre conscience » (Idem : 232).

La communication parvient à s’établir entre l’enfant et l’adulte, dans la mesure où les mêmes

mots sont utilisés en référence aux mêmes objets, cela ne veut pas dire pour autant que l’un et

l’autre mettent la même signification derrière ceux-ci. L’enfant utilise les mêmes mots dans

les mêmes situations, mais sans leur donner le même sens, puisqu’il n’a pas acquis toutes les

structures logiques pour expliquer les relations fonctionnelles entre les objets.

« L’utilisation de mots généraux n’implique nullement une maîtrise aussi précoce de la pensée abstraite car l’enfant, comme nous l’avons déjà montré au long de ce chapitre, tout en utilisant les mêmes mots que l’adulte, en les rapportant au même cercle d’objets, pense cependant ces objets autrement, selon un tout autre procédé que l’adulte. C’est pourquoi l’emploi extrêmement précoce par l’enfant de mots, qui équivalent dans le langage de l’adulte à sa pensée abstraite sous ses formes les plus abstraites, n’a pas du tout la même signification dans la pensée de l’enfant » (Idem : 265, 266).

Lorsqu’un enfant commence à utiliser un mot qu’il a emprunté au monde des adultes, il n’en

comprend le sens qu’à travers le prisme de ses propres constructions conceptuelles, mais

l’échange langagier oriente son expérience vers la découverte rationnelle de l’univers décrit

par le langage (Idem : 293). Ainsi la signification d’un mot n’est pas intrinsèquement liée à

celui-ci, elle est un processus d’acquisition complexe (Idem 418). La principale découverte de

ces recherches est le caractère évolutif de nos significations - et de nos concepts - qui se

restructurent au fur et à mesure de l’utilisation de généralisations de plus en plus complexes

pour les interpréter :

« La signification du mot n’est pas immuable. Elle se modifie au cours du développement de l’enfant. Elle varie aussi avec les différents modes de fonctionnement de la pensée » (Idem : 427).

À chaque âge, la construction des significations (et des concepts) évolue en fonction des

schèmes : pour intégrer de nouveaux mots, l’enfant adopte les structures de généralisation

dont il dispose. L. Vygotski rejoint ici J. Piaget dont il emprunte le résultat des recherches.

Page 423: UN REFERENTIEL, POUR QUOI FAIRE

423

Les projets pédagogiques des deux psychologues apparaissent d’ailleurs très

complémentaires : le premier préconise le choix de situations et de méthodes adaptées pour

favoriser l’action épanouissante de l’enfant (ce qui est le credo des pédagogies actives et des

méthodes d’éducation nouvelle), le second privilégie le choix des concepts scientifiques

adaptés à son développement, c'est-à-dire les structures conceptuelles qui signifient un

ensemble de phénomènes que l’enfant est déjà capable de globaliser et de généraliser - qui

font donc partie de sa « zone proximale de développement ». Mais, faute de communication

entre les deux auteurs, leurs approches paradigmatiques différentes ont conduit à des

incompréhensions. L’auteur suisse fonde tout son système d’interprétation sur l’assimilation

de l’environnement par le sujet, son accommodation en fonction des contraintes / contextes, et

l’adaptation progressive de ses structures de pensée. Il s’inscrit ainsi dans une dynamique qui

l’a conduit à transposer les modes d’observation systématique de la biologie à la psychologie,

mais aussi à se démarquer progressivement, au fur et à mesure de ses expériences, des thèses

naturalistes et de l’associationnisme prédominant à son époque en occident – dont la

psychanalyse est l’une des composantes. Les circonstances qui ont permis l’émergence de la

psychologie russe sont tout à fait différentes. C’est la révolution qui en a favorisé l’essor. Les

thèses dialectiques du matérialisme historique de K. Marx, et du matérialisme dialectique de

F. Engels, sont alors prépondérantes : les citations sont d’ailleurs fréquentes dans l’ouvrage de

L. Vygotski. Par ailleurs les recherches russes s’inscrivent dans le mouvement de

transformation sociale qui a favorisé la scolarisation massive au sein de la jeune république.

La préoccupation particulière du psychologue russe est donc d’analyser la façon dont les

jeunes générations s’approprient les concepts scientifiques. Si on analyse les paradigmes des

deux psychologues, leurs modes d’expérimentation (MEO) sont identiques, ou proches. Tout

le courant de la psychologie génétique de cette époque a œuvré dans la même direction,

comme c’est souvent le cas dans le domaine de la recherche scientifique. L. Vygotski

s’inspire, sur ce point, des progrès de la psychologie moderne qu’il a conséquemment étudiée.

Les modélisations cognitives (MCP) sont convergentes, du moins globalement : ils travaillent

tous deux sur la genèse des structures de l’intelligence, sur les concepts spontanés de

l’enfance et sur la formation des concepts scientifiques. En revanche les généralisations

symboliques (RFC) divergent dès l’origine. Là où le premier étudie la formation des concepts

en rapport avec l’activité adaptative du sujet, le second centre sa préoccupation sur

l’articulation entre les concepts scientifiques et les concepts quotidiens. Le passage ci-dessous

illustre bien la contradiction dans laquelle se positionne la psychologie russe de cette époque :

Page 424: UN REFERENTIEL, POUR QUOI FAIRE

424

« Nous avons achevé d’exposer les considérations les plus importantes qui, dans l’organisation de cette recherche, nous ont déterminé à délimiter des concepts scientifiques et des concepts quotidiens. Comme cela découle à l’évidence de ce qui précède, la question capitale à laquelle depuis le début cette étude tente de répondre peut être formulée de manière extrêmement simple : le concept de « frère » - ce concept quotidien typique, grâce auquel Piaget a su établir une série de particularités de la pensée enfantine (incapacité à prendre conscience des relations, etc.) – et le concept d’ « exploitation » que l’enfant assimile dans le processus d’apprentissage d’un système de connaissances portant sur la société, suivent-ils dans leur développement des voies identiques ou des voies différentes ? Le second concept emprunte-t-il simplement la voie du développement du premier, en présentant les mêmes particularités, ou doit-on le considérer, en raison de sa nature psychique, comme un concept relevant d’un type particulier ? » (Idem : 298, 299).

On a déjà évoqué, ci-dessus, la façon dont L. Vygotski a résolu cette contradiction. Il a

expliqué la fonction que jouent les concepts scientifiques comme références communes pour

qualifier les phénomènes, qui orientent de ce fait le développement spontané de l’enfant. Les

préoccupations du psychologue russe l’ont conduit à poser des hypothèses fécondes sur les

rapports entre la phylogenèse et l’ontogenèse, c'est-à-dire entre la construction des concepts

d’une société à travers son histoire et la façon dont les enfants se les réapproprient

intuitivement. De cette façon particulière d’appréhender le problème, deux hypothèses ont

émergé. Le « langage égocentrique » de l’enfant se transforme progressivement en « langage

intériorisé », au fur et à mesure que l’enfant prend conscience de la fonction sociale du

langage, des contraintes syntaxiques et surtout pragmatiques, liées à la communication : parler

à tour de rôle, communiquer sur un objet précis, etc. Le langage est alors intériorisé, il

continue à orienter l’action et à favoriser la réflexion sur cette action. Il devient métalangage.

Mais la seconde hypothèse est encore plus intéressante, bien que moins valorisée.

« La pensée et le langage ont des racines génétiques différentes ; le développement de la pensée et celui du langage suivent des cours différents et sont indépendants l’un de l’autre » (Idem : 166, 167). (…) « 1° Dans le développement ontogénétique de la pensée et du langage, nous trouvons également des racines différentes pour l’un et l’autre processus ; 2° Dans le développement du langage de l’enfant, nous pouvons indéniablement constater un « stade pré-intellectuel », de même que dans le développement de la pensée un « stade préverbal » ; 3° Jusqu’à un certain moment, les deux développements suivent des cours séparés, indépendants l’un de l’autre ; 4° En un certain point les deux cours se rejoignent, après quoi la pensée devient verbale et le langage devient intellectuel » (Idem : 171).

L’apprentissage du langage et le développement de la pensée ne sont pas des processus

intrinsèquement dépendants l’un à l’autre : ils se développent de façon autonome et

s’articulent entre eux pour aboutir à la formation des concepts. A partir du moment où se

constitue le « concept », la pensée devient logique et la communication verbale devient

conceptuelle. Le concept est le produit des opérations de la pensée, de l’articulation

dialectique entre des signifiants phoniques, qui se constituent progressivement sous forme

langagière, et des schèmes sensori-moteurs et opératoires, qui structurent notre intelligence.

Page 425: UN REFERENTIEL, POUR QUOI FAIRE

425

« Les concepts scientifiques ne sont pas assimilés ni appris par l’enfant, mais ils naissent et se forment grâce à une grande tension de toute l’activité de sa propre pensée » (Idem : 289).

Si les deux psychologues reconnaissent ainsi la différence entre les concepts scientifiques et

les concepts quotidiens de l’enfant, les recherches du russe s’en différencient en ce sens que,

pour lui, les concepts scientifiques ne sont ni simplement assimilés, ni appris (Idem : 298).

Leur acquisition se met en place par un mouvement dialectique qui s’établit entre, d’un côté,

des concepts qui sont déjà formés, ceux des adultes, et, de l’autre côté, les structures de la

pensée enfantine qui ont acquis un degré de généralisation suffisant pour y attacher de

l’intérêt et les intégrer dans leur propre univers représentationnel. L’évolution de la pensée et

l’apprentissage de la langue suivent des voies autonomes, mais dialectiquement imbriquées

l’une dans l’autre. On peut l’exprimer autrement et dire que le schème (étudié par J. Piaget) et

le concept (étudié par L. Vygotski) sont structurellement différents, mais complémentaires.

Leur formation ne répond pas aux mêmes fonctions pour l’adaptation de notre organisme :

d’un côté, les schèmes de l’intelligence ajustent l’action de l’individu à son environnement,

de l’autre, les concepts construisent des connaissances organisées et communicables à nos

pairs sur les objets de cet environnement. L’intelligence est le produit de la relation

dialectique entre ces processus. C’est en ce sens que les recherches de la psychologie russe

ont introduit une véritable rupture, qui est particulièrement intéressante pour notre propos.

1-3) Analyse des discours, psychologie et question de sens :

Synthétisons les principaux postulats argumentés ci-dessus : l’analyse des discours

observe et traite les phénomènes langagiers, les classe et les organise en fonction de la

signification qu’ils produisent, sur le plan du contenu. Lors du traitement, les logiques

propositionnelles et les constructions conceptuelles sont déduites à partir des indicateurs

langagiers produits sur le plan de l’expression. Ces méthodes sont conduites en vertu des

règles fondamentales de la grammaire, de la sémantique et de l’énonciation. Mais leur sens est

aussi induit par le contexte et / ou par les représentations sociales. Les notions introduites par

les psychologues nous permettent alors de cerner les processus auxquels il est fait

implicitement référence. L’analyse sociologique du contexte nous offre des informations sur

les cadres de référence dans lesquels ces processus s’insèrent. Précisons maintenant ces

notions. Le « schéma » est défini par les cognitivistes comme un système de référence, le

« script » correspond plutôt l’aspect séquentiel de cette structure schématique (processus).

Page 426: UN REFERENTIEL, POUR QUOI FAIRE

426

Ils structurent ainsi, sur le plan du référent, les représentations qui résultent des phénomènes

cognitifs d’aperception et de mémorisation. Mais comment se forment-ils ? La modélisation

de W. Kintsch développe une conception en adéquation avec celle du « schème » de la

psychologie génétique : les macro-propositions sont guidées par un schéma, qui peut être de

l’ordre des buts spécifiques de l’acteur (de l’énonciateur pour les choix de l’expression, du

récepteur lors de l’analyse du contenu du message) ou de la superstructure textuelle (par

exemple, la trame narrative). Les schèmes, à l’origine de ces cadres de référence, sont le

produit de l’activité sensori-motrice : ils sont mémorisés par répétitions et par adaptations

successives, soit par l’activité assimilatrice (jeux, activités en fonction d’un but), soit à partir

des modèles intégrés par imitation (histoires, reproduction de comportements). L’acteur

élabore alors les logiques qui structurent son énonciation en référence à ces schèmes, c’est-à-

dire en fonction de ses buts, de son positionnement, d’une superstructure de référence, etc.

L’analyse de l’énonciation permet d’identifier cet ancrage du discours auquel les analyses

syntaxique et sémantique se référent pour acquérir du sens. Mais comment s’expriment les

schémas implicites sur lesquels les individus fondent leurs discours ? Chaque individu

développe des schèmes qui lui sont propres et il n’est jamais possible de connaître, de façon

précise, son histoire personnelle. La psychologie génétique apporte alors une connaissance sur

les caractéristiques universelles de ces processus. La psychologie cognitive précise la fonction

de ceux-ci dans les systèmes de communication, en particulier au cours des échanges

langagiers. Enfin les schèmes s’insèrent dans des habitus déterminés par les modes de

fonctionnement de la société, schémas-type conceptualisés par les théories d’A. Schutz (ch. 6,

page 204). Chacune de ces disciplines apportent donc des modalités empiriques de collecte

(MEO) et des connaissances scientifiques (MCP) pour étudier les phénomènes qui sont mis en

jeu au cours des communications. Il est ainsi possible de mettre en place des protocoles

d’observation (MEO) inspirés de la psychologie (ou de la docimologie), proches des

situations de la pratique professionnelle : les modes de l’analyse propositionnelle prédicative

facilitent l’étude des scripts et l’interprétation de la démarche des acteurs. L’analyse porte

surtout sur les processus cognitifs mis en œuvre au cours de l’évaluation (expérience N°1, ch.

12). Mais il est aussi possible de choisir les modalités d’observation ethnographiques ou la

collecte de caractéristiques sociologiques. Dans ce cas l’interprétation est fondée sur les

connaissances (MCP) de l’ethnométhodologie et de la sociologie interactionniste et de

l’habitus : elle porte beaucoup plus sur la fonction de l’évaluation (expérience N° 2, ch. 13).

Page 427: UN REFERENTIEL, POUR QUOI FAIRE

427

Mais cette référence à des théories scientifiques différentes fait aussi surgir des contradictions,

qui introduisent de nouvelles réflexions. Par exemple, pour A. Baddeley, le « script » est un

schéma contenant « une bonne partie de notre connaissance concernant les activités sociales »

(1994 : 362). M.F. Ehrlich, à partir d’une revue de la littérature sur les travaux cognitivistes,

définit le schéma comme un « paquet organisé de connaissances », qui « rend compte, par

exemple, du mode d'organisation des concepts ». Mais, à la suite des travaux de L. Vygotski,

on aurait plutôt tendance à penser que les schémas, les scripts ou la « ligne-K » de M.L.

Minsky, sont des phénomènes indépendants des concepts. Certes les processus s’articulent

entre eux. Par ailleurs les schémas peuvent être explicités par des mots. Mais sont-ils pour

autant des connaissances ? Bien entendu la question est de savoir ce que l’on entend par

« connaissance » et par « concept ». Qualifions-nous de « connaissances », par exemple,

certains « savoirs faire », tels le ski, le théâtre ou toute autre forme d’art qui demande un long

apprentissage ? Quand L. Vygotski a posé sa problématique, elle est fondée sur certains

constats : en particulier, il est possible de connaître un texte par cœur sans rien y comprendre,

ou d’employer des termes scientifiques sans en avoir la maîtrise. Il en a déduit, force

expériences à l’appui, que la formation des connaissances et celle des schèmes sont deux

processus différents. Bien entendu il y a articulation entre langage et schémas d’une part,

entre le langage et connaissances d’autre part, mais s’agit-il des mêmes processus ? Il est

permis d’en douter. Mais en quoi cette question nous concerne-t-elle pour analyser les

discours ? La plupart des travaux, en linguistique ou en psychologie cognitive, ont fondé leurs

paradigmes sur des modèles (MCP) qui considèrent implicitement que le sens attribué par le

locuteur et par l’allocutaire est intrinsèque au lexème, qui adopte ensuite des connotations

particulières en fonction des contextes d’énonciation, des énonciateurs, etc. (L. Hjelmslev, C.

Kerbrat-Orecchioni, etc.). Or cette position est de plus en plus remise en question. Les travaux

de F. Rastier, qui s’inscrivent plutôt dans une tradition sémiologique, (dans J.M. Barbier, O.

Galatanu ; 2000), apportent une autre façon d’interpréter ces phénomènes de connotation.

Rappelant que les « références sont codifiées par les normes qui les régissent » et que, lors de

la production et de l’interprétation du texte, les genres « témoignent du caractère instituant

des pratiques sociales dans lesquelles ils prennent place » (Idem : 20), il renverse la logique

qui postule que nous construisons le sens à partir des significations :

« En somme, la hiérarchie entre sens et signification pourrait être inversée. Le sens n'est pas de la signification déformée par le contexte : la signification ne serait plus un type diversement déformé dans ses occurrences qui constituent les sens, mais du sens normalisé car coupé de son contexte » (F. Rastier dans J.M. Barbier, O. Galatanu ; 2000 : 18).

Page 428: UN REFERENTIEL, POUR QUOI FAIRE

428

Ce renversement de la problématique, par rapport à la façon dont les linguistes ont l’habitude

de traiter la question, est particulièrement intéressant. On peut en déduire que les individus,

quand ils communiquent, n’ont pas forcément la même conception du même mot (signifiant),

le cas général étant plutôt l’inverse - par exemple « compétence », « rôle », « critère », etc.

Cela ne veut pas dire, pour autant, que chacun entend ce qu’il veut derrière les mots : les

acceptions actuelles ont été déterminées par des pratiques qui se sont instituées au cours de

l’histoire : par exemple le « rôle » comme prescription écrite, la « compétence » comme

reconnaissance de la faculté de juger. Ces pratiques sociales, en s’instituant, ont généré des

réseaux conceptuels pour les exprimer, d’abord sous forme générique, puis sous forme de plus

en plus diversifiée et complexe. Les conceptions sont certes instituées, mais elles varient d’un

individu à l’autre. L’analyse des discours permet alors d’étudier ces différences conceptuelles,

du moins la façon différente dont les concepts sont agencés / utilisés, dans une situation

donnée (cf. par exemple, l’expérience N°2). En se recentrant sur le plan du contenu, F.

Rastier définit « la sémiosis à partir du réseau de relations entre signifiés au sein du texte – en

considérant les signifiants comme des interprétants qui permettent de construire certaines de

ces relations » (idem : 19), position qui permet d’expliquer la signification qui se glisse

derrière l’agencement syntaxique des énoncés, ou entre ceux-ci (cohérence textuelle). Le

« sens » est ainsi conçu comme un « phénomène contextuel ». Cette modélisation est proche

de celle qu’on a proposée pour les niveaux de référenciation :

« L'opération mentale qui établit la référence est cependant bien distincte de l'opération qui établit le renvoi indiciaire et que l'on peut nommer inférence. La référence établit une relation entre deux ordres de réalité, concepts et objets. En revanche, l'inférence relie deux unités relevant du même ordre de réalité : deux objets, pour une conception référentialiste naïve de l'indice, ou deux concepts, selon le point de vue mentaliste » (F. Rastier ; idem : 11).

Mais on ne suit plus cet auteur quand il définit la signification comme une « propriété

assignée aux signes » et le sens, une « propriété des textes ». L’effet de sens, produit par le

texte, n’est pas seulement induit par des relations avec l’univers textuel (cotexte), mais aussi

par le fait que le texte engendre de la signification sur le plan du contenu, et du sens par

référence à des scripts, schémas, scénarios, etc. sur le plan du référent. C’est cette articulation

entre signification et référence qu’on qualifiera de « sens ». Il ne s’agit là, a priori, que d’une

différence de terminologie, une différence qui peut tout de même avoir son importance si l’on

en juge par cette définition d'O. Galatanu, source de confusions et génératrice d’illusions - en

particulier celle que les représentations et les formes de l’expression verbale puissent être sur

le même plan et, de ce fait, s’inscrire dans des relations quasi-automatiques.

Page 429: UN REFERENTIEL, POUR QUOI FAIRE

429

« La signification désigne la (les) représentation(s) associée(s) à une expression verbale de façon durable dans une communauté linguistique (…) Le sens désigne pour nous l'association de deux ou plusieurs représentations proposées par un sujet parlant dans un acte discursif » (O. Galatanu ; idem : 29).

Certes ces mécanismes s’opèrent spontanément et quasi-immédiatement dans notre cerveau.

Mais l’intérêt de l’analyse et de la modélisation n’est-il pas de préciser la différence entre tous

ces processus cognitifs, qui ne se réalisent certainement pas dans les mêmes régions du

cerveau, et surtout qui ne s’inscrivent pas dans les mêmes systèmes de signification et

d’inférence ? Par exemple, face à un énoncé comme « les feuilles de l’arbre sont rouges », il

est possible d’inférer, au niveau du contenu, des relations significatives entre les concepts

« arbres » et « feuilles » et le prédicat « rouges » (relations d’attribution). Mais ces relations

n’ont de sens qu’en référence à des scénarios, qui sont alors spontanément inférés : c’est

l’automne. Si nous avons une expression du style, « le tronc de l’arbre est rouge », notre

logique est bousculée car ces relations ne correspondent pas à des schémas habituels :

l’inférence ne se situe donc pas qu’au niveau de la signification, mais elle s’inscrit aussi dans

les rapports de référence avec le plan du référent. Derrière cette différenciation se pose donc

la question de l’inférence et de l’utilisation de modèles implicites pour justifier celle-ci : quels

types de modèles sont utilisés ? Qu’est ce qui nous permet d’affirmer que ceux-ci sont bien

les modèles de référence, de l’énonciateur et du récepteur ? C’est non seulement une question

fondamentale en analyse de discours, mais d’autant plus pour notre objet de recherche :

identifier les critères de ces acteurs. Certes il est possible d’inférer des présuppositions à partir

du texte, celles-ci nous guident directement vers certains modèles implicites de l’énonciateur.

Mais, si elles constituent souvent une première étape indispensable dans la mesure où elles

induisent des hypothèses, elles ne sont pas toujours suffisantes pour comprendre l’ensemble

des processus et des systèmes qui sont en jeu. C’est à ce niveau que les autres disciplines

apportent leurs contributions.

D’une part, la logique formelle implicite est signifiée par les énoncés, leur agencement

sur le plan de l’expression et la signification ainsi produite par la coexistence des propositions

sur le plan du contenu. D’autre part, il y a l’objectivité induite par l’expérience, la probabilité

d’un évènement, la succession logique des actions ou l’inférence d’une cause à l’origine d’un

phénomène, etc. Comment s’articulent la construction de ces conceptions et la façon dont

nous établissons notre relation au monde des objets ? Cette problématique n’est pas nouvelle,

elle constitue le fondement des recherches d’E. Husserl quand il oppose la logique formelle et

la logique réelle (1907/1998 : 143-162), les sciences aprioriques et les sciences empiriques,

ou encore entre les fondations logico-formelles et les fondations inductives (idem : 173-175).

Page 430: UN REFERENTIEL, POUR QUOI FAIRE

430

Le philosophe propose ainsi de développer une « science de la signification », ou « science en

tant que système de propositions » (idem : 85-100), pour étudier le sens des propositions et

différencier la logique qui relève de la forme de celles-ci et celle qui doit être recherchée dans

les rapports avec les autres sciences. Une proposition (ou une succession de propositions) peut

exister et être logiquement bien formée, sans pour autant révéler une proposition vraie.

« Une proposition fausse n’est pas un néant, elle est une proposition, mais il ne lui correspond pas l’objectivité au sujet de laquelle il est énoncé, en elle, qu’elle est et qu’elle est constituée de telle ou telle façon » (Idem : 88).

Notons tout de même que cette science de significations n’est pas la seule à fonder la logique

formelle, puisque le philosophe y adjoint aussi les sciences mathématiques (au moins une

partie d’entre elles) et l’ontologie logico-formelle127. L’étude de cette articulation est d’autant

plus complexe qu’elle ne saurait exclure le « rôle de la subjectivité dans les sciences » (idem :

163). E. Husserl différencie ainsi les différentes sphères dans lesquelles se fondent nos

connaissances ; il propose alors un nouveau champ de recherche différent de la logique, « la

noétique comme exploration et évaluation des prises de position intellectuelles en ce qui

concerne leurs revendications de droit » à les fonder :

« C’est a fortiori quelque chose de totalement différent, de considérer seulement les propositions et leurs relations logiques et de considérer les prises de positions de la présomption, de l’interrogation, du doute, du jugement qui ont les mêmes propositions pour « contenu » » (Idem : 175).

Cette problématique de la noétique, ou « doctrine des normes de la connaissance », nous

concerne au mois à deux titres : à la fois parce qu’elle permet de préciser les cadres

méthodologiques de la recherche. A ce niveau, les réflexions d’E. Husserl s’inscrivent dans

les préoccupations de son époque qui voit émerger l’épistémologie - ou du moins la

génération qui lui succède (par exemple, G. Bachelard). Mais on est aussi interpelé à un autre

titre : ces prises de positions lors de jugements, doutes, présomptions, etc., qui impliquent le

sujet agissant et réfléchissant sur ses actions, et qui conduisent à la construction de

propositions rationnelles, de relations logiques, etc., ne s’agit-il pas de cette notion que les

scientifiques nomment « critère » ? Les réflexions du philosophe orientent donc nos

différentes pistes de recherche, d’autant que les théories d’A. Schutz en sont un pur produit.

« Nous ne comprenons pas la noétique (...) comme un art pratique de juger les revendications de droit de connaissances pouvant être données préalablement, mais comme une science qui par un intérêt purement scientifique explore l’un après l’autre les actes de connaissances, c'est-à-dire les prises de position intellectuelles élevant, selon leur nature, la revendication d’un droit, et qui évalue les relations de droit leur appartenant aussi bien isolément que dans leur jonction et leurs fondation les unes les autres » (E. Husserl ; 1907/1998 : 180).

127 cf. Les réflexions épistémologiques de la partie I (ch. 3, pages 56 à 61).

Page 431: UN REFERENTIEL, POUR QUOI FAIRE

431

Et cette exploration concerne aussi bien « la sphère de la connaissance par expérience », « la

perception, le souvenir, l’attente empirique, l’induction et l’analogie » que la « sphère de la

pensée logico-formelle ». Toutes ces sphères méritent d’être interrogées sur « leur conformité

au droit et leurs limites de droit » (idem : 181). Il ne s’agit pas pour autant, pour nous, d’entrer

dans la complexité de la phénoménologie, mais seulement de préciser la définition du

« critère », en rapport avec les différentes méthodes qui en favorisent l’observation. Ainsi

nous avons, tout d’abord, la science qui étudie les propositions, ou encore « la signification de

l’énoncé grammatical » (idem : 87), l’idée d’une grammaire pure (1901/2001 : 85-138). Dans

un énoncé du type « Paul a tapé Pierre », la signification est établie par la structure

grammaticale : « Paul » est l’actant, « Pierre » l’acté et « taper », l’action réalisée (passé

composé). Le contexte peut jouer sur la signification du lexème « taper » et induire toute sorte

de présuppositions, par exemple « Paul n’avait plus d’argent sur lui ». Cet exemple illustre

encore une fois la différence entre les règles formelles de la logique et la recherche de

l’objectivité, qui n’est jamais une démarche évidente, lors de l’analyse du discours des

acteurs. Deux remarques s’imposent : 1° Il n’est pas possible de faire l’impasse sur un

minimum de connaissances des cadres de référence des acteurs pour éviter les

« malentendus » ; 2° La connaissance des structures logico-formelles nous permet d’effectuer

le tri entre, d’une part, les connaissances et les règles institutionnelles reconnues et

considérées valides et, d’autre part, les interprétations probables (présuppositions, hypothèses,

etc.) et enfin les topiques incertaines, faute d’éléments. Les mathématiques peuvent alors

apporter leur contribution, soit sous forme de structure logique pour analyser les propositions,

soit sous forme empirique par une étude systématique de l’objet à partir des hypothèses et

présuppositions (schéma de référence, caractères des figures, etc.). Par exemple la

présentation sous forme de tableau sous-entend un produit cartésien de certaines

caractéristiques objectives, croisées les unes avec les autres. La statistique apporte alors des

méthodes complémentaires pour traiter les informations collectées et donner du sens à ce

tableau, en rapport avec la situation d’observation (par exemple, test du Khi 2). Il en est de

même, pour analyser la façon dont un questionnaire est construit, nous discernons une

typologie des questions par un traitement statistique qui sélectionne les types de réponses

identiques (expérience N° 2). Il est alors possible de discerner la « logique » de ce

questionnaire. Enfin, si on analyse un Référentiel présenté sous forme de tableau, n’est-il pas

légitime de rechercher formellement les types de relations signifiées par ce croisement ?

Page 432: UN REFERENTIEL, POUR QUOI FAIRE

432

Reste à définir la place de la psychologie par rapport à cette logique formelle induite

par la construction des énoncés et la logique mathématique. Si, pour E. Husserl, la

psychologie a une place importante dans sa philosophie, c’est en raison de cette part de

subjectivité dans tout jugement, que le philosophe souhaite neutraliser, du moins la distinguer

de la recherche de l’objectivité : « la théorie objective requiert les sources subjectives du

droit, mais ne les explore pas » (1907/1998 : 169). Il rétablit la place de l’intentionnalité dans

l’acte de construction des connaissances (pages 56 à 61). Mais surtout, par la méthode des

variations, il cherche à neutraliser cette subjectivité et à discerner, à partir de cette

psychologie phénoménologique, une ontologie logico-formelle apriorique. Sur quels

fondements reposent l’existence des concepts et les relations entre ceux-ci ? Les réflexions

logiques du philosophe apparaissent pertinentes, mais, si ces méthodes de variations

éidétiques sont réalisables, c’est en raison de la préexistence des structures logiques - d’où la

notion de sciences aprioriques -, et non pas d’une essence éidétique. De nos jours, nous

savons que la construction de nos catégories intellectuelles est le fruit de l’ontogenèse (cf.

Partie I). Une partie de cette ontologie formelle (genres, espèces, etc.) est induite lors des

phases d’adaptation et d’une découverte progressive de l’univers, en fonction des schèmes

sollicités, suivie d’une schématisation de celle-ci par réflexivité (application à ces

phénomènes des relations d’ordre acquises dans l’enfance). Par ailleurs les exemples que nous

avons évoqués sur la synonymie et l’homonymie laissent supposer que cette hiérarchisation

taxinomique est largement renforcée voire prioritairement induite lors de l’apprentissage du

langage. Ainsi les approches de l’analyse du discours exposées ci-dessus permettent de

discerner trois types de structures logico-formelles : 1° la lexicologie permet d’analyser les

taxinomies implicites des énonciateurs et les cadres ontologiques qu’ils appliquent à la réalité,

2° la grammaire, leurs logiques formelles et le cheminement de leurs raisonnements, 3°

l’énonciation, leur ancrage psychologique au cours de la situation. Bien entendu ces méthodes

sont complétées par la contribution logique des mathématiques, qui permettent de traiter de

façon systématique les données empiriquement collectées. Mais ces approches ont aussi

besoin, pour observer les phénomènes, d’être enrichies par l’expérience méthodologique des

disciplines dont c’est l’objet de recherche. Par exemple la psychologie cognitive, en raison de

ces protocoles de rappel, apparaît plus pertinente pour observer les phénomènes

d’apprésentation, la psychologie génétique, en raison de ses conceptions constructivistes, pour

expliquer les phénomènes de représentation. Une telle position, bien entendu, n’a rien d’un

dogme, toute science empirique peut, en fonction des objets de recherche, fournir des

méthodes complémentaires aux analyses logico-formelles.

Page 433: UN REFERENTIEL, POUR QUOI FAIRE

433

2) L’analyse des structures discursives :

A partir des réflexions qui précèdent, nous apercevons maintenant l’importance de

différencier les plans du discours, en particulier le niveau des conceptions et celui des

schémas et des scripts, générateurs d’habitus et de représentations sociales. En étudiant les

différents plans de façon séparée, mais aussi en recherchant les complémentarités, on étudie

les modes d’inférence propres à chacun d’entre eux (distribution des unités et signification

induite par celle-ci), mais aussi celles qui sont induites par les homologies qui existent entre

les plans, et qui permettent de donner du sens aux conceptions ou, réciproquement, une forme

d’expression aux schémas.

2-1) La théorie des niveaux :

a) La théorie des niveaux sur le plan de l’expression :

E. Benveniste est le premier à avoir formulé un modèle du sens, à partir d’une

structure par « niveau ». Il s’inscrit ainsi dans une conception structurale de la linguistique :

son objectif est de définir les modalités d’analyse des unités langagières dans le but

d’identifier les structures signifiantes :

« La notion de niveau nous apparaît essentielle dans la détermination de la procédure d’analyse. Elle seule est propre à faire justice à la nature articulée du langage et au caractère discret de ses éléments » (1966 : 119).

L’auteur différencie ainsi le niveau des phonèmes, celui des morphèmes, de celui des lexèmes

et celui des propositions – ou, en termes plus courants, celui des sons distinctifs (voyelles,

consonnes), des syllabes couramment utilisées dans la langue, des mots du lexique et des

phrases. Ces unités s’articulent les unes avec les autres : elles se distribuent sur l’axe

syntagmatique et elles s’intègrent dans le niveau supérieur pour acquérir du sens. Par exemple

le phonème (voyelles, consonnes) intègre le morphème, qui lui même constitue le mot, qui est

un élément de la phrase :

« Si le phonème se définit, c’est comme constituant d’une unité plus haute, le morphème. La fonction discriminatrice du phonème a pour fondement son inclusion dans une unité particulière qui, du fait qu’elle inclut le phonème, relève d’un niveau supérieur (…) Du phonème, on passe ainsi au niveau du signe (…) Le mot a ainsi une position fonctionnelle intermédiaire qui tient à sa double nature. D’une part, il se décompose en unités phonématiques qui sont de niveau inférieur ; de l’autre, il entre, à tire d’unité signifiante et avec d’autres unités signifiantes dans une unité de niveau supérieur » (1966 : 122, 123).

E. Benveniste distingue donc deux types de relations entre les unités linguistiques :

Page 434: UN REFERENTIEL, POUR QUOI FAIRE

434

« Entre les éléments de même niveau, les relations sont distributionnelles ; entre éléments de niveau différent, elles sont intégratives » (1966 : 124)

Ce système de distribution et d’intégration a une fonction pour produire du sens :

« La dissociation nous livre la constitution formelle, l’intégration nous livre des unités signifiantes (…) La forme d’une unité linguistique se définit comme sa capacité de se dissocier en constituant de niveau inférieur. Le sens d’une unité linguistique se définit comme sa capacité d’intégrer une unité de niveau supérieur » (1966 : 126, 127).

Si, avec E. Benveniste, on découvre la façon dont la structure langagière produit du sens sur

le plan de l’expression, cette définition devient vite insuffisante pour analyser les discours.

Tout d’abord le linguiste n’a pas cherché à étudier le sens au-delà de la phrase qui, pour lui,

constitue le dernier niveau de l’analyse. Par ailleurs on a largement argumenté ci-dessus pour

mettre en valeur que ce n’est pas l’intégration de phonèmes dans une syllabe, ou de plusieurs

d’entre elles dans un mot, qui produisent du sens, mais la référence aux autres plans. La

notion de monème introduite par A. Martinet permet de situer ce problème en maintenant

l’analyse sur le plan de l’expression. La notion de « mot », pour caractériser l’unité

linguistique, est apparue insuffisante aux linguistes. Non pas que ce concept ait été inutile

pour signifier, de façon très générale, le découpage de la chaîne syntagmatique en unités

signifiantes, mais derrière le « mot » se profile de nombreux phénomènes. Et, dans la mesure

où l’objet de la linguistique est justement d’approfondir l’analyse de ceux-ci, elle ne pouvait

plus se contenter d’un concept si général. Le « mot » est-il un monème, un lexème, un

morphème, un lemme, un ensemble potentiel de sèmes ? Bref il est certainement tout cela et il

regroupe de façon générique tous ces concepts. Il n’est donc guère possible d’avoir une vision

précise du fonctionnement de la langue si nous en restons à ce concept. La notion de « mot »

présentait une seconde limite, elle exprimait beaucoup plus une segmentation syntagmatique

de l’écrit que de l’oral : dans nos langues indo-européennes, le « mot » est déterminé par les

espaces qui le séparent des autres mots. Le mot ainsi défini peut se décomposer lui-même en

plusieurs unités signifiantes, par exemple les préfixes, les suffixes, ou les désinences des

verbes qui nous informent sur la temporalité, le mode et la personne. Dans le langage oral, le

découpage n’existe plus sous cette forme. C’est à partir de cette critique qu’A. Martinet a

avancé de nouvelles propositions de segmentation de la chaine syntagmatique. Il qualifie de

« monème » « l’unité signifiante minima » (1985 : 28) : par exemple « sable ». Les monèmes

peuvent être conjoints et forment alors des synthèmes (1985 : 34) : par exemple, « sablage »,

« ensablé », « sablière ».

« On appellera synthème un signe linguistique que la commutation révèle comme résultant de la combinaison de plusieurs signes minima, mais qui se comporte vis à vis des autres monèmes de la chaîne comme un monème unique » (1985 : 37).

Page 435: UN REFERENTIEL, POUR QUOI FAIRE

435

Ce qui fait la spécificité d’une syllabe, c’est la simple articulation entre deux types de

phonèmes, les consonnes et les voyelles. Mais ce qui spécifie le monème est d’un autre ordre,

c’est celui du sens qui conduit à le distinguer des autres monèmes. Ainsi « souris » a deux

syllabes, mais ne constitue qu’un seul monème. En revanche, « ensablage » est un synthème

constitué de trois monèmes, puisque les trois syllabes, rapportés aux règles de la grammaire

inconsciemment intériorisée, ont chacune un sens : le monème central « sable » est encadré

par un préfixe « en », qui signifie l’intériorité, et par un suffixe « age », qui signifie un type

d’action. Même si ce terme ne figure pas dans le dictionnaire, il nous est possible d’en

reconstituer le sens à partir de processus qui font partie de nos compétences linguistiques

ordinaires (sur le plan du contenu). La notion de sens n’est donc pas induite par un simple

phénomène d’intégration, mais par une relation de référence entre les deux plans. A. Martinet

différencie ainsi deux types d’articulation, la « première articulation » qui repose sur cette

relation de sens avec le plan du contenu (monème, synthème, etc.) et la « seconde

articulation » qui produit les unités linguistiques sur la chaîne syntagmatique par l’articulation

des phonèmes entre eux. On ne parlera donc de « lexème » (terme qui n’est pas utilisé par A.

Martinet) qu’à partir du moment où un monème ou un synthème font partie du lexique, c'est-

à-dire sont institués par l’usage. On réservera alors le terme de « morphème », à l’instar de la

plupart des linguistes (G. Mounin ; 1974), aux monèmes de type grammatical : les

conjonctions (de subordination et de coordination), les prépositions, mais aussi les préfixes,

les suffixes, les désinences verbales. Ces derniers sont particulièrement intéressants à

analyser : certains linguistes les ont aussi appelé « syncatégorèmes » ou plus exactement

« expression syncatégorématique »128, en particulier A. Marty cité par E Husserl, qui reprend

ce terme pour ses Recherches logiques (1901/2001 : 94-110). Ces unités n’ont de

signification, sur la chaîne syntagmatique, qu’en rapport avec d’autres monèmes. E. Husserl

parle ainsi de « co-signifiant » (idem : 91) ou de « significations dépendantes » (Idem : 97-

100). On réservera cependant ce terme de « syncatégorème » aux seuls morphèmes qui ne

peuvent avoir de sens indépendamment de leur articulation avec d’autres lexèmes (préfixes,

suffixes, désinences), ce qui n’est pas le cas des morphèmes lexicaux, dont le sens est institué

par l’usage (conjonctions, prépositions, pronoms relatifs, etc.). Le syncatégorème n’est pas un

monème, en dehors de son articulation au sein de synthèmes / avec d’autres monèmes.

128 de syn - avec, catégorie – lexème/synthème que l’on ne le décomposera pas ici -, et èmes ou ématique qui sont les suffixes adoptés par les linguistes pour signifier les unités linguistiques et les relations signifiantes.

Page 436: UN REFERENTIEL, POUR QUOI FAIRE

436

Cette catégorie d’unités linguistiques met particulièrement en valeur la différence entre la

signification, processus qui se forme sur la chaîne syntagmatique (le catégorème n’existe pas

sans cette co-signification au sein d’un synthème) et le sens qui fait référence à des systèmes

institués entre les deux plans : par exemple les paradigmes grammaticaux (il est toujours

possible d’apprendre les conjugaisons pour connaître les désinences), ou les rapports de sens

institués par l’usage : sens traditionnel, utilisation de monèmes étrangers, etc. (les préfixes et

les suffixes sont, en occident, l’héritage étymologique du latin, langue internationale utilisée

par les milieux lettrés au moyen-âge). Ainsi, si nous reprenons les unités linguistiques

définies ci-dessus, et mises en valeur par des travaux ultérieurs à ceux d’E. Benveniste (A.

Martinet, mais aussi N. Chomsky), une structure sensiblement différente apparaît sur le plan

de l’expression : phonème et syllabe / monème et synthème / indicateur syntagmatique et

phrase. Mais cela n’ôte rien à la théorie des niveaux : le phonème n’acquiert de la

signification que lorsqu’il se constitue en monème, qui, lui-même conjoint à d’autres

monèmes, engendre des synthèmes. Mais ces derniers n’ont pas de vie en eux-mêmes, ils n’en

acquièrent qu’en s’intégrant dans un indicateur syntagmatique, qui détermine une fonction

syntaxique pour chaque monème / synthème. Ces indicateurs syntagmatiques sont compris

par tous les membres d’une même communauté linguistique, ainsi que leurs transformations.

Ils peuvent aussi être groupés, selon des principes de cohésion ou cohérence textuelle, pour

former des phrases. Ce modèle n’est pas tout à fait identique à celui d’E. Benveniste, il

schématise, au niveau du plan de l’expression, la façon dont la signification s’articule avec la

référence. C’est la distribution entre les phonèmes qui crée les syllabes, des sons qui ont un

sens significatif pour la langue (signes), suffisamment distinctifs pour être intégrés dans le

niveau supérieur. Ce premier niveau de la signification a été suffisamment étudié par la

phonologie, il ne semble pas intéressant, pour notre propos, de s’y attarder. La distribution de

ceux-ci en monèmes et en synthèmes constitue le second niveau de signification. L.J. Prieto

emploie le terme de « champ sématique » qui convient bien à l’ensemble des signifiants

identifiés comme des monèmes ou synthèmes : celui-ci est composé de « tous les signaux

qu’on peut produire en utilisant ce code » (1975b : 27). Certes, dans l’acception de L.J. Prieto,

le champ des phonèmes fait aussi partie du champ sématique. En ce sens, les langues sont

plus complexes que les codes sur lesquels a travaillé le sémiologue. Mais il semble préférable,

dans le cas des langues, de réserver ce terme à la première articulation. La relation co-

occurrentielle instituée entre monèmes génère donc de la signification et des synthèmes.

Page 437: UN REFERENTIEL, POUR QUOI FAIRE

437

Ce phénomène, mis en valeur pour les syncatégorèmes, n’a pas lieu de se réduire à ses seules

unités. Les synthèmes sont aussi formés de monèmes dont le regroupement modifie la

signification, par exemple « pomme de terre ». Le troisième niveau, des indicateurs et des

phrases (ou plus précisément d’énoncés de plusieurs indicateurs), a été le plus approfondi par

la grammaire. C’est celui de la construction intra- et inter-phrastiques. Les indicateurs de base

(phrase marker) déterminent les fonctions des unités, ils sont agencés entre eux par diverses

règles de cohésion et de cohérence textuelle, ils peuvent évoluer par transformations

successives. Ces trois niveaux sont en corrélation avec le plan du contenu : la dimension

phonologique (que l’on n’étudiera pas ici), la dimension sémantique et la dimension

syntaxique. En d’autres termes il existe des règles, instituées par l’usage et mémorisées plus

ou moins spontanément129 par les individus, sur le plan du contenu, qui permettent de donner

du sens au type de relations qui apparaissent sur le plan de l’expression. Ces règles de

corrélation et ces modes de classification structurent l’univers des concepts, catégories, voire

critères (si la dimension de l’implication individuelle est présente). Ce sont elles que l’analyse

des discours essaye d’identifier, de comprendre, d’organiser et de conceptualiser.

b) Les « niveaux » de l’analyse discursive sur le plan du contenu :

R. Barthes, dans son analyse structurale des récits, a cherché à transposer la théorie

des niveaux d’E. Benveniste dans le domaine de l’analyse discursive, à partir d’éléments

empruntés à Todorov.

« Reprenant la distinction des formalistes russes, (Todorov) propose de travailler sur deux grands niveaux, eux mêmes subdivisés : l’histoire (l’argument), comprenant une logique des actions et une syntaxe des personnages, et le discours, comprenant les temps, les aspects et les modes du récit ».

A partir de ces modèles, l’auteur « propose de distinguer dans l’œuvre narrative, trois niveaux de description : le niveau des « fonctions » (au sens que ce mot a chez Propp et chez Bremond), le niveau des « actions » (au sens que ce mot a chez Greimas lorsqu’il parle des personnages comme d’actants) et le niveau de la « narration » (qui est, en gros, le niveau du « discours » chez Todorov). On voudra bien se rappeler que ces trois niveaux sont liés entre eux selon un mode d’intégration progressive : une fonction n’a de sens que pour autant qu’elle prend place dans l’action générale d’un actant ; et cette action elle même reçoit son sens dernier du fait qu’elle est narrée, confiée à un discours qui a son propre code » (1966/1985 : 174 et 175).

129 N’oublions tout de même, le rôle joué par l’éducation dans l’apprentissage du langage (y compris par l’école), même si la plupart des mécanismes sont intériorisés de façon intuitive.

Page 438: UN REFERENTIEL, POUR QUOI FAIRE

438

Ces trois niveaux structurent l’intelligibilité de la narration :

1) L’analyse fonctionnelle distingue deux grands types d’unités :

- les fonctions distributionnelles (fonctions au sens de Propp), qui reposent sur des

corrélations dans la succession des actes signifiés par le langage

- les indices (fonctions intégratives) qui sont des unités dont la signification s’inscrit

dans le discours, en référence à des concepts plus ou moins précis, qui constituent un

cadre : informations qui servent à situer dans le temps et dans l’espace les événements,

caractères des personnages, etc.

Les « fonctions » sont définies par l’aspect corrélatif entre deux événements (« l’achat

d’un revolver a pour corrélat le moment où l’on s’en servira ») et les « indices », plus

diffus, décrivent les personnages, créent l’atmosphère, etc. : les fonctions « correspondent

à une fonctionnalité du faire », les indices « à une fonctionnalité de l’être. ».

- Il propose ensuite de différencier les fonctions « cardinales » (ou « noyaux »),

fonctions charnières indispensables à la structure du récit, et les « catalyses »,

fonctions secondaires ou complétives : « pour qu’une fonction soit cardinale, il suffit

que l’action ouvre (ou maintienne, ou ferme) une alternative conséquente pour la suite

de l’histoire » (1966/1985 : 180). Autour des noyaux, s’organisent catalyses et

indices130 : « les expansions sont supprimables, les noyaux ne le sont pas. » L’analyse

de ces fonctions permet de reconstituer les séquences :

« Suites logiques de noyaux, unis entre eux par une relation de solidarité : la séquence s’ouvre lorsque l’un de ses termes n’a point d’antécédent solidaire et elle se ferme lorsqu’un autre de ses termes n’a plus de conséquent » (Idem : 186).

- Les indices sont eux-mêmes subdivisés en « indices proprement dits, renvoyant à un

caractère, à un sentiment, à une atmosphère (...) et les informations, qui servent à

identifier, à situer dans le temps et dans l’espace ».

2) Le niveau actanciel (ou actionnel) :

Cette analyse fonctionnelle n’acquiert son sens qu’à partir de l’analyse des actants, c'est-à-

dire des principaux personnages du récit qui assument ces fonctions :

« Le principal est de définir le personnage par sa participation à une sphère d’actions, ces sphères étant peu nombreuses, typiques et classables » (Idem : 191).

Ces actants ont fait l’objet d’analyse plus poussée par A.J. Greimas (1966). R. Ghiglione et

ces associés différencient l’actant, à l’origine de l’action, de l’acté, qui subit l’action.

130 R. Barthes différencie deux classes d’indices, mais cela n’a pas d’importance pour la suite de l’exposé.

Page 439: UN REFERENTIEL, POUR QUOI FAIRE

439

3) Le niveau narrationnel :

Cette analyse des niveaux inférieurs (fonctionnel et actanciel) acquiert de la signification

lorsqu’elle est intégrée au niveau supérieur, l’analyse de la narration :

« Le niveau narrationnel est donc occupé par les signes de la narrativité, l’ensemble des opérateurs qui réintègrent fonctions et actions dans la communication narrative, articulé sur son donateur et son destinataire » (R. Barthes ; 1966/1985 : 198).

Les pronoms personnels articulent ce niveau actanciel en situant le discours par rapport à

la situation d’énonciation. Ainsi l’analyse structurale du récit conduit à étudier la fonction

du récit dans son système de communication entre un narrateur et un destinataire.

L’inscription dans un système personnel (je / tu) ou apersonnel (il) définit le style du

discours, et les possibilités de jeux sont multiples, à ce niveau, pour inscrire la narration

dans certains choix d’énonciation131.

L’analyse structurale, proposée par Barthes, consiste donc à décortiquer le récit pour identifier

les principaux indices et les principales fonctions ou « noyaux » :

« Quant aux fonctions cardinales, c’est un rapport de solidarité qui les unit (...) (Cette relation) définit l’armature du récit : les expansions sont supprimables, les noyaux ne le sont pas ».

Le niveau des actions intègre les indices et les fonctions pour constituer « un statut structural

des personnages ». Le « personnage » y est défini par « sa participation à une sphère

d’actions, ces sphères étant peu nombreuses, typiques, classables ». Il reprend ici la notion d’

« actant » de Greimas. Enfin le niveau de la narration est l’ensemble des modes qui régissent

les relations entre le « donateur » et le « destinataire » du récit :

« Le niveau narrationnel est donc occupé par les signes de la narration, l’ensemble des opérateurs qui réintègrent fonctions et actions dans la communication narrative, articulée sur son donateur et son destinataire » (Idem : 198).

Bien que l’aspect précurseur de ces théories soit intéressant, il est difficile d’appliquer

systématiquement les concepts de Barthes, de façon fiable. Qu’est-ce qui nous permet

d’identifier, en dehors de l’appréciation intuitive de l’analyste, les fonctions cardinales et les

catalyses, les noyaux et les expansions ? Par ailleurs ces propositions, qui apparaissent

pertinentes pour l’étude des œuvres littéraires, ne sont pas pour autant généralisables à

l’ensemble des discours. Dans des récits narratifs (romans, contes, etc.), la succession des

événements / personnages, et de leurs actions, s’intègre à une logique culturellement instituée.

131 P. Charaudeau a développé cet aspect de l’analyse du discours dans sa « sémiolinguistique ».

Page 440: UN REFERENTIEL, POUR QUOI FAIRE

440

En revanche, dans un discours, une classification des actions exige, de la part de l’analyste,

une connaissance du contexte et une appréciation de la problématique, pour comprendre la

logique implicite de l’« énonciateur ». La relation entre les événements est plus difficile à

établir et la notion de « fonction » n’est donc pas aussi aisée à standardiser. Mais cette théorie

a introduit la recherche sur certaines superstructures qui constituent des cadres de référence

pour les discours narratifs.

2-2) Les notions de parcours et d’appareils :

La démarche de R. Barthes a marqué un tournant, dans la mesure où elle a initié

certaines réflexions sur l’organisation, par niveau, des textes. Les faiblesses de ces

propositions, ces analyses plus littéraires que réellement sémiologiques, en rendent cependant

l’application délicate en analyse des discours, à partir du moment où ceux-ci ne sont pas des

narrations. En revanche les notions de « parcours » d’A.J. Greimas, ainsi que celle

d’« appareil » de P. Charaudeau, apparaissent tout à fait appropriées pour analyser

l’articulation, introduite par Hjelmslev, entre processus et système. Le premier a étudié

certaines superstructures discursives : parcours génératif, narratif, figuratif et thématique. Le

second a plutôt recherché les « ordres d’organisation » qui structurent le discours : appareils

énonciatif, narratif, argumentatif, rhétorique.

a) A.J. Greimas et la notion de parcours :

L’analyse du schéma narratif des contes, élaborée par A.J. Greimas (1966) à partir des

travaux de W. Propp, s’inscrit dans une analyse des récits du type de celle de R. Barthes, mais

elle précise l’étude des phénomènes qui structurent celui-ci autour des notions de « fonction »

et d’ « actant ». La notion de « parcours » a été ensuite précisée par A.J. Greimas et J. Courtès

(1979) et étendue à d’autres phénomènes, en particulier génératifs, thématiques et figuratifs.

La définition qu’en donnent ces auteurs permet d’envisager l’extension de ce concept pour

suivre le cheminement d’une énonciation, sans se limiter aux schémas de la narration :

« (Le parcours) implique non seulement une disposition linéaire et ordonnée des éléments entre lesquels il s’effectue, mais aussi une perspective dynamique, suggérant une progression d’un point à un autre, grâce à des instances intermédiaires » (1979 : 269).

Page 441: UN REFERENTIEL, POUR QUOI FAIRE

441

Envisageons ces différents parcours pour définir ce concept de façon générique. La notion de

parcours narratif a déjà été abordée précédemment, ainsi que les principaux types d’actants

identifiés par A.J. Greimas. Il s’agit d’une suite de programmes narratifs, simples ou

complexes, c'est-à-dire d’un « enchaînement logique » d’« unités syntaxiques », avec des

actants « qui entrent dans leur formulation, (qui) sont des sujets ou des objets quelconques »,

et qui occupent une position dans le parcours, un « rôle actanciel ». W. Propp (1970) a

identifié trente et une fonctions dans les contes russes, qu’A.J. Greimas a regroupées en six

principaux rôles actanciels. Trois épreuves apparaissent souvent dans ces parcours,

« qualifiante, décisive, glorifiante », qui correspondent à des schémas-type et des scénarios de

la vie courante : « la qualification du sujet qui l’introduit dans la vie, sa « réalisation » par

quelque chose qu’il « fait », enfin la sanction – à la fois rétribution et reconnaissance »

(1979 : 242-245). Le « parcours thématique » est la représentation de certaines « valeurs » qui

s’actualisent sous la forme de ces rôles actanciels et de topiques : à travers différents actants

(sous forme de sujets, objets, fonctions) ou à travers les circonstances de la narration. Le

parcours figuratif concerne les « figures de l’expression » et les « figures du contenu », c'est-

à-dire les différentes formes qui participent, chacune selon leur plan, à la construction de ces

parcours. Les figures de l’expression peuvent être des signifiants, graphiques, phoniques,

iconiques, etc., celles du contenu sont plutôt les formes structurales des concepts : figures

nucléaires (noyaux), sèmes contextuels, etc. La conceptualisation d’A.J. Greimas et J.

Courtés, qui cherchent à expliquer les principales structures des sémiotiques, est trop

complexe pour être exploitée dans une approche méthodologique. Par ailleurs, si la notion de

parcours narratif ne souffre guère d’ambiguïté, on ne peut pas en dire de même de celle de

thématique, qui reste à préciser dans sa nature et dans sa forme132. Quant à la notion de

« figure », elle est liée aux « conventions de transcription » des actions et des interactions de

la vie ordinaire, pour reprendre la formule d’E. Goffman (ch. 6, page 214), et il paraît difficile

de l’étudier empiriquement, au moins au plan du contenu, sans étudier l’articulation qui existe

avec le plan du référent, c'est-à-dire avec les « figures de scènes » et les « figures naturelles ».

Enfin la notion de « parcours génératif », définie comme « économie générale d’une théorie

sémiotique », n’apporte pas de dimension supplémentaire par rapport à la notion de modèle.

En cherchant à intégrer dans un modèle unique différentes formes de superstructures et

différents modèles linguistiques, en particulier celui de la grammaire générative, les auteurs

ouvrent la voie à une réflexion intéressante, mais, à défaut d’une analyse des articulations

entre les divers plans et des relations de référence, celle-ci apparaît difficile à opérationnaliser.

132 Les définitions d’A.J. Greimas et de J. Courtès dans leur dictionnaire (1979) apparaissent trop tautologiques.

Page 442: UN REFERENTIEL, POUR QUOI FAIRE

442

On notera cependant l’intérêt de cette notion de « progression d’un point à un autre », à

travers des « instances intermédiaires », qui peuvent être des fonctions narratives, des rôles

actanciels, des types d’épreuves, des valeurs, des topiques (sous forme de lieux ou de

circonstances), des récurrences de figures signifiantes, ou des éléments de conceptualisation.

Elle permet de suivre le cheminement de l’énonciateur, à partir du point duquel il décide

d’amorcer son discours jusqu’à sa clôture. Les différentes ruptures, modifications,

réamorçages sont autant d’indices sur la façon dont le discours est construit. Sans entrer dans

une théorie générale de la sémiotique, qui est peu pertinente pour l’analyse des discours, cette

notion de « parcours » peut ainsi permettre d’étudier de nombreux phénomènes : par exemple,

les deux auteurs ont apporté des outils d’analyse pertinents sur l’énonciation, et sur les

différents phénomènes qui, à partir de la situation hic et nunc de l’énonciation, nous

permettent de prendre de la distance et de nous projeter dans un imaginaire collectif

(débrayages actanciels, temporels et spatiaux) (idem : 125-128). Ne peut-on alors parler de

parcours énonciatif ? On aura l’occasion de revenir sur ces concepts.

b) P. Charaudeau et la notion d’appareil :

P. Charaudeau organise ses analyses de discours à partir d’un autre point de vue133. Il

analyse le discours comme un système de contrats et stratégies de parole » entre des acteurs,

un JE communiquant (JEc) et un TU interprétant (TUi). Il différencie l’individu qui produit la

parole (JEc) et le « je » qui est présent dans l’acte de parole (JE énonçant), ainsi que

l’individu qui interprète (TUi) et le sujet destinataire qui figure dans l’acte de parole (TU

destinataire). Il est ainsi possible d’analyser les jeux qui s’opèrent entre les protagonistes de

l’énonciation, leurs intentions et leurs interprétations, autour du sujet de la discussion. Cette

différenciation entre les différentes formes du JE et du TU nous renvoie vers le concept de

« débrayage » d’A.J. Greimas, avec tous les jeux d’enchâssement analysés par E. Goffman

(page 214). Mais P. Charaudeau a attaché plus d’importance, dans son approche, aux

« conditions de production / d’interprétation des actes de langage » :

« Ce travail d’élucidation (…) et la tentative de décrire certaines des représentations collectives qu’une société (ou un groupe social) déterminée se donne, à travers d’autres discours qu’elle produit à cette même occasion ou à d’autres occasions. Nous avons donc à faire à un ensemble de possibles interprétatifs » (1983 : 21).

133 Les divergences fondamentales entre P. Charaudeau et A.J. Greimas seront reprises plus loin, lors du paragraphe sur la dimension sémantique (page 459).

Page 443: UN REFERENTIEL, POUR QUOI FAIRE

443

Il prend ainsi en considération l’implicite et les présupposés qui sont liés aux « circonstances

du discours » (idem : 20), ainsi que les jeux des acteurs pour s’adapter à ces situations :

« La notion de contrat présuppose que les individus appartenant à un même corps de pratiques sociales soient susceptibles de se mettre, d’accord sur les représentations langagières de ses pratiques sociales. Il s’ensuit que le sujet communiquant pourra toujours raisonnablement supposer à l’autre (le non-JE) une compétence langagière de reconnaissance analogue à la sienne. L’acte de langage devient une proposition que le JE fait au TU et pour laquelle il attend une contrepartie de connivence (…) La notion de stratégie, elle, repose sur l’hypothèse que le sujet communiquant (JEc) conçoit, organise, met en scène ses intentions de façon à produire certains effets – de conviction et de séduction – sur le sujet interprétant (TUi) pour emmener celui-ci à s’identifier – consciemment ou non –au sujet destinataire idéal construit par JEc » (Idem : 50)

La notion d’appareil est ainsi conçue comme un ensemble de « mécaniques qui permettent de

comprendre comment se fait l’organisation (pour le sujet communiquant) / description (pour

le sujet analysant) de la matière morpho-sémantique » (Idem : 58). Il ne s’agit donc pas, dans

l’esprit de l’auteur, de se fixer un « catalogue de marques formelles », à l’instar des tenants de

l’analyse de contenu (par exemple, R. Ghiglione et ass. ; 1998), mais plutôt d’étudier les

dynamiques qui structurent la matière langagière. Les appareils ne sont pas composés d’un

ensemble d’unités langagières, mais de « mécaniques conceptuelles » qui organisent ces

unités. P. Charaudeau nous propose l’étude de quatre « appareils langagiers » :

« l’ordre énonciatif qui organise les places et statuts des protagonistes de l’acte de langage (JE et TU). Nous l’appellerons : Appareil énonciatif ; l’ordre argumentatif qui organise et décrit le monde (IL) du point de vue des opérations mentales cognitives. Nous l’appellerons : Appareil argumentatif ; l’ordre narratif qui organise et décrit le monde (IL) du point de vue des actions et des qualifications humaines. Nous l’appellerons : Appareil narratif ; l’ordre rhétorique qui organise et décrit le langage lui-même du point de vue des opérations de mise en relation morpho-sémantique. Nous l’appellerons : Appareil rhétorique » (Idem : 59).

L’ensemble de ce modèle conduit à discerner trois types de compétence : situationnelle,

discursive et linguistique. La première est celle qui est sollicitée par le JEc et le TUi pour

construire l’acte de parole, la dernière est mise en place par le JEc pour structurer le discours

(appareil argumentatif et narratif). La compétence discursive se situe entre les deux, elle

permet d’ancrer le discours en référence au « contrat de parole » et aux « circonstances du

discours » (appareils énonciatif et rhétorique) (idem : 91).

Page 444: UN REFERENTIEL, POUR QUOI FAIRE

444

c) Parcours et appareils :

La notion de parcours et celle d’appareil ne se construisent pas à partir du même point

de vue (paradigme) : leur point de départ, les modes d’observation et leur méthodologie les

distinguent. Le parcours est centré sur les éléments du texte, leur agencement le long de la

chaîne syntagmatique et les effets de sens produits par leur succession. C’est un processus qui

se déroule au fur et à mesure de l’énonciation. L’appareil englobe les circonstances du

discours, les stratégies de positionnement, les contrats de parole et les dynamiques

d’organisation du discours en fonction de toutes ces contraintes implicites. Ils sont déterminés

à partir d’une vue globale des systèmes qui régissent l’organisation des discours. Ces deux

angles d’attaque sont très complémentaires : les processus, pour acquérir de la signification,

n’ont-ils pas besoin de s’intégrer dans des systèmes, qui constituent les cadres de référence ?

Ces deux approches apportent donc des outils pour étudier, de façon plus fine, la façon dont

les énoncés génèrent du sens en s’intégrant dans les cadres induits par la situation

d’énonciation. Cela nous ouvre au moins deux perspectives :

- la première, méthodologique : cette complémentarité des deux approches permet d’étudier

l’articulation entre les processus de la signification, induits par la succession des unités

langagières, et les cadres de référence, induits par les circonstances du discours ;

- la deuxième, pour cerner l’objet de recherche : l’évaluation n’est-elle pas le jugement d’un

processus discursif produit par un candidat (texte ou énoncé), dans un cadre institué ?

Pour être « performant » et atteindre la « condition de félicité », le candidat n’a-t-il pas

alors besoin de saisir intuitivement tous les implicites de la situation de communication,

en référence aux représentations sociales qui sont mises en jeu (rôle social) ?

Cette hypothèse est déjà implicite dans les travaux de la sociologie interactionniste (E.

Goffman ; pages 212-219). Par ailleurs, elle a été étayée par certaines observations

ethnographiques dans le milieu de l’animation (J. Camus ; 2008). La nouveauté, ici, ne réside

donc pas tant dans l’étude des processus implicites de sélection, mais dans la mise en place

d’une méthodologie pour l’observer à partir de l’analyse des discours / à travers les échanges

langagiers. Certes, cette voie a été amorcée par E. Goffman lui-même (1981/1988), mais le

sociologue a bien précisé qu’il s’attachait plus à observer les « façons de parler », c'est-à-dire

les modes de communication, les séquences d’interaction, les positions, les enchâssements,

que les structures linguistiques, à proprement parler. L’analyse de l’articulation entre parcours

et appareils est donc complémentaire de l’approche ethnographique, elle offre un nouveau

type de méthodologie, mise en valeur, en particulier, lors de l’expérience N° 2.

Page 445: UN REFERENTIEL, POUR QUOI FAIRE

445

2-3) Cohérence et cohésion textuelles :

Les notions de cohésion et de cohérence textuelles ont été évoquées lors de la

présentation des travaux des cognitivistes. Il n’est donc pas utile de revenir sur ces concepts,

on se contentera de rappeler que la cohérence est un phénomène de liaison implicite entre

propositions ou entre groupes de propositions qui est induit par des règles discursives, alors

que la cohésion (au niveau de la proposition) et la connexité (entre propositions) est le produit

de marques textuelles, le plus souvent d’ordre grammatical, qui accompagnent et favorisent

l’interprétation de cette cohérence. Des travaux de L. Vygotski (1934) sur les connecteurs

(parce que, bien que) et des recherches cognitivistes (M. Fayol ; 1985 : 84-89), on peut

déduire que la cohérence précède, sur le plan de l’ontogénèse, la cohésion : l’acquisition du

sens de ces morphèmes grammaticaux que sont les connecteurs (connexité) serait donc induite

par une acquisition préalable de la cohérence entre deux propositions, qui sont unies par une

signification implicite. Cette relation entre cohérence et cohésion / connexité est importante

pour comprendre notre modèle de référenciation et une des façons dont l’articulation entre la

signification et la référence peut produire implicitement du sens. C’est la succession de deux

propositions qui produit la signification par référence à des schémas et par cohérence

textuelle. Repartons de l’exemple de « Suzanne » : « elle est tombée dans l’escalier, elle s’est

cassée la jambe ». La relation de causalité est induite par la succession syntagmatique et par

la structure respective des propositions (factif > statif + liaison anaphorique). L’apprentissage

des connecteurs se fait alors à partir du moment où le développement sensori-moteur de

l’enfant lui permet d’établir une relation de cohérence entre les deux propositions : « Suzanne

s’est cassé la jambe parce qu’elle est tombée dans l’escalier ». Ainsi le plan de l’expression

(signification du connecteur causal) est en relation de référence avec le plan du contenu

(connexité), qui lui-même s’est construit à partir d’une coordination référentielle avec le plan

du référent, c'est-à-dire avec les schémas signifiés par l’activité sensori-motrice. On

n’approfondira pas ici cette question psycholinguistique, d’autres auteurs l’ont fait (L.

Vygotski, mais aussi M. Fayol, J.P. Bronckart dont on reprendra ci-dessous certains travaux

pour illustrer le propos). Notre objectif est plus modeste : identifier quelques unes de ces

relations de cohérence et surtout certaines structures discursives qui servent de cadres de

référence à ces phénomènes. Les principes de cohérence textuelle ont été étudiés (et exploités)

par l’analyse automatique des contenus, pour analyser les relations de signification entre les

propositions. Une fois le découpage effectué en énoncés élémentaires (indicateurs

syntagmatiques), l’analyste recherche alors les différents phénomènes qui génèrent la liaison.

Page 446: UN REFERENTIEL, POUR QUOI FAIRE

446

Cela peut être un rapport de connexité avec un marqueur linguistique : conjonction de

subordination ou de coordination, pronoms relatifs et pronoms personnels à la troisième

personne (il, ils, son, ses,…) etc., mais cela peut provenir aussi d’une simple relation

taxonomique entre deux termes qui font partie des mêmes univers sémantiques (par exemple

orchestre, violons) ou d’une structure syntaxique particulière (par exemple prédicats

factif>statif). Seule l’expérience et la multiplication des analyses pourront nous permettre de

découvrir les différents processus qui reviennent de façon régulière pour créer cette

cohérence. A.J. Greimas propose le concept d’« isotopie » comme concept pour signifier ces

ensembles de propositions cohérentes entre elles. Les débrayages sont alors certains

phénomènes perceptibles par tout individu de la communauté linguistique, qui marquent le

passage d’une isotopie à une autre134 :

« Le concept de cohérence, lorsqu’on cherche à l’appliquer au discours, semble, à première vue, pouvoir être rapproché de celui plus général d’isotopie, comprise comme la permanence récurrente, tout au long du discours, d’un même faisceau de catégories justifiables d’une organisation paradigmatique. Dès lors, la définition de la cohérence logique du discours pourrait être obtenue par des restrictions portant sur le choix des catégories qui, par leur récurrence, assurent la permanence d’un « lieu commun » servant de support à l’ensemble du discours » (1976 : 20).

Ce concept d’isotopie est-il si différent de celui de microstructure proposé par W. Kintsch ?

La recherche empirique devrait nous conduire progressivement à connaître les règles

implicites de ces relations de signification inter-propositionnelle au niveau du plan du

contenu, mais aussi la façon dont elles s’organisent sur le plan de l’expression et l’articulation

qui existe avec le plan du référent, en particulier le rôle joué à ce niveau par les

superstructures. Ces dernières peuvent être certes narratives, mais aussi argumentatives,

thématiques, rhétoriques, etc. N’apprend-on pas, sur les bancs de l’école, puis à travers des

structures de plus en plus complexes, au lycée et à l’université, à construire la façon

d’argumenter, la façon de parler, la façon d’écrire, etc. selon des normes de communication,

instituées au cours des âges, qui sont ainsi partagées ? L’appareil énonciatif coordonne alors

ces différentes superstructures, au niveau des microstructures (isotopies), en rapport avec la

situation d’énonciation. Là encore ces formes de signification inter-propositionnelles, sur le

plan du contenu comme sur celui de l’expression, sont à étudier empiriquement, en fonction

des différents types de situations et des différents médias de communication. On obtient ainsi

ce que l’on appelle, en analyse littéraire, des « genres ».

134 Un peu comme au cinéma où l’on passe d’un plan à un autre (plans fixes, mais aussi plans mobiles avec travelling). Bien entendu, la structure langagière fonctionne sur un autre modèle, mais il y a certainement des homologies entre la grammaire de texte et la grammaire filmique, sans quoi comment les films pourraient ils acquérir une superstructure narrative compréhensible pour nous tous.

Page 447: UN REFERENTIEL, POUR QUOI FAIRE

447

a) Référentialisation et référenciation :

La différenciation est maintenant assez précise entre « processus de référence » et

« processus de signification ». Les processus de référence induisent la constitution de cadres

communs, en relation avec le monde sensible, indispensables à la communication. A.J.

Greimas et J. Courtès proposent de nommer « processus de référentialisation » la référence

interne au discours, et « processus de référenciation » la référence qui se construit dans la

relation du discours avec la situation d’énonciation et le monde sensible :

« A.J. Greimas distingue deux modes essentiels de référentialisation : la référentialisation externe qui définit la relation intersémiotique qu’entretiennent les figures du discours avec les figures construites du monde naturel (problèmes de déictiques, repères personnels, spatiaux, temporels (…) etc.) et la référentialisation interne qui concerne l’ensemble des procédures par lesquelles le discours prend appui sur lui-même, renvoie à ces propres figures (en amont et en aval) et s’assure ainsi de ce qu’on pourrait appeler son continuum référentiel (…) La première renvoie directement à la problématique de l’énonciation et à la composante sémantique des formations figuratives (…) La seconde au contraire, centrée sur les relations intérieures au discours, conçues comme des propriétés de sa manifestation (notamment les procédures d’installation des isotopies, le problème des relations à distance par anaphore et cataphore, les effets de débrayage interne qui assurent le mode de passage d’une unité discursive à l’autre), concerne plutôt le déploiement syntagmatique des univers discursifs (…) Il nous paraît suggestif de parler de référenciation a propos de la première opération et de réserver à la seconde le terme de référentialisation » (1986 : 188).

C. Kerbrat Orecchioni a introduit une différence entre le « contexte » qui signifie l’univers de

l’énonciation (ensemble des éléments extérieurs au texte) et le « cotexte » qui signifie les

éléments qui apparaissent à proximité, à l’intérieur d’un même texte (1986 : 16 et 17). Outre

ce cotexte, univers textuel dans lequel apparaît l’énoncé, elle distingue deux types de

contexte : le para-texte, les mimiques, gestuelles et prosodies qui l’accompagnent, et le

contexte à proprement parler, qui fait référence à la situation d’énonciation dans laquelle est

produite l’énoncé.

« Un certain nombre indices extérieurs à la séquence porteuse du sens envisagé. (Par exemple, le contenu éventuellement ironique d’une séquence telle que « Quel joli temps ! »). Ces indices peuvent être de nature : cotextuelle : environnement verbal (ex : « quel joli temps ! Heureusement que j’ai pensé à prendre mon parapluie ») para-textuelle : prosodique ou mimo-gestuelle (intonation particulière, moue contrariée, léger balancement de la tête...) contextuelle : présence du référent météorologique qui permet d’identifier le décalage entre le contenu énoncé littéralement et le dénoté auquel il est censé s’appliquer, donc le trope ironique » (1986 : 16).

Page 448: UN REFERENTIEL, POUR QUOI FAIRE

448

Ainsi est-il possible, à différents niveaux, de collecter les indices et d’étudier les indicateurs

qui systématisent la collecte de ces indices. La référenciation se situe aussi bien dans le

rapport des unités du texte au contexte qu’au para-texte. L’énonciation d’un ordre

catégorique, par exemple « sortez immédiatement », laisse présupposer un ton de la voix

assez ferme. Si ce n’est pas le cas, cela induit alors des présuppositions complémentaires, en

fonction du contexte. Il est ainsi envisageable d’étudier empiriquement les actes de langage, à

partir d’une démarche ethnographique (par exemple, projets collectifs dans une classe,

entretiens lors d’une évaluation formative). Intuitivement, on peut faire l’hypothèse que la

« force illocutoire », « l’intensité d’investissement » ou « l’état psychologique exprimé »

sollicitent plutôt des indicateurs para-textuels, le « statut », le « but » et « l’intérêt des

interlocuteurs » des indicateurs contextuels, les rapports avec le « reste du discours », les

« autres formes de discours » ou avec « le monde réel » (du moins sa figuration) des

indicateurs cotextuels.

L’étude du para-texte est le point faible de nos recherches : il est apparu difficile de

mettre en place l’observation empirique des indices para-textuels, à partir de protocoles

expérimentaux. La vidéo aurait pu être un outil adapté, mais l’accès aux situations d’examens,

avec un tel appareillage, pose des problèmes déontologiques d’équité entre les candidats. Par

ailleurs il n’est pas simple de définir les cadres d’observation (au sens de Goffman), pour

interpréter ces indices de manière pertinente et valide. Cependant la prise en compte de ces

indices para-textuels, lors de nos situations de collecte des indices, a apporté de précieuses

informations au chercheur : par exemple certaines réactions du groupe de professionnels

chargés de l’enquête auprès de leurs collègues (expérience N° 2, ch. 13) ou les discussions qui

ont eu lieu après la communication des résultats au groupe de professionnels qui avaient

accepté de participer au protocole (expérience N° 1, ch. 12). On se centrera beaucoup plus,

pour l’instant, sur la différence entre référentialisation et référenciation, c'est-à-dire sur les

systèmes de référence qui signifient certaines relations entre éléments co-textuels – ou avec

des éléments du contexte. Les pronoms personnels constituent un bon exemple pour aborder

ces questions, ainsi que pour amorcer l’analyse de ces processus dans les textes.

Page 449: UN REFERENTIEL, POUR QUOI FAIRE

449

b) Déictiques et anaphores :

La notion de déictiques a été abordée lors de la présentation de l’analyse de

l’énonciation : ce sont les unités du lexique, qui n’ont de sens qu’en référence avec la

situation d’énonciation, et qui, de ce fait, instituent un cadre de référence commun autour

duquel va s’articuler la communication entre les individus. Les autres constructions

langagières s’organisent ainsi autour de la situation hic et nunc de l’énonciation et s’inscrivent

dans « l’engagement subjectif » des colocuteurs. La deixis est donc un processus de

référenciation. Par exemple, « je te parle et tu ne m’écoutes pas ». Il faut faire référence à la

situation d’énonciation réelle pour savoir qui est « je » et qui est « tu ». Les anaphores, en

revanche, sont des processus de référentialisation. Pour en cerner le sens, il convient de

remonter en amont dans le discours pour trouver le référent : par exemple « il » ou « qui »,

dont le sens est lié aux figures qui sont en amont du texte. « Le cheval se met à courir et il

tombe ». Le sens de « il » se construit ici en rapport avec le sujet de la proposition précédente.

Dans la mesure où le rapport s’établit entre deux éléments du texte, il serait possible d’en

déduire qu’il s’agit plutôt d’une relation de signification, induite par les règles grammaticales.

Mais le système est plus complexe. Une simple introduction d’une proposition supplémentaire

dans la phrase nous montre que la relation de signification est ici induite par la référence à des

schémas-type. « Le maquignon attrape l’équidé par le harnais, mais le cheval se met à courir

et il tombe ». Peu importe d’ailleurs que l’ordre des deux propositions soit inversé : « le

cheval se met à courir, le maquignon l’attrape par le harnais et il tombe ». La relation

anaphorique repose donc sur le fait que le lexème et l’anaphore ont tous deux le même

référent. Par ailleurs, si l’usage ordinaire fait que, la plupart du temps, « je » et « tu » soient

des déictiques et « il » une anaphore, l’inverse existe aussi : « je » et « tu » deviennent des

anaphores dans le cas des discours indirects : « Paul a dit à Patrick : je ne te rejoindrai pas

demain ». Inversement, dans certaines situations d’interaction, « il » peut faire office de

déictique : par exemple plusieurs personnes attendent le même bus et l’un d’entre eux dit : « il

arrive », etc. Par conséquent, ce n’est pas tant une signification instituée qui génère anaphore

et deixis, qu’une relation de référence avec des schémas-type de communication institués.

Bien entendu les relations de signification interviennent, « je », « tu » et « il » ont une

signification induite par leur position grammaticale / paradigmatique. Mais le sens est induit

par la référence à des schémas, de fait implicites, qui induisent des présuppositions.

Page 450: UN REFERENTIEL, POUR QUOI FAIRE

450

Les socles de référence communs, qu’instaure la deixis sont un préalable à toute

communication : il est possible d’observer qui instaure le cadre, les processus mis en œuvre et

la façon dont les acteurs s’inscrivent et s’impliquent dans ce cadre. Puis, à partir de ces

premiers repères, d’approfondir notre analyse sur les schémas qui sont à l’origine de cette

situation et de l’engagement des acteurs dans cette situation. Les relations anaphoriques, elles,

ont une autre fonction, celle d’instaurer une thématique (au sens d’A.J. Greimas), c'est-à-dire

de générer une certaine cohésion autour d’une (ou de plusieurs) figure(s) de référence : c’est

de ce sujet dont il est question. Elles s’appuient sur les pronoms personnels à la troisième

personne, mais aussi sur les pronoms relatifs, les pronoms démonstratifs. Mais cette

cohérence thématique, sur laquelle on reviendra, peut aussi se construire autrement, à travers

les relations taxinomiques.

c) Cohérence des parcours et notion d’ancrage :

Pour analyser la cohérence du texte en terme de parcours, il convient d'identifier le

point de départ, puis le type de formes et de procédures qui seront observées (auxquelles on

attache de l'attention), puis les ruptures et les modifications qui s'opèrent au cours du parcours

et les effets de sens que cela produit, enfin les phénomènes de clôture qui marquent la fin du

processus pour tous les acteurs (par exemple, la fin de l'histoire, la fin de l'argumentation, le

désengagement dans l'interaction, etc.). Mais ces parcours peuvent s'observer sur chacun des

plans : au niveau de l'expression, les unités et procédures langagières (par exemple pronoms,

deixis et anaphores) ; au niveau du contenu, les concepts et les relations significatives entre

eux (logiques, taxonomiques, temporelles, etc.) ; au niveau du référent, les figures (par

exemple les acteurs de l'énonciation, le sujet de discussion). Et l'articulation entre ces

différents plans n'est pas si simple qu'on se l'imagine au premier abord. Ce n'est pas une

simple succession de phrases ou d'énoncés, auxquelles correspondent des propositions

standardisées, à l'instar des énoncés élémentaires de M. Pêcheux, qui exprimeraient une

succession d'actions. Ce schéma simpliste pourrait représenter un parcours narratif du type

« trame d’une narration » ; cependant, même dans ce cas, il n'est pas difficile de montrer que

bien d'autres phénomènes entrent en jeu, comme ceux de l'énonciation ou de la logique

implicite. Par conséquent la notion de parcours présuppose un acte noétique de celui qui

amorce l'analyse, mais ce choix n'est pas arbitraire. On peut même, au regard des travaux des

linguistes et psycholinguistes, faire l’hypothèse que ces parcours sont induits par des

superstructures qui correspondent à un patrimoine collectif culturel.

Page 451: UN REFERENTIEL, POUR QUOI FAIRE

451

L’analyse des contes a montré leur importance dans la formation des schémas narratifs,

hypothèse qui a été renforcée par les travaux des psycholinguistiques. La plupart d’entre eux

convergent aujourd’hui pour reconnaître que la formation de ces superstructures est très

précoce.

« Très tôt, donc une organisation canonique interévènementielle semble guider les rappels de récits. Elle paraît se mettre en place à partir de quatre ans pour des faits avec lesquels les enfants sont familiarisés (Nelson, 1977, 1978) et elle tend, dans une première phase, à se rigidifier pour acquérir ultérieurement une plus grande souplesse » (M. Fayol ; 1985 : 85).

Derrière les schémas qui sont à l’origine des parcours se profilent donc la mise en place de

structures évènementielles très précoces. Dans la mesure où l’enfant est en relation avec

l’univers des adultes à travers lequel il découvre le monde, il ne fait de doutes que ces

schémas sont influencés très tôt par les habitus culturellement institués. Diverses disciplines

ont étudié ces formations schématiques (psychologie, logique, pragmatique, rhétorique,

microsociologie, etc.) et il est possible de faire appel à ces dernières. La compréhension de

ces mécanismes oriente notre interprétation des unités langagières pour analyser le plan du

contenu. Les types de parcours signifiés sont déterminés par l'objet qui induit l’échange entre

les interlocuteurs et par les implicites culturels de la situation de communication. On appellera

« ancrage » le point de départ de ce parcours, la façon dont il est amorcé par le locuteur ou les

interlocuteurs. Il peut donc y avoir un ancrage narratif (par exemple l'exposé de la situation

initiale, les personnages, les lieux, l’époque), un ancrage énonciatif (la façon dont les

protagonistes rentrent dans la situation d'interaction), un ancrage argumentatif (prémisses), un

ancrage thématique (première façon de parler d'un sujet) Les notions de cohérence et de

cohésion font partie de la seconde étape : elles expriment la façon dont les formes et les

procédures sont utilisées à partir de ce cadre commun qui est (pro)posé. Pour que le plan du

contenu puisse se construire, il faut bien que des relations de signification puissent se mettre

en place entre les concepts évoqués, mais celles-ci ne sont pas, comme sur le plan de

l'expression, des relations de succession (syntagmatique) et de fonction (paradigmatique), ce

sont des relations de l'ordre du concept : fonctionnelles, logico-formelles, mathématiques,

taxonomiques, thématiques, etc. Ce sont ces relations conceptuelles qui fondent la cohérence.

Si elles ne sont pas perçues par l'interlocuteur, le discours apparaît incohérent. Par exemple, si

l'ancrage s’opère autour du thème « le match d'hier soir », les termes de « but », « pénalty »,

« arbitre », tous ces lexèmes, prennent immédiatement une signification en rapport avec

l'univers sémantique invoqué et s'inscrivent dans des schémas de communication bien rodés.

On parlera alors d'univers de référence.

Page 452: UN REFERENTIEL, POUR QUOI FAIRE

452

Par conséquent la notion de cohérence renvoie aux superstructures qui sont à

disposition des interlocuteurs. Il apparaît possible d’inférer ces superstructures, du moins à

titre d’hypothèses (soumises ensuite à des observations systématiques), à partir des modalités

de cohérence et de cohésion qui sont mises en place dans le discours. Ne parle-t-on pas de « la

façon dont un tel raisonne » ? Il est aussi possible d’observer les malentendus entre les

interlocuteurs qui résultent soit d’une différence de compétences linguistiques (par exemple la

mésinterprétation d’un énoncé), soit d’une différence d’interprétations ou d’enjeux par rapport

à la situation. Ces phénomènes sont souvent exploités dans les blagues humoristiques ou les

calembours. Les effets de sens qui sont produits apparaissent alors comme des indicateurs

pour identifier les phénomènes langagiers qui les produisent. Si la notion de parcours permet

d’analyser les divers processus mis en œuvre, celle d’appareil intervient ici pour discerner les

principaux systèmes et sous-systèmes qui produisent ces effets de sens. C’est la troisième

partie de l’analyse. Elle nous permet d’approfondir notre connaissance empirique de ces

systèmes, connaissance que le locuteur lambda acquiert aussi de manière intuitive. Si

l’intentionnalité noétique est indispensable pour observer ces structures (processus et

systèmes) dont nous ne nous apercevrions pas sans l’analyse, l’aperception noématique est

suffisante pour vivre intuitivement ces processus et faire appel aux compétences linguistiques

adaptées. Le choix des axes noétiques de nos analyses n’est donc pas arbitraire, mais induit

par le contexte et l’objet, l’intuition étant le plus sûr moyen de percevoir par où amorcer

celles-ci (cf. lecture flottante de L. Bardin). Nous avons donc discerné au moins quatre étapes

pour étudier les phénomènes de cohérence et de cohésion : 1° identifier l’ancrage ; 2°

l’observation des phénomènes de cohérence et de cohésion, mais aussi les ruptures et les

changements de forme ; 3° l’analyse des effets de sens produits par ces phénomènes pour

approfondir notre connaissance des systèmes de la signification et de la référence ; 4° les

phénomènes de clôture. Ces derniers phénomènes renvoient toujours, en matière

d’interprétation, à la situation d’énonciation et aux interactions qui succèdent à l’échange

langagier : que se passe-t-il à la fin de l’histoire ? Quelle position est prise par les inter-actants

à la fin de l’argumentaire ? etc. Ces moments sont donc particulièrement importants pour

saisir les enjeux de la situation d’énonciation et les représentations sociales qui ont été mises

en jeu : par exemple la discussion qu’il y a eue entre les enquêtés à l’issue de la

communication des résultats, lors de la première expérience. Mais on peut aussi évoquer, à la

suite d’une réunion, la façon dont s’opère la clôture, qui est souvent significative des jeux de

représentations entre les acteurs en présence.

Page 453: UN REFERENTIEL, POUR QUOI FAIRE

453

2-4) Discours et récits :

Quelques mots sur les travaux de J.P. Bronckart et ses associés (1985), car ils illustrent

l’intérêt de ces approches analytiques et offrent un cadre d’analyse pour l’étude de différents

genres de textes (idem : 101-137). Ces auteurs empruntent la notion d’ « ancrage » à A.

Culioli pour désigner « la modalité d’articulation du discours à la situation énonciative dans

laquelle il est produit » (Idem : 43). Cette définition privilégie la notion d’ancrage énonciatif,

bien que la notion d’ « articulation » induise aussi l’étude des relations entre cet ancrage

énonciatif et les autres formes d’ancrage du discours. Ils abordent ainsi les « modes

d’insertion des structures propositionnelles et des valeurs sociales dans l’espace de l’acte de

production ». Deux types de processus « à caractère déictique » sont différenciés, le « mode

discursif » (impliqué ou autonome) et le « rapport au référent » (disjonction ou conjonction) :

« On peut construire un tableau à double entrée, définissant les quatre type discursifs fondamentaux que sont le discours en situation (DS), impliqué et conjoint, le récit en situation ou récit conversationnel (RC), impliqué et disjoint, le discours théorique (DT), autonome et conjoint, et enfin la narration (N), autonome et disjointe » (Idem : 44).

Ils parviennent ainsi à dégager des « architypes » de textes. La démarche empirique leur

permet ensuite de relever les unités textuelles employées de façon significative en rapport

avec cette typologie, puis d’analyser leur fonction dans la communication :

« Nous accordions ainsi, de façon implicite, la primauté à l’opération d’ancrage discursif. La pertinence d’une approche plus communicative et interactionniste s’est dégagée peu à peu, en particulier lors de l’analyse de textes intermédiaires, et nous a incité à donner plus de poids (voire la prépondérance) aux paramètres de l’interaction sociale (but, lieu social, énonciateur – destinataire) » (1985 : 61).

Ils en arrivent ainsi à différencier les opérations langagières appliquées pour signifier un

texte : opérations de contextualisation, de structuration (ancrage, repérage, plans du récit) et

de textualisation (connexité, cohésion, parcours thématique, relais des arguments, des

prédicats, opérations de modalisation). Toutes ces notions seront précisées dans le prochain

chapitre.

3) Les dimensions de la signification :

La proposition d’A. Maingueneau nous a conduit vers une structuration des différentes

approches de l’analyse du discours autour des trois dimensions de la signification. On

rappellera rapidement ces trois dimensions à partir d’une citation de F. D’Armengaud, qui

resitue la démarche de C.W. Morris :

Page 454: UN REFERENTIEL, POUR QUOI FAIRE

454

« Morris estime (…) qu’on peut (…) abstraire du processus de sémiosis135 des relations dyadiques. Trois relations sont mises en évidence :

- La relation des signes aux objets : c’est la dimension sémantique de la sémiosis (…) - La relation des signes aux interprètes : c’est la relation pragmatique de la sémiosis (…) - La relation formelle des signes entre eux ne fait pas apparemment partie du processus

sémiotique (…) Mais on peut douter qu’il existe un signe isolé. Pour Morris tout signe a une relation à d’autres signes (…) Il y a donc une relation syntactique de la sémiosis » (F. d’Armengaud ; 1985).

Pour le linguiste américain, il s’agissait donc d’étudier la relation du signe aux objets dénotés,

aux interprètes et aux autres signes, afin de connaître le processus de sémiosis. Outre le

« véhicule » (signifiant de F. de Saussure) et le « désignatum » (signifié), la sémiosis possède

une troisième dimension que C.W. Morris emprunte à C.S. Pierce et qui n’a pas été étudiée

par F. de Saussure : « l’interprétant ». Il qualifie, par ce terme, les processus qui font que le

signe fonctionne, dans l’interaction qui conduit deux ou plusieurs individus (interprètes) à

communiquer, dans une situation donnée, à un moment donné. L’existence du signe ne suffit

pas en elle même. Cette notion d’interprétant ouvre la voie à la pragmatique (discipline qui

aborde différentes dimensions des rapports entre texte et contexte) :

« Les règles pragmatiques énoncent les conditions concernant les interprètes sous lesquelles le signe véhicule est un signe (…) Ces règles expriment par exemple quelles conditions doivent être remplies par les interprètes pour que fonctionnent des interjections comme « Oh », des ordres comme « viens ici ! », des termes évaluatifs comme « heureusement ! », des expressions comme « Bonjour ! » et différents procédés rhétoriques ou poétiques » (Idem : 37).

Si cette notion d’interprétant ouvre tout un champ important de recherches dont on a évoqué

certains travaux ci-dessus, la proposition de C.W. Morris qui réduit les processus de

signification à trois dimensions (et trois domaines d’étude) est plus conjoncturelle que déduite

d’une étude des processus eux-mêmes. Au fur et à mesure de l’évolution de ces travaux, des

observations empiriques et de l’organisation des méthodes d’analyse discursive, cette

définition est apparue trop limitative. Lors de l’analyse de la théorie des niveaux d’E.

Benveniste et des notions de monème et synthème d’A. Martinet, on en est arrivé à une

nouvelle proposition qui englobe ces deux conceptions : le sens n’est pas seulement le produit

de l’intégration d’une unité linguistique dans une unité supérieure, mais l’alternance d’un

processus de signification (deux unités qui, en succédant, génèrent une nouvelle unité) et d’un

processus de référence avec le plan du contenu : c’est cet agencement entre de deux unités qui

crée un signifiant, qui lui-même a du sens dans son rapport avec le plan conceptuel. Cette

dynamique créatrice de sens est plus aisée à comprendre en se référant aux unités agencées.

135 C.W. Morris, à la suite de C.S. Peirce, appelle sémiosis le processus selon lequel quelque chose fonctionne comme signe.

Page 455: UN REFERENTIEL, POUR QUOI FAIRE

455

Le premier niveau est donc celui des phonèmes et des syllabes, le second celui des monèmes

et des synthèmes, le troisième des indicateurs syntagmatiques (ou énoncés élémentaires) et

des phrases (ou énoncés). En observant la façon dont cette unification d’unités produit du sens

au niveau du contenu, on observe assez aisément que les processus sont tout à fait différents, à

chaque niveau. La phonologie a étudié le premier : outre qu’un membre de la communauté

linguistique identifie les syllabes qui font partie de la langue, il existe un rythme dans la

prononciation qui est typique à chacune d’entre elles. L’agencement de ce niveau du discours

génère de la prosodie, voire une certaine poésie : cette première dimension de la signification

crée donc du sens, mais un sens proche d’une sensibilité intuitive. Notons tout de même que

cette dimension peut induire de nombreuses connotations, ainsi que l’ont mis en valeur les

classifications de C. Kerbrat Orecchioni (page 369). On s’attardera peu sur elle. La seconde

dimension articule monème et synthème, c'est-à-dire des unités signifiantes qui ont un sens en

référence à un concept. La façon dont se constitue le concept, dans la mémoire des individus,

et la façon dont il est invoqué par l’emploi du signifiant, posent une question fondamentale et

complexe. Mais ce n’est pas la seule, celle-ci est étroitement imbriquée à une autre : les

concepts ne sont pas de simples images (du plan de la représentation), mais des unités

classées, rangées, ordonnées, etc. par des relations (onto)-logiques avec les autres concepts :

relations taxinomiques (genres, espèces, etc.), relations fonctionnelles, etc. On l’a vu, ces

classifications ontologiques jouent un rôle important entre les propositions, en termes de

cohérence et d’implications. Le plan du contenu est ainsi une ensemble de signifiés structurés

par des relations ontologiques et l’analyse de contenu a pour objet, entre autres, de mettre en

valeur ces formes de classification. Pour cette articulation entre monèmes et synthèmes, on

emploiera la notion de dimension sémantique. Abordons maintenant la troisième dimension.

En s’intégrant dans des indicateurs syntagmatiques (ou énoncés élémentaires), ces unités

acquièrent en sus de leur sens lexical, en référence au concept, une fonction liée à leur

position paradigmatique dans la proposition : sujet, verbe, compléments, actant, acté, etc.

Mais il existe aussi une articulation entre les propositions élémentaires. Les rapports de

cohérence entre celles-ci sont induits par la fonction grammaticale des unités (anaphores,

connexité, etc.), mais aussi par la nature des relations ontologiques entre les concepts

(taxinomies, factif>statif, etc.). C’est la dimension syntaxique de la signification.

Page 456: UN REFERENTIEL, POUR QUOI FAIRE

456

Reste que ces microstructures propositionnelles, qui s’expriment sur le plan de l’expression

par une succession de phrases (écrit) ou d’énoncés (oral), n’ont de la signification pour

l’acteur (et l’action) qu’en raison de leur inscription dans des schémas plus globaux, qui sont

induits par le contexte et la situation d’énonciation (plus exactement, les représentations

sociales liées à ceux-ci), mais aussi par des superstructures qui sont des patrimoines culturels

collectifs. Cette articulation entre microstructures et superstructures, c’est la dimension

pragmatique. Elle implique des compétences particulières, en particulier l’acquisition des

superstructures en question, et surtout la connaissance des représentations sociales ou cadres

de référence en rapport avec les situations. Le modèle qu’on propose ici ne change pas

fondamentalement de celui d’E. Benveniste, pour ce qui concerne les différents niveaux (à la

différence qu’on l’élargit au-delà la phrase et qu’on propose d’étudier les superstructures), ni

de celui de C.W. Morris (à la différence qu’on introduit une quatrième dimension

phonologique), il a tout de même un avantage important pour analyser le contenu : en

définissant la signification comme une succession d’unités linguistiques, en référence à

certaines dimensions conceptuelles au plan du contenu, on décompose l’effet de sens produit

par la succession de ces unités sur la chaîne syntagmatique, et on infère la structure implicite

au niveau des concepts : quel type d’effets de sens (prosodique, sémantique, syntaxique,

pragmatique) est induit par la cooccurrence de ces unités ? Quel type de relations logiques

existe entre les concepts ? Dans la mesure où on a déjà plusieurs fois évoqué ces différentes

dimensions de la signification, on se contentera ici d’approfondir quelques aspects de la

sémantique et de la pragmatique, utiles pour la suite de l’exposé.

3-1) La dimension sémantique et la notion de sème :

La sémantique, à travers son évolution au XXème siècle, apparaît comme l’étude des

unités de sens et de leur articulation. Plus exactement, si des unités du plan de l’expression

sont différentes (par exemple « sable » et « table »), quelles sont les unités du plan du contenu

qui sont induites par cette différenciation :

« Considérant que le plan de l’expression d’une langue est constitué d’écarts différentiels et qu’à ces écarts du signifiant doivent correspondre des écarts du signifié (interprétables comme des traits distinctifs de la signification), cette nouvelle approche (la sémantique structurale) trouve là un moyen d’analyser les unités lexicales manifestes en les décomposant en ces sous unités sous-jacentes, plus petites, que sont les traits sémantiques ou sèmes » (A.J. Greimas, J. Courtés ; 1979 : 326).

Page 457: UN REFERENTIEL, POUR QUOI FAIRE

457

Le sème est donc l’unité étudiée par la sémantique. Ce concept a été proposé par E. Buyssens

pour signifier l’unité minimale de sens. Mais la notion de sème peut avoir des significations

différentes en fonction des auteurs. Pour L.J. Prieto (1966), le sème est l’entité constituée par

la rencontre du signifiant et du signifié. Le sémiosis est donc le processus, le sème en est le

produit. Dans la mesure où, pour cet auteur, le signifiant et le signifié sont des classes de

phénomènes, le sème est l’unité de sens qui fait correspondre à une classe de formes sur le

plan de l’expression (tel type de symboles, de relations, etc.) un concept qui s’intègre lui-

même dans une classification sur le plan du contenu (tel type de messages, de logique, etc.).

B. Pottier, qui a repris la proposition de L. Hjelmslev, privilégie plutôt la notion de « trait

sémantique ». Les sèmes sont alors des éléments qui produisent le sens des lexèmes. La

présentation succincte de ces théories par C. Baylon et X. Mignot (1995 : 124, 125) permet

d’en donner un rapide aperçu :

« A la base, c’est la description des référents136 qui prime : chacune des conditions principales est une propriété présentée par le référent. Lorsqu’il possède toutes celles qui sont requises pour entrer dans une catégorie, on considère qu’il lui appartient ; il peut alors se voir appliquer le mot qui la dénomme. (…) De cette catégorie, ou plus exactement de son expression linguistique en français, Bernard Pottier (1964) a donné une brillante analyse que nous présentons en résumé dans le tableau ci dessous avant de la commenter : Sémes Mots

Pour s’asseoir

Matériau rigide

Pour une personne

Sur pied(s) Avec dossier

Avec bras

Siège Chaise Fauteuil Tabouret Canapé Pouf

+ + + + + +

o + + + + -

o + + + - +

o + + + + -

O + + - + -

o - + - o -

Dans cet exemple, chaque ligne représente, à la suite d’un mot donné, le sémème, c'est-à-dire l’ensemble des sèmes qui le comporte. Le seul sème qui appartiennent à tous les mots est celui de la première colonne /pour s’asseoir/ (…) Pottier a suggéré d’appeler classèmes les sèmes ou les groupes de sèmes du type /pour s’asseoir/, ceux qui seuls ou avec d’autres caractérisent la classe, c'est-à-dire la catégorie qui, dans un domaine donné, inclut les autres catégories ».

A.J. Greimas, dans sa sémantique structurale (1966), reprend l’idée de B. Pottier. Mais, dans

sa conception beaucoup plus dynamique, le « classème » n’est pas un simple sème générique

qui sert à la catégorisation, il est une dimension du contexte qui sélectionne les sèmes

pertinents : c’est un « sème contextuel ». Le « sémème » n’est pas l’ensemble des sèmes, mais

l’effet de sens produit par le signifiant, en fonction du contexte d’apparition : « ce que le

langage ordinaire entend par « acception » ou « sens particulier » d’un mot » (1979 : 334).

136 Le « référent » en linguistique est l’objet dénoté.

Page 458: UN REFERENTIEL, POUR QUOI FAIRE

458

Le cotexte ou le contexte dans lequel apparaît un signifiant active donc certains sèmes au

détriment d’autres. Par exemple dans un univers physique, le « mouvement » induit les sèmes

de « vitesse », de « direction spatiale », dans un univers social, ceux d’ « action collective »,

d’« organisation ». L’ensemble des sèmes forme le « lexème ». Les lexèmes sont donc

constitués à la fois de sèmes nucléaires (ou figuratifs) et de sèmes contextuels (ou classèmes).

Pour AJ Greimas, c’est l’activation combinatoire de ces deux types de sèmes que produit le

« sémème », l’effet de sens : le sème contextuel active le sème figuratif pertinent pour

produire l’effet de sens approprié. Ainsi le même mot peut avoir différentes significations en

fonction du contexte sémantique : « mal à la tête, tête d’épingle, tête de pont, être à la tête de,

etc. ». Pour bien comprendre la démonstration d’A.J. Greimas, il semble utile de reproduire

une partie de son exemple :

« Pour rendre plus explicite la relation qui existe entre le système sémique et la manifestation lexématique de ses éléments, on peut se servir d’une disposition graphique des données, comme dans le tableau ci après : Sèmes Lexème

spatialité dimensionalité

verticalité horizontalité perpectivité latéralité

Haut Bas

+ +

+ +

+ +

- -

- -

- -

Long Court

+ +

+ +

- -

+ +

+ +

- -

Large Etroit

+ +

+ +

- -

+ +

- -

+ +

Vaste Epais

+ +

- -

Ce tableau suggère les observations suivantes : 1. Chaque lexème de la liste est, on le voit, caractérisé par la présence d’un certain nombre

de sèmes et par l’absence d’autres sèmes. Cette absence doit être interprétée comme la manifestation de l’existence d’une opposition sémique disjoignant, à partir d’une base sémique commune, le lexème donné des autres lexèmes possédant ce sème (…) Les oppositions sémiques opèrent, par conséquent, des disjonctions entre les lexèmes.

2. D’autre part, les six premiers lexèmes sont caractérisés par la présence commune du sème « dimensionnalité ». La présence commune de ce sème établit par conséquent une relation de conjonction entre les lexèmes. (…)

3. Si au lieu d’analyser le tableau en faisant des rapprochements verticaux, nous comparons les relations pouvant exister entre les sèmes sur la ligne horizontale, nous constatons qu’un lexème se présente comme une collection sémique. Seulement, en suivant le tableau de gauche à droite, on s’aperçoit que cette collection sémique qu’est le lexème s’interprète comme une série de relations hyperonymiques, c'est-à-dire allant des totalités aux parties, tandis qu’en lisant les sèmes de droite à gauche, on peut dire que les relations entre les sèmes sont hyponymiques, allant des parties aux totalités (…). Le lexème ne nous apparaît plus comme une collection sémique, mais comme un ensemble de sèmes reliés entre eux par des relations hiérarchiques. » (1966 : 34 à 36).

Page 459: UN REFERENTIEL, POUR QUOI FAIRE

459

Ainsi chaque sème est en réseau hiérarchique avec d’autres sèmes par un système

d’opposition / conjonction137. Cette articulation sémique et cette hiérarchisation engendrent

des « dimensions sémiques ». On pourrait alors employer le terme « d’univers sémantique »

(A.J. Greimas ; 1970 : 38). Mais ces différentes conceptions ne sont pas exemptes de

contradictions. Le « lexème » est l’ensemble des acceptions possibles d’un mot, il fait donc

partie du plan du contenu, de l’ordre du signifié138. Or quand on observe les exemples

proposés par B. Pottier et A.J. Greimas, tous les sèmes figuratifs s’expriment sous une forme

langagière, alors que le phénomène analysé se situe sur le plan du contenu139. C. Kerbrat

Orecchioni analyse cette contradiction.

Les « sèmes » ne sont « que les images abstraites des propriétés qu’attribuent au dénoté, les sujets parlants, c’est finalement l’ensemble de leur savoirs et croyances sur ce dénoté qui viennent se cristalliser dans le sémème » (1980/1999 : 229).

Les effets de sens du discours (sémèmes) s’appuient donc sur les connaissances acquises au

cours de l’expérience de l’objet dénoté, ou lors des communications langagières antérieures

sur celui-ci, qui ont conduit à la formation du signifié (concept de l’objet). Le lexème est alors

composé, soit d’attributs (qui s’expriment, dans le discours, sous forme d’adjectifs, d’attributs

du sujet, de propositions relatives, etc.), soit de fonctions (sous forme de verbes, propositions

subordonnées, compléments circonstanciels, etc.). Il apparaît donc constitué d’un ensemble

d’associations sémiques à d’autres lexèmes et ce sont ces associations qui lui donnent du sens.

On peut donc en déduire que le concept acquiert de la signification (devient un signifié) en

vertu des associations (ou connexions) qui le lient avec d’autres concepts. Quand elles

s’établissent avec des « signifiés », ces associations offrent du sens à un signifiant qui n’en a

pas encore : un nouveau mot, par exemple. En fonction du cotexte (mais aussi du contexte),

certaines associations sont plus sollicitées que d’autres. On retrouve ici le sème contextuel

d’A.J. Greimas. La logique implicite de ces processus de connexion est inscrite dans la notion

« d’univers sémantique ». Un « requin » n’a pas la même signification dans un univers

océanographique et dans le mode des affaires.

137 On retrouve ici la polarisation binaire sur laquelle est construit le système langagier, du moins son analyse. 138 Notons cependant que, pour B. Pottier et L. Hjelmslev, c’est la lexie qui se substitue au mot, celle-ci englobant d’autres unités que le simple lexème : syntagme figé, paralexème, etc. 139 Ces sèmes signifient aussi des relations qui existent au niveau du référent, entre un objet (sa représentation) et ses caractéristiques (les différentes perceptions), mais il s’agit là d’un autre plan que celui qui est analysé ici.

Page 460: UN REFERENTIEL, POUR QUOI FAIRE

460

Un son ou une graphie (du plan de l’expression) se transforme en « lexème », c'est-à-

dire en unité du lexique (du plan du contenu), en raison d’associations sémiques

institutionnalisées et mémorisées140. On peut donc dire que le sème figuratif est une

association sémique mémorisée. L’ensemble de ces associations mémorisées inscrivent le

lexème dans le lexique, en particulier lors de l’apprentissage du langage. Le sème contextuel

apparaît alors, lui aussi, comme un phénomène d’association et de mémorisation, mais il est

plus générique et il correspond à un univers composé de nombreuses associations sémiques

entre lexèmes. En ce sens, le terme de « classème » apparaît pertinent pour qualifier ces

associations qui constituent les univers sémantiques. P. Charaudeau explique ces phénomènes

d’une autre manière :

« Ces constantes de sens se construisent à force d’emplois des mots dans des contextes semblables et dans des contextes différents ; emplois multiples qui déposent des sédiments de sens dont la connaissance finit par constituer un certain savoir métaculturel sur les signes, savoir métaculturel qui intègre les signes dans une taxinomie générale (mais non déliée d’une pratique sociale déterminée). Si l’on est en mesure de reconnaître le trait de « rotondité » comme étant l’une des composante de œil – car une marque linguistique peut être porteuse de plusieurs composantes – c’est en tant que résultat d’un certain savoir que l’on s’est constitué du fait des différents usages qui utilisent tous ce trait. Ce savoir, nous l’appellerons Noyau métadiscursif (NmD). Les éléments du Noyau métadiscursif d’une marque linguistique sont donc un être-là, comme proposition de sens, témoin d’un contrat social qui fixe le statut du signifiant » (1983 : 28).

Le sème n’est donc pas le signifiant pris en exemple par B. Pottier (« pour s’asseoir, matériau

rigide, pour une personne, etc. ») ou par A.J. Greimas (« spatialité, dimensionnalité,

verticalité, etc. »), mais l’association sémique entre un concept que l’on veut signifier et un

autre concept déjà signifié : le signifiant de l’exemple n’est que l’expression de ce signifié.

Notons que deux nouveaux signifiants peuvent aussi se signifier réciproquement, à condition

que le contexte donne du sens à la création de cette association sémique. On peut en déduire

une hypothèse fondamentale pour la suite : c’est la répétition des mêmes signifiants, dans les

mêmes phrases ou paragraphes (unités de cotexte), en référence à des situations similaires

(même contexte), qui conduit à une mémorisation de ces associations de sens (dimensions

sémiques). Si on appelle « occurrence » l’apparition d’un signifiant, « cooccurrence »

l’apparition simultanée de deux ou plusieurs signifiants dans une même unité de cotexte, et

« récurrence » la répétition des occurrences ou des cooccurrences (page 357), on peut donc

dire que la « récurrence des cooccurrences » fixe le sens des mots (signifiants), ou encore en

termes plus techniques conduit à la formation des dimensions sémiques des lexèmes.

140 Aspects réciproquement phylogénétique et ontogénétique du concept. Sur la différence entre phylogenèse et ontogenèse (cf. J. Piaget ; 1950).

Page 461: UN REFERENTIEL, POUR QUOI FAIRE

461

Mais ce sens peut être aussi fixé par la « récurrence des occurrences » dans un contexte

donné, c'est-à-dire en relation avec la situation dans laquelle l’énonciation du signifiant

(monème, synthème, énoncé, etc.) a du sens (par exemple, « bonjour ») ; ou encore dans un

cotexte donnée, c'est-à-dire dans un scénario qui donne une place particulière au nouveau

signifiant (par exemple, « il était une fois un « kranioufic » qui se croyait seul au monde » :

peu importe au fond le mot utilisé, une enfant adhère tout de suite à l’histoire).

On dégagera ainsi plusieurs types d’associations sémiques :

- entre des signifiants qui apparaissent régulièrement dans les mêmes univers sémantiques,

par exemple dans les mêmes phrases, les mêmes paragraphes, les mêmes types de texte,

etc. : ce sont des relations de cooccurrence ;

- entre un signifiant et un scénario type (ou script) dans lequel il s’inscrit régulièrement : ce

sont des relations de fonctionnalité ;

- entre un signifiant et les codes implicites de la communication langagière : ce sont des

relations pragmatiques.

On pourra alors exprimer les associations sémiques d’un concept soit :

- par d’autres signifiants qui lui sont associés (principe de la définition)

- par des propositions caractéristiques de l’utilisation de ce signifiant (exemples attachés à

cette définition)

- par les situations d’énonciation dans lesquelles l’utilisation du signifiant est pertinente

(contexte d’énonciation).

Mais ces formes (du plan de l’expression) ne sont que des illustrations de ces associations

sémiques (du plan du contenu). On nommera les associations du premier type « figuratives »,

du deuxième « fonctionnelles » et du troisième « connotatives ». Ces associations sémiques

sont à la base des principes de cohérence et de cohésion. Bien entendu, elles sont très

nombreuses et, lors d’une analyse de discours, on ne s’intéresse qu’à celles qui sont les plus

pertinentes.

3-2) La dimension de la pragmatique et la question de la compétence :

La pragmatique s’intéresse au sens produit par la relation entre l’énoncé et son

contexte, ainsi que les jeux d’énonciation et d’interprétation qui sont liés à ce dernier. Ainsi

que nous l’avons évoqué plusieurs fois, on considère C.S. Peirce comme le pionnier de cette

discipline avec son concept d’ « interprétant ». Quelles sont les règles implicites de la

communication pour que ce qui est énoncé soit interprété correctement par les autres ?

Page 462: UN REFERENTIEL, POUR QUOI FAIRE

462

Mais l’interprétant n’est pas l’interprète, il fait partie du signe : « (un signe) s’adresse à

quelqu’un... il crée dans l’esprit de cette personne un signe équivalent... le signe qu’il crée, je

l’appelle l’interprétant du premier signe ». C.S.Peirce ouvre ainsi la voie à un domaine de

recherche original sur la signification, qui consiste à étudier les processus qui font que le

signe fonctionne comme signe pour tous les interlocuteurs. Il différencie le « symbole » qui

est conventionnel, l’ « index » qui est lié à ce qu’il représente et l’icône qui partage quelques

propriétés avec ce qu’il signifie (par exemple un plan d’architecte). Il introduit l’étude des

« symboles indexicaux » de la langue (les déictiques) qui font référence à la situation

d’énonciation. La pragmatique se développe ainsi en étudiant les phénomènes

d’interprétation. Elle se centrera surtout sur les actes de langage, l’interférence entre le

contexte et le texte, et le rapport entre les compétences – linguistiques, para-linguistiques et

encyclopédiques (C. Kerbrat Orecchioni ; 1980/1999) – et les performances énonciatives et

interprétatives. Dans la mesure où nous avons déjà abordé ces différentes notions, on ne

s’intéressera ici qu’à la dernière.

À partir du concept de N. Chomsky, C. Kerbrat Orecchioni a défini la compétence

comme « la somme de toutes les possibilités linguistiques, l’éventail complet de ce qu’ (un

sujet) est susceptible de produire et d’interpréter ». Les diverses compétences permettent de

produire des énoncés compréhensibles par un interlocuteur, à condition qu’il fasse partie de la

même communauté linguistique. Celui qui maîtrise la langue est capable d’identifier des

erreurs et de les corriger (chez un enfant, un étranger, etc.). Elles s’actualisent dans les

performances qui en sont l’expression. Mais la compétence, chez N. Chomsky, est surtout

syntaxique : c’est la grammaire universelle de la langue. C. Kerbrat Orrechioni (1980/1999) a

donc élargi ce concept aux compétences qui sont indispensables pour interpréter l’énoncé et

identifier les présupposés et les sous-entendus implicites. Au-delà des dimensions

sémantiques d’un mot et de la composition normée du texte, il y a l’interprétation en fonction

du contexte. Cela a conduit l’auteur à relever au moins trois types de compétences différentes

et complémentaires : les compétences linguistiques141, encyclopédiques (culturelles et

idéologiques) et rhétorico-pragmatiques.

- Sur les premières (compétences linguistiques), le sujet a été étayé par les théoriciens de la

grammaire générative : elles résultent de l’apprentissage des règles de la grammaire de la

langue (N. Chomsky). C. Kerbrat-Orecchioni y adjoint cependant les compétences

paralinguistiques, qui concernent la façon de dire les choses ;

141 On utilisera plutôt le terme de compétence grammaticale de façon à conserver celui de « linguistique » comme terme générique pour l’ensemble de ces compétences.

Page 463: UN REFERENTIEL, POUR QUOI FAIRE

463

- Les secondes (compétences encyclopédiques) « recouvrent l’ensemble des connaissances,

croyances et représentations » de l’univers de référence des énonciateurs ;

- Les troisièmes (compétences rhétorico-pragmatiques) concernent les « principes, qui sans

être véritablement impératifs au même titre que les règles de bonne formation syntactico-

sémantique, relèvent d’une sorte de code déontologique régissant l’échange verbal

honnête » (1980 /1999 : 230). Différents auteurs ont étudié ces principes : « maximes

conversationnelles » (H.P. Grice), « postulats de conversation » (Gordon et Lakoff) ou

« lois du discours » (O. Ducrot) : règle de la pertinence, loi d’informativité,

d’exhaustivité, etc.

Le modèle de la compétence a été élaboré à partir de l’opposition faite par F. de Saussure

entre langue et parole. Les deux conceptions linguistiques abordent donc le même

phénomène, mais pour étudier la production langagière ; la conception de la grammaire

générative s’avère plus profonde et plus dynamique. L’extension de ce concept aux autres

phénomènes langagiers, par C. Kerbrat-Orecchioni, apparaît donc intéressante pour interroger

les relations de référence entre le plan de l’expression, où l’on observe la performance, et

l’organisation du plan du contenu, où se construit la compétence, sous forme de relations

logiques entre les concepts. Si on observe les phénomènes décrits pour signifier ces quatre

types de compétence, paralinguistique, encyclopédique, grammaticale et rhétorico-

pragmatique, on constate que chacune d’entre elles correspond à une des quatre dimensions

de la signification évoquées ci-dessus : phonologique, sémantique, syntaxique et pragmatique.

Dans ces cas, ne convient-il pas de renverser la problématique ? L’acquisition de ces

compétences, dont les processus psychosociologiques restent à élucider, ne serait-elle pas à

l’origine des dimensions de la signification, c'est-à-dire de la possibilité de produire du

langage ? Effectivement, pour que la conjonction entre deux unités consécutives, sur le plan

de l’expression, ait du sens, il faut bien qu’elle corresponde à un mode d’organisation des

concepts sur le plan du contenu. Par conséquent on peut faire l’hypothèse que les structures

logiques qui, pour des raisons de mémorisation et d’opérationnalité, classent et organisent les

concepts sur le plan du contenu, induisent les différentes dimensions des modalités

signifiantes. Chaque mode de signification (signifiant) correspond à un type de classification

des concepts (signifié) (L.J. Prieto ; 1966). Mais ici, nous quittons le domaine de la

linguistique pour les domaines de la psychologie, voire de la sociologie142, cognitives.

142 Le terme de « sociologie cognitive » a été introduit et défini par A. Cicourel (1972/1979), qui propose l’étude des « procédés interprétatifs ».

Page 464: UN REFERENTIEL, POUR QUOI FAIRE

464

Reste à poser la question de la dimension rhétorico-pragmatique : s’agit-il d’une seule ou de

deux dimensions différentes ? Question à laquelle seule la recherche empirique apportera des

réponses claires. La dimension rhétorique est induite par le fait que des microstructures

propositionnelles s’articulent avec des macrostructures culturellement instituées, en référence

à des représentations sociales. Mais ces rapports de référence, à l’exception des schémas

narratifs et des histoires contées, restent pour le moins encore assez flous à l’heure actuelle.

Pour la dimension pragmatique, c’est au contraire les processus de référence qui ont été

largement étudiés, en particulier autour de l’analyse de l’énonciation et des déictiques. Reste à

approfondir, sur ce registre, les processus de la signification qui génère la deixis, c'est-à-dire

la succession des signifiants sur la chaîne syntagmatique et les articulations entre

microphénomènes (déictiques) et la macrostructure (par exemple, le parcours énonciatif), qui

produisent les effets de sens. En d’autres termes, derrière cette question de la cinquième

dimension, se pose une question structurale : les processus et systèmes de l’énonciation

fonctionnent-ils de la même façon que les autres parcours et systèmes : narratifs, thématiques,

argumentatifs, etc. ?

3-3) Les compétences linguistiques et les situations d’évaluation :

Différencier ces dimensions de la signification a, pour notre problématique, une

double pertinence :

- 1° Par rapport à la méthode : pour analyser le contenu, nous avons besoin d’identifier le

type de phénomènes en jeu sur le plan de l’expression et la façon dont ils interfèrent avec

le plan du contenu, pour donner du sens. Nous venons de voir qu’un des phénomènes

essentiels de la signification est constitué par les associations sémiques, autrement dit

l’aperception de relations conceptuelles logiques générées par les processus langagiers et

les effets de sens qu’ils produisent. Pour parvenir à discerner ces processus et leur

fonction respective dans les phénomènes de sémiosis, il convient d’analyser la façon dont

ils s’intègrent dans les systèmes de classification et d’organisation du plan du contenu.

(cooccurrence, fonctionnalité, connotations). Ces processus donnent du sens au texte, plus

exactement aux relations syntagmatiques qui s’établissent entre les unités signifiantes sur

le plan de l’expression. Certes les problématiques entre phonétique et phonologie d’une

part, entre grammaire et syntaxe d’autre part, ont été posées voire approfondies. Mais la

dimension sémantique / sémiotique a encore du mal à trouver sa place en linguistique et la

dimension pragmatique s’est construite en marge de cette discipline.

Page 465: UN REFERENTIEL, POUR QUOI FAIRE

465

Le but, ici, n’est pas de résoudre ces questions complexes, mais de proposer un

modèle d’analyse de contenu, suffisamment fiable, qui intègre les principaux phénomènes

étudiés par la linguistique ou ses disciplines plus marginales (sémiotique, pragmatique). Les

approches empiriques sur nos corpus offriront suffisamment de traitements systématiques

pour approfondir ce modèle ou le remettre en question.

2° Par rapport à l’objet de recherche : les compétences linguistiques sont acquises

spontanément par tous les individus, mais rien ne permet de postuler qu’elles soient acquises

de la même façon. Bien au contraire, certaines expériences nous conduisent à penser le

contraire (par exemple H. Méhan, cité par A. Coulon ; 1987 : 90 à 93) et le bon sens nous

conduit plutôt à faire l’hypothèse contraire : n’est-ce pas sur cette différence que les enfants

sont évalués à l’école, au moins en ce qui concerne la langue maternelle ? Il n’en demeure pas

moins que, pour communiquer, il y a besoin d’un minimum de bases communes, acceptées

par tous les partenaires en présence. On a donc formulée l’hypothèse que la sélection et la

formation professionnelles ont pour objet d’assurer cette homogénéité des représentations

sociales, mais aussi des conceptions, entre les personnes qui auront à travailler ensemble

autour de tâches partagées. Plusieurs remarques s’imposent alors. 1° La question des

représentations sociales est différente de celle des conceptions : les premières s’apprécient

dans des situations pratiques, sur la façon de se positionner, d’adopter les modes d’action et

de communication adaptés aux situations, de réagir rapidement en référence à des codes

implicites communs (appelés, par J. Leplat (2001), « référentiel commun ») ; les secondes, en

revanche, ne s’observent pas en situation, mais à travers la façon de parler de la situation (par

exemple lors des soutenances de mémoire de stage pratique, des études de cas ou encore des

discussions sur une séance qui vient de se dérouler). Dans ce second cas, les compétences

linguistiques (au sens générique que l’on a adopté ci-dessus) sont nécessairement sollicitées,

même si, par ailleurs, elles ne sont pas jugées pour elles-mêmes, mais en référence avec des

situations : celle de l’énonciation (en particulier, lors d’un entretien après mise en situation) et

celle qui est décrite. Cela pose la question des finalités, explicites et implicites, de cette

évaluation des compétences linguistiques à s’exprimer sur des situations professionnelles.

C’est une question centrale, dans cette thèse, qui explique l’évolution vers l’expérience N°3

(ch. 14), à la recherche de ces « finalités sociales ». 2° Par ailleurs, comment les évaluateurs

apprécient-ils, à travers l’expression des candidats, les compétences langagières acquises à

l’écrit ou à l’oral ? Comment identifient-ils intuitivement, dans le discours des acteurs,

les « objets de l’évaluation » ou les « critères », officiels ou non, qu’ils disent évaluer ?

Page 466: UN REFERENTIEL, POUR QUOI FAIRE

466

Quels sont les phénomènes langagiers (y compris para-textuels et contextuels) qu’ils utilisent

pour observer ce qu’ils souhaitent « voir chez le candidat » ? Dans la mesure où la plupart de

ces processus sont inconscients, ou du moins perçus très intuitivement, il est difficile

d’obtenir l’information en la demandant simplement, à moins d’un long travail d’analyse avec

les participants, mais qui, dans ce cas, modifie la façon de construire ces critères. Par

conséquent, une seule perspective semble possible : l’inférence, à partir des concepts

communiqués par les acteurs, des processus cognitifs qu’ils sont susceptibles de mettre en

œuvre en raison des indicateurs langagiers dont ils disposent ? 3° Dans ce cas, la grande

difficulté pour les chercheurs est de ne pas projeter leurs propres compétences linguistiques

sur les enquêtés. Rien ne prouve que les examinateurs aient effectivement ces compétences,

avec suffisamment de maîtrise, pour les apprécier dans le discours des candidats. On peut

cependant raisonnablement postuler que s’ils utilisent eux-mêmes, de façon assez régulière,

un certain nombre de processus langagiers dans leur propre discours pour parler de ces

concepts, ils soient en mesure de les apercevoir intuitivement dans le discours des candidats.

Ces nouvelles orientations de la recherche modifient cependant la façon de concevoir

l’évaluation des compétences qui ne se ferait pas, selon le modèle de N. Chomsky, par

inférence de structures profondes à partir de performances réalisées en surface, mais selon un

modèle interactionnel : les examinateurs ont des compétences linguistiques intuitives pour

parler des concepts et ils les recherchent intuitivement dans l’échange qu’ils ont avec le

candidat. Est-il capable de suivre le sujet de la discussion ? Le rapport entre performances et

compétences n’est plus envisagé, dans notre problématique, comme un lien entre structures de

surface et structures profondes, mais sous l’aspect d’un ensemble de relations de référence

entre des modes de communication (plan de l’expression) et des compétences à construire des

concepts (plan du contenu) : ne retrouve-t-on pas ici la structure type de tous les référentiels ?

Les compétences phonologiques, grammaticales, encyclopédiques ou rhétorico-pragmatiques

sont alors sollicitées. Certaines constructions langagières sont inscrites dans les « habitus » du

milieu professionnel ou dans leurs « schémas de référence communs » : la « condition de

félicité » de l’évaluation suppose que le candidat soit en mesure de s’adapter, au cours de

l’interaction, aux échanges avec les examinateurs. Par conséquent, la découverte de ces

processus de référence, entre les deux plans, offre non seulement des cadres pour observer les

phénomènes langagiers qui sont en jeu à travers les discours ou lors des échanges langagiers

(y compris les situations d’évaluation), mais aussi des concepts pour analyser l’importance de

ces phénomènes en ce qui concerne l’adaptation d’un candidat à son milieu professionnel.

Page 467: UN REFERENTIEL, POUR QUOI FAIRE

467

Chapitre 10

Les unités du discours et l’analyse des critères

Analyser les unités du langage n’a pas, pour nous, le même objectif que pour le

linguiste qui étudie le fonctionnement global du système langagier. On cherchera, de façon

plus modeste, à apprécier comment chacune d’entre elles nous informe sur les conceptions de

l’acteur. Par conséquent, si on s’intéresse au plan de l’expression et aux connaissances que

nous a léguées la linguistique sur ce plan, c’est surtout pour étudier les types d’informations

qu’il nous est possible d’en abstraire sur le plan du contenu et sur le plan du référent, soit sur

les fonctionnements respectifs de ces deux plans, soit sur les modes d’analyse que nous

pourrons mettre en œuvre à partir des discours des acteurs.

1) L’articulation entre les plans du discours et les dimensions de la signification :

Nous avons défini les trois plans à prendre en compte pour analyser le discours et

quatre (ou cinq) dimensions de la signification qui structurent les processus de sémiosis, c'est-

à-dire de production des signes. Il s’agit maintenant d’identifier comment ces processus

(phonétiques, sémantiques, grammaticaux et rhétorico-pragmatiques) s’intègrent dans les

systèmes du plan du contenu pour générer une signification, qui acquiert du sens en référence

à des schémas du plan du référent. Repartons de la définition des trois plans.

- Le plan de l’expression est celui de la langue, du moins de la façon dont elle est

structurée, dans le but de produire des effets de sens adaptés au plan du contenu. C’est

donc un ensemble de processus et de systèmes qui agencent les unités signifiantes en vue

de produire de la signification.

- Le plan du contenu est celui des concepts, de leur organisation et de leur classification.

C’est donc l’ensemble des processus et systèmes qui structurent les rapports logiques

entre les concepts : ontologiques, fonctionnels, pragmatiques, etc.

- Enfin le plan du référent est celui des représentations (cognitives et sociales), des images

mentales, des symboles, des schémas, etc. C’est un ensemble de processus et de systèmes

qui instituent les pratiques (individuelles et sociales), les modes de communication, les

cadres de référence, l’interprétation des objets et des positions spatio-temporelles (rôles)

en fonction des situations, etc.

Page 468: UN REFERENTIEL, POUR QUOI FAIRE

468

Les concepts s’intercalent donc entre les plans du référent et de l’expression. Ils sont

assimilés par le plan du référent, soit parce que le signifiant fait partie intégrante de la

pratique (symboles, déictiques, signes de politesse, etc.), soit parce que les concepts sont

intégrés à ces pratiques comme signes, soit enfin parce que les principes de classification et

d’ordonnancement sont des pratiques instituées. Mais cela ne veut pas dire que ces modes

d’organisation soient du même ordre que ceux qui sont induits par les rapports de sens avec le

plan de l’expression. Les modes de classement des livres dans une bibliothèque, c’est une

chose, les documents pour les retrouver en sont une autre. Les premiers sont induits par les

contraintes matérielles, les habitudes, l’expérience accumulée par le personnel, ses façons de

travailler, etc. En revanche, les outils de communication pour les retrouver sont élaborés en

fonction de codes communs, que le public apprend à maîtriser. Et ce décalage existe dans tous

les domaines de la vie quotidienne, dans les échanges familiaux, dans les lieux privés, dans

les lieux publics, à travers les pratiques professionnelles. Ainsi qu’on l’a mentionné à

plusieurs reprises, ce ne sont pas les mêmes modalités qui sont appliquées à l’étude des

premiers (dans notre exemple, les contraintes, les habitudes, les façons de faire) et à celle des

seconds (les codes de la communication et leur adaptation à ces contraintes). L’analyse de

contenu correspond surtout à la seconde approche, mais il n’est guère possible d’étudier la

façon dont les sémiotiques s’adaptent aux contraintes des situations de communication sans

s’intéresser aux études conduites sur celles-ci (sociologie, psychologie, pragmatique). La

différence de positionnement est cependant très sensible entre les deux approches : les

sciences humaines et sociales étudient les situations objectives, l’analyse de discours se

focalise sur la façon dont le langage est utilisé pour faire face à ces contraintes. Quelles sont

les unités, les propositions et les structures langagières qui sont adaptées à ces situations ?

Comment sont-elles utilisées par les acteurs ? Bien entendu, pour étudier l’objet Référentiel, il

n’était possible de faire l’impasse ni sur les premières, ni sur la seconde de ces démarches.

Mais, dans les paragraphes suivants, on centrera la focale sous l’aspect des problématiques de

l’analyse de contenu. Cette rigueur est indispensable pour différencier, dans les

méthodologies qui sont appliquées aux expériences, les postulats qui relèvent des sciences

humaines et sociales (en particulier, ici, sciences de l’éducation et microsociologie) et ceux

qui sont propres à l’analyse des discours.

Page 469: UN REFERENTIEL, POUR QUOI FAIRE

469

1-1) La notion de « positionnement » :

La notion de « position » est souvent évoquée, mais elle n’a guère été définie de façon

précise, à l’exception de l’approche interactionniste. La façon dont elle sera traitée ici est

uniquement centrée sur les besoins de l’étude de contenu. Mais, pour définir cette notion et lui

donner une signification adaptée à l’analyse du plan de l’expression, il semble pertinent de

revenir sur la conception d’E. Goffman (analyse sur le plan du référent).

a) Positions, figures, scénarios et scripts :

Pour la sociologie interactionniste, le concept de « position » décrit une façon de se

mettre en scène, en adoptant les codes sociaux et les postures adéquates, qui déterminent le

cadre de la communication (pages 217 à 219). Mais c’est aussi une façon de proposer une

certaine image de soi-même, dans le respect de celle des autres. La position instaure ainsi un

jeu de figuration, un cadre qui établit la façon dont vont pouvoir s’exprimer les figures :

figures réelles que sont les acteurs, mais aussi figures de scène exhibées par les rôles joués

dans la présente représentation, figures symboliques qu’ils représentent ou qu’évoquent les

objets qu’ils utilisent, figures citées qui correspondent aux autres figures qui sont le sujet de la

discussion. La notion de « figure » a aussi été utilisée, par L. Hjelmslev, pour désigner les

« unités qui constituent séparément soit le plan de l’expression, soit le plan du contenu » (A.J.

Greimas, J. Courtès ; 1979 : 148) et elle est reprise en ce sens par L.J. Prieto. Mais, outre que

cette acception n’apporte aucune plus-value par rapport à « signifiant » et « signifié » (cf.

critique de G. Mounin ; 1970), elle génère l’illusion d’une isomorphie entre les formes du

contenu et les unités de l’expression. On n’emploiera donc ce terme que pour les « figures de

rhétorique » qui traduisent aussi une mise en scène langagière, productrice de sens figuré.

Approfondissons maintenant la notion de « position ». Façon d’amorcer l’interaction, et de

poser la situation, la position permet aussi d’installer le discours en passant du JEc (JE

communiquant) au JEé (Je énonciateur), puis au IL de la narration, qui peut devenir un JE

quand le discours est indirect. Ces phénomènes ont été décrits par P. Charaudeau (pages 441 à

442) et par A.J. Greimas (pages 374 et 377) qui les qualifie de « débrayages actanciels ».

La notion de « position » peut donc aussi être utilisée pour signifier la façon dont le

locuteur utilise l’appareil énonciatif pour installer le discours : les parcours, le thème - sujet

de la discussion, le JE et le TU (ou VOUS), etc. Ces deux positionnements s’articulent,

à partir du moment où le langage est utilisé dans l’échange, ce qui n’est pas obligatoire.

Page 470: UN REFERENTIEL, POUR QUOI FAIRE

470

Le positionnement référentiel n’implique pas forcément l’amorce d’un positionnement

conceptuel, dans la mesure où il existe de nombreuses interactions instituées qui s’opèrent

sans le moindre échange de mots. En revanche tout positionnement conceptuel implique

nécessairement qu’un échange soit mis en place, à l’exception des soliloques qui relèvent du

discours intérieur. Par conséquent tout positionnement conceptuel fait référence à la situation

d’énonciation, ce qui induit des présuppositions (cf. O. Ducrot et C. Kerbrat-Orecchioni). Si

le même terme de « position » est adapté pour exprimer ces deux phénomènes (conceptuel et

référentiel143), dans la mesure où ils sont liés par la situation d’énonciation, cela ne signifie

pas les mêmes processus dans chaque plan : l’agencement des représentations

interactionnelles ne s’organise pas de la même façon que celui des processus langagiers. On

qualifiera de « scénario » les processus qui s’opèrent au niveau des jeux de représentation

entre les acteurs. On adoptera la notion de « script » des cognitivistes pour exprimer les

processus conceptuels, bien conscient que l’acception proposée ici est plus large dans la

mesure où elle englobe toute structure logique, sur le plan du contenu, qui est signifiée par le

choix des unités langagières, sur le plan de l’expression - et pas seulement des « blocs »

stockés en mémoire à long terme et mobilisés par la mémoire de travail (M. Fayol ; 1985 : 69-

72). Les positionnements déterminent donc, à partir de codes intériorisés par tous les acteurs,

des repères pour interpréter le contexte des échanges : soit des cadres de référence culturels et

institués dans lesquels s’inscrivent les scénarios, soit des ancrages pour l’énonciation qui

amorcent les scripts. Le cadre de référence et l’ancrage énonciatif s’articulent entre eux pour

donner du sens à la situation d’énonciation. On propose d’appeler cet ensemble « instances

originaires du discours ». Analysons maintenant la façon dont s’édifie cette articulation.

b) Ancrages, débrayages et isotopies :

On appellera donc « ancrage » la façon dont s’amorcent les processus langagiers, en

référence à la situation d’énonciation. De cette définition, on peut déduire deux caractères :

1° il s’instaure à partir d’un certain nombre de codes implicites de la communication,

culturellement institués, qui définissent la forme de l’engagement verbal. Si c’est un échange

entre deux interlocuteurs, le JEc (acteur communiquant) devient un JEé (énonciateur)

qui s’adapte au TUd (destinataire). On parlera alors d’« ancrage énonciatif ».

143 On n’a évoqué ici cette notion que sur le plan du référent et du contenu. Mais cette notion de position se retrouve aussi au niveau du plan de l’expression. La position syntagmatique des unités a une fonction importante dans les phénomènes d’ancrage, du moins dans les langues positionnelles comme la nôtre : thème, sujet, etc.

Page 471: UN REFERENTIEL, POUR QUOI FAIRE

471

S’il s’agit d’une narration, l’amorce est beaucoup plus thématique : elle peut être introduite

par une description des acteurs ou du contexte spatio-temporel (ou seulement l’un des deux),

précédée ou non par certaines formules rituelles (« il était une fois… »). Mais bien d’autres

situations existent : « la séance est ouverte », « le cours d’aujourd’hui portera », etc.

2° Cette amorce sert de point de départ aux scripts de l’énonciation. Elle constitue donc une

référence commune pour les interlocuteurs, dans la mesure où elle est fondée sur des éléments

de la situation qui sont connus et reconnus par tous. On a adopté le terme de « débrayage »

(A.J. Greimas ; J. Courtès ; 1979) pour nommer ces phénomènes : le débrayage actanciel pour

savoir sur quel registre se situe le discours ; le débrayage spatio-temporel pour l’ancrer dans

le contexte de celle-ci (Où ? Quand ?). A partir de ce point de départ, les débrayages s’opèrent

tout au long du texte pour faire évoluer le discours en fonction de ce repère : le passage du

présent au passé composé, ou / puis à l’imparfait en ce qui concerne les repères temporels ; la

modification de l’univers spatial et temporel à partir des compléments circonstanciels ; la

modification du jeu entre les acteurs par le jeu des déictiques (du JE au ON, ou au NOUS, ou

au TU…). Chacun de ces débrayages installe une nouvelle situation, qu’A.J. Greimas nomme

isotopie, du terme de topique - qui installe une situation dans un espace-temps donné.

Contrairement au cinéma où les plans sont définis pas la scénographie, dans le discours, en

raison des nombreux phénomènes utilisées par l’énonciateur (actancialité, temporalité,

spatialité, associations sémiques), les isotopies sont induites par les choix des principaux

débrayages relevés par le TUi (interprétant). Cependant, au niveau de l’analyse, il est possible

d’identifier des débrayages qui, en raison de leur position syntagmatique / en référence à la

position référentielle, assument une forte charge entre les topiques. Notons que la notion de

« position syntagmatique » (sur le plan de l’expression) ne s’entend pas seulement, dans la

suite de l’exposé, au sens de la position dans la phrase, mais plus généralement au sens de la

place sur la chaîne syntagmatique, en rapport avec la fonction paradigmatique assumée et

avec les effets de sens que cette sémiosis produit : les déictiques ont, en ce sens, une position

syntagmatique particulière, mais les connecteurs aussi. Ces unités et processus du plan de

l’expression, qui génèrent ces débrayages, permettent de borner les différents plans

isotopiques. Mais, dans la réalité quotidienne, ces processus sont appréhendés à partir d’une

conscience globale (noématique) de la fonction qu’ils remplissent. Ils ne sont perceptibles en

relation avec les lexèmes qui signifient les figures du contexte de l’énonciation : ce qu’elles

font, ce qu’elles sont. Par conséquent ces isotopies spatio-temporelles et actancielles n’ont de

signification qu’en rapport avec l’objet du discours, ce que l’on appelle communément le

thème. L’analyse de la cohérence entre les propositions permet de saisir ces rapports.

Page 472: UN REFERENTIEL, POUR QUOI FAIRE

472

1-2) L’analyse de la cohérence entre les propositions

a) La structure micro-propositionnelle :

La définition de l’isotopie permet donc de préciser la notion de « structure micro-

propositionnelle », proposée par les cognitivistes, en particulier W. Kintsh. Si l’on définit la

proposition, pour l’instant144, comme la structure conceptuelle produite par un « énoncé

élémentaire » (au sens de M. Pêcheux) ou un « indicateur syntagmatique » (au sens de N.

Chomsky), l’isotopie joue un rôle important pour fédérer ces propositions. Un ensemble de

propositions est sur un même plan isotopique, s’il n’y a pas de débrayage au niveau spatial,

temporel et actanciel145. Ainsi, l’utilisation anaphorique du « il » ne modifie pas l’isotope ; il

en est de même d’une utilisation du « je » répétitive ou récursive (enchâssé au sens de E.

Goffman) : « je te dis, je te promets, j’en suis sûr, je l’ai ». En revanche tout débrayage

entraîne une nouvelle microstructure, soit temporelle « je te dis, je l’avais pris », soit

actancielle : « je te dis, il est parti », soit spatiale : « je te promets, c’est à Paris que je

vois… ». La structure micro-propositionnelle ainsi délimitée permet de bien cerner le

positionnement de l’énonciateur (ou du narrateur) et la façon dont il embraye son discours

pour exprimer sa représentation de la situation mise en scène à partir de l’énoncé. Les

propositions s’emboitent les unes dans les autres, elles sont liées par des références

communes à des figures (par exemple, avec le processus anaphorique) ou à des espaces temps

co-construits à partir de la situation d’énonciation et des connaissances partagées des

interlocuteurs (par exemple, « hier, à la Mairie, il y a eu… »). C’est la permanence de

certaines d’entre elles qui constituent les isotopies : le même actant peut continuer son action

en changeant d’espace ou de temps ; ou, dans un même espace, on peut observer des

changements de temporalité ou d’actants. Le phénomène isotopique se construit ainsi sur une

alternance entre un phénomène de permanence, sur la chaîne syntagmatique, et un phénomène

de différenciation, voire d’opposition, sur la chaine paradigmatique. On retrouve ici la

dichotomie traditionnelle de l’analyse linguistique structurale. Mais le système qui la gère

n’est pas d’ordre syntaxique, il ne conduit pas à la détermination de fonctions grammaticales,

il organise les relations de complémentarité / opposition entre les différents parcours.

144 Une définition plus précise sera proposée ci-dessous. 145 C’est l’équivalent du plan au niveau de la grammaire cinématographique, bien que cette analogie, certes fondée sur des homologies entre les processus de signification et de référence au niveau des différents plans, soit à manier avec prudence. La grammaire cinématographique apparaît plus comme une façon d’agencer nos

Page 473: UN REFERENTIEL, POUR QUOI FAIRE

473

L’isotopie actancielle, par exemple, s’articule avec des évènements, l’isotopie spatiale avec

l’arrivée de nouveaux actants, etc. Ce n’est donc plus au niveau des concepts que se

construisent la segmentation syntagmatique et la classification paradigmatique, mais au

niveau des parcours et des associations sémiques entre les concepts, et ce sont ces processus

qui structurent le sens des concepts. Pour réifier et valider cette dernière proposition,

actuellement posée comme hypothèse, analysons quelques-uns de ces phénomènes.

b) Parcours thématique et taxinomies :

Le parcours thématique génère de la cohérence, voire de la cohésion. Intuitivement,

cela semble évident. Mais, au regard des différents travaux sur la question, il n’apparaît pas

simple de définir le thème et encore moins d’observer, de façon empirique, les différents

processus autour desquels se construit cette cohérence. On s’orientera donc plutôt, dans un

premier temps, vers une approche globale qui puisse englober les différentes définitions ; puis

on essayera, à partir de chacune d’entre elles, de décliner ses aspects fonctionnels /

opérationnels pour l’analyse de contenu. Et c’est à l’ensemble de ces processus que l’on

attribuera alors l’acception de « parcours thématique ».

Si l’on se reporte à l’héritage philosophique, la notion de thème recouvre globalement

tout « sujet de réflexion, de développement ou de discussion » (A. Lalande ; 1926/1972 :

1123). Mais, si la discussion se situe sur le plan du référent en tant que pratique codée,

instituée, voire ritualisée, le « sujet », lui, en tant qu’objet de réflexion, ou concept autour

duquel se construit le discours, fait partie du plan du contenu. Ce concept correspond-il à la

position du sujet grammatical, sur le plan de l’expression ? Plusieurs acceptions tournent

autour d’une telle déclinaison logique, qui correspond certainement à de nombreux usages (cf.

acceptions A et B du dictionnaire de linguistique de G. Mounin ; 1974). Le thème est alors le

sujet à partir duquel s’élabore l’énoncé, il se trouve au début de celui-ci. En ce sens le thème

s’apparente à une forme d’ancrage des propositions, un ancrage qui peut emprunter les

marques de l’énonciation (déictiques) ou de la narration (substantifs). Le rhème (ou propos)

constitue alors la déclinaison du thème, ce qui est dit sur le thème. La structure thème / rhème

signifie, sous forme de proposition discursive, une structure analogue qui apparaît sur le plan

de l’expression, au niveau d’un énoncé élémentaire, constituée d’un sujet et d’un prédicat.

représentations qui génèrent du sens, en s’intégrant dans nos conceptions, qu’une façon de construire du sens sous forme de concepts, comme la grammaire de texte.

Page 474: UN REFERENTIEL, POUR QUOI FAIRE

474

On appellera cette acception du thème le « thème ancrage » ou encore l’ « ancrage

thématique ». La redondance (ou récurrence) d’un tel sujet, à l’image du thème de la musique,

offre toute une série de rhèmes, qu’il devient possible d’analyser, de façon comparative, dans

le but de préciser le sens du concept – thème pour l’énonciateur. Effectivement tous les

rhèmes sont caractéristiques du thème. (cf. analyse thématique du chapitre 6, pages 339 à 346,

autour du thème : « le candidat doit », ou dit autrement le « devoir du candidat »). La

signification du « thème ancrage » est induite par toutes les associations sémiques avec les

rhèmes qui lui sont associés. Mais ce parallélisme entre le plan de l’expression et le plan du

contenu a rapidement ses limites, dans la mesure où ces deux plans ne sont pas organisés de

façon isomorphe. Un thème est rarement identifié de cette façon, par un groupe nominal ou un

énoncé élémentaire récurrent. Ce problème est exposé par A. Nowakowska :

« Traditionnellement, en linguistique, la phrase est analysée comme une structure à deux constituants, correspondant à la paire thème / prédicat (ou rhème), une terminologie directement empruntée à Aristote, qui ne fait cependant pas l’unanimité chez les linguistes, car elle confond les niveaux syntaxique et logico-sémantique, qui ne coïncident pas nécessairement. Si on se place dans un cadre purement syntaxique, le thème sera défini comme le début de la phrase, le point de départ, le segment accentué, et le prédicat le reste, ou la suite de la phrase ou encore le segment non accentué. Si on se place dans un cadre logico-sémantique, le thème correspond à ce dont on parle et le prédicat – qu’on préfère alors appeler rhème – correspond à ce qu’on dit à propos du thème » (dans C. Détrie, P. Siblot, B. Verine ; 2001 : 356).

Pour cet auteur, le thème ne se définit donc pas par sa position syntagmatique dans la phrase,

mais par l’ « apport informatif », le thème étant « l’information ancienne » et le rhème « la

donnée nouvelle (…) ce sur quoi porte la question ». La progression thématique est dictée par

une « exigence de cohérence textuelle » (idem : 357). Mais la progression thématique

n’adopte pas toujours le modèle que nous connaissons au niveau universitaire, où les concepts

sont définis avant d’être exploités dans la démonstration, afin de faciliter l’entrée progressive

du lecteur dans la construction de l’argumentaire. En général ce sont le cotexte ou le contexte

qui posent le cadre de référence commun, qui lui-même détermine le thème. Un nouveau

concept (par exemple, un mot nouveau) est d’abord introduit comme rhème, en rapport avec

les autres lexèmes (cotexte), ou avec les scénarios qui justifient d’y faire référence (contexte).

Par conséquent, en raison des principes de cohérence, tout nouveau thème a d’abord été un

rhème à l’exception de l’ancrage thématique. Un thème, qui apparaît au cours d’un exposé

sans référence co-textuelle, fait office d’ancrage thématique et renvoie donc, pour son

interprétation, au contexte de l’énonciation - ce qui n’est pas exempt de présuppositions et

sous-entendus. La construction isotopique s’articule ainsi autour de la cohérence thématique.

Page 475: UN REFERENTIEL, POUR QUOI FAIRE

475

Mais comment identifier ces relations isotopiques entre les thèmes et les rhèmes ? Sous quelle

forme s’expriment-elles dans le discours des acteurs. La conception de la linguistique indo-

européenne apporte une nouvelle définition qui élargit la notion de thème. Dans la plupart des

cas, les lexèmes de nos langues indo-européennes peuvent adopter soit une forme verbale, soit

substantive, soit attributive, voire adverbiale (par exemple : parler, parole, parlé ; expliciter,

explicitation, explicité, explicitement). Les unités lexicales se décomposent ainsi en une

« racine » et des « affixes » (suffixe ou préfixe). Le type de déclinaison entre la racine et le

suffixe est nommé « thème », le produit des deux le « radical ». Le thème détermine donc la

fonction grammaticale du radical (verbe, nom, adjectif, adverbe, etc.). On appellera cette

acception du thème le « mode ou la modalité thématique ». Mais on emploie aussi, en

lexicographie, un autre terme qui prend en compte ce phénomène de modulation thématique,

celui de « lemme » : c’est la forme lexicale sous laquelle sont regroupées toutes ces

déclinaisons (par exemple, parler, expliciter). La lemmatisation est l’opération qui consiste à

rassembler les unités langagières sous une seule forme lexicale. Le lemme réunit donc tous les

radicaux, c'est-à-dire tous les modes thématiques qui sont déduits de la racine. Le thème

apparaît alors comme une déclinaison du lemme, ou encore du lexème générique formé à

partir de racines anciennes. Cette acception est intéressante puisqu’elle introduit une nouvelle

dimension. Tout d’abord le mode thématique d’un lexème, dans nos langues, est un choix

syntaxique, un choix de l’énonciateur. Il a donc, à sa disposition, différentes formes de radical

pour exprimer la même idée, le même concept. Le mode thématique choisit pour l’ancrage

thématique a donc, de ce fait, un sens, en général en rapport avec le contexte de l’énonciation.

Par ailleurs les divers modes thématiques d’un même lexème génèrent spontanément de la

cohérence entre les propositions (par exemple, « Le message communiquait des informations

importantes, mais la communication … »). Cette conception permet ainsi d’étendre la

systématisation de l’approche thématique à toutes les liaisons que le lexème, dans ces

différentes formes, entretient avec les autres lexèmes au sein de propositions différentes (par

exemple, le « savoir »). À travers ses différentes déclinaisons, un concept récurrent peut servir

de noyau – relais, qui introduit des liaisons entre des énoncés élémentaires, plus ou moins

distants. Cette proposition ne remet pas en cause la conception du thème exposée par A.

Nowakowska, elle élargit simplement la relation entre un rhème d’une proposition précédente

et un thème d’une nouvelle, à tous les modes thématiques. Mais ces deux acceptions, qui

centrent l’étude autour de la position syntagmatique du lexème dans la proposition, sont loin

d’englober toutes les acceptions possibles, ainsi que le mentionnent J.P. Bronckart et son

équipe :

Page 476: UN REFERENTIEL, POUR QUOI FAIRE

476

« Nous qualifierons de « thème », au niveau de la phrase, le syntagme nominal produit en position initiale, et de « rhème » le syntagme (ou les syntagmes) en position post-verbale. Cette conceptualisation a l’avantage de clairement dissocier l’ordre du texte et l’ordre de la phrase, et de rendre possible une problématisation des relations entre entités superstructurelles (« topique », « focus ») et entités propositionnelles (« thème », « rhème »). Elle présente cependant l’inconvénient majeur d’entrer en conflit avec l’usage dominant, du profane comme des linguistes, qui consiste à désigner l’actant principal sous le terme de « thème » et à considérer de manière générale, les aspects macro-sémantiques comme des aspects « thématiques » (…) Le réalisme nous conduit, en conséquence, à proposer la terminologie qui suit : au plan général du texte, nous qualifierons l’actant principal de thème, et attribuerons le statut de rhème aux autres actants et circonstants ; sur le plan de la phrase, nous restituerons au syntagme nominal en première position le statut de sujet et nous n’introduirons aucune appellation particulière pour les syntagmes en position post-verbale. La notion de parcours thématique désigne alors l’ensemble des opérations liées au thème tel que nous venons de le définir » (J.P. Bronckart, D. Bain, B. Schneuwly, C. Davaud, A. Pasquier ; 1985 : 56).

Cette distinction des auteurs, entre le niveau propositionnel (micro-structurel) et le niveau

général du texte, celui des superstructures (macro-structurel), précise la problématique

fondamentale qui se profile derrière les notions de « thème » et de « parcours thématique » :

l’étude des processus de cohérence fondés sur la dimension sémantique de la signification.

Les deux acceptions précédentes du thème permettent d’étudier la façon dont se constituent et

se renforcent les associations sémiques autour d’un concept. Il nous est possible, de façon

systématique, d’observer les modes de cooccurrence thématique qui s’instaurent ainsi autour

d’un lexème quand celui-ci devient l’objet d’étude (cf. par exemple, les analyses des concepts

d’ « indicateur » et de « critère » au ch. 7, pages 329 à 335). Mais ces conceptions, qui

permettent d’identifier certaines relations intra ou inter-propositionnelles, n’offrent aucune

perspective pour comprendre la fonction globale du procès thématique.

On accepte alors, en général, une troisième acception de la notion de « thème », qui

élargit ce lien sémantique, entre le thème d’une proposition et le thème ou le rhème des

propositions précédentes, à toute forme de concepts structurés par des relations sémiques au

sein des mêmes univers sémantiques. Mais ceux-ci n’existent qu’en raison de références à des

représentations sociales qui les fédèrent. Le thème peut, par exemple, se former par

l’exploitation de différents lexèmes d’un même univers pour nommer un même référent (par

exemple, dans un commentaire sur E. Husserl : l’auteur, le philosophe, le phénoménologue, le

grand penseur, etc., en sus, bien entendu, de son nom propre). Mais il se peut aussi, tout

simplement, que ces relations soient induites par une « bonne connaissance » des modes de

fonctionnement et des schémas-types qui ont lieu dans l’espace-temps défini lors de l’ancrage

thématique : « match d’hier = ballon, arbitre, joueurs, but, pénalty, pelouse, tribunes, etc. » ou

« météo = temps, soleil, pluie, orages, vent, nuages, cumulo-nimbus, marées, etc. ». Ces

relations sémiques, induites par les univers sémantiques, sont alors dites « taxinomiques ».

Page 477: UN REFERENTIEL, POUR QUOI FAIRE

477

C’est certainement en ce sens qu’il faut comprendre la citation de C. Kerbrat Orecchioni

(1980/1999 : 229), reprise lors de la discussion sur la dimension sémantique (pages 453 à

459), à savoir que les sèmes sont « l’ensemble des savoirs et croyances » sur un objet dénoté.

Pour être plus précis, on pourrait dire que les associations sémiques qui sont instituées entre

les concepts (connaissances) inscrivent ceux-ci dans des ensembles taxinomiques appelés

« univers sémantiques ». Les relations sémiques se construisent alors, soit à partir de

d’acquisitions conceptuelles (par exemple, conceptions scientifiques), soit à partir de

représentations sociales sur les types de rapports entre les figures dont il est question dans le

discours (quand l’équipe favorite perd, c’est toujours « de la faute de l’arbitre »). Ces deux

types de systèmes de référence sont de l’ordre de la référentialisation dans le premier cas et de

l’ordre de la référenciation dans le second (au sens d’A.J. Greimas). Au niveau des processus

mis en jeu au cours des interactions, cela se traduit par des compétences plutôt déclaratives ou

plutôt procédurales, ou, pour reprendre l’expression de P. Pastré, par des connaissances

prédicatives ou opératoires. Dans tous les cas, ces systèmes forment un ensemble cohérent, ils

favorisent une compréhension rapide lors des échanges entre interlocuteurs (cf. Le

« référentiel commun » de J. Leplat ; 2001). Ainsi la cohérence d’un énoncé est organisée en

fonction de ces cadres de référence implicites. Ces phénomènes induisent nos praxis de

décodage des discours. Dans la plupart des sciences humaines et sociales, ce sont les

conceptions instituées sous forme de connaissances scientifiques qui orientent l’interprétation

du discours des acteurs. Certes le chercheur peut aussi fonder ses intuitions sur certaines

représentations quotidiennes de sens commun, propres à notre civilisation (cf. E. Goffman,

par exemple). Mais, dans le cas de l’analyse de discours, cette praxis est inconcevable. La

problématique est inversée. C’est dans le discours qu’il s’agit d’identifier les représentations

que nous livrent les interviewés ou les protagonistes d’une interaction. La cohérence entre les

propositions n’est donc pas à déduire de notre connaissance d’un acteur-type, d’un scénario-

type ou d’une situation-type, mais bien l’inverse. On part du principe que le discours est

cohérent pour l’énonciateur et on puise, dans cette cohérence entre les propositions, les

éléments pour inférer ses propres représentations : les schémas-types ou les taxinomies

auxquels il se réfère implicitement. Une partie de ces relations inter-propositionnelles est

induite par les processus syntaxiques, mais une partie tout aussi conséquente est induite par

les associations sémiques, qui sont sollicitées pour construire la cohérence du discours : elles

sont observables à travers les relations qui s’établissent entre les propositions, les isotopies

instaurées dans le discours.

Page 478: UN REFERENTIEL, POUR QUOI FAIRE

478

Mais le texte n’a pas de sens en lui-même. Il s’inscrit dans des pratiques instituées et

son sens est induit par ce cadre de référence. Les macrostructures de W. Kintsh, formes

instituées du discours, interviendraient à ce niveau pour fixer le sens. Là encore, l’objectif de

l’analyse de contenu est d’identifier ces macrostructures et la façon dont elles insèrent le texte

dans le contexte de l’énonciation, et non de plaquer des schémas préétablis sur toutes les

situations - par exemple ceux de la narration. Quand on étudie les fiches du RNCP (répertoire

national de certification professionnelles), on constate qu’elles ont une structure très

normalisée, qui correspond à leur fonction d’information des candidats sur les métiers. On

peut donc postuler que les univers du discours sont hiérarchisés pour faciliter les repérages

entre le texte qui se déroule, en fonction du contexte dans lequel il s’inscrit. Bien entendu ces

normes sont plus ou moins souples, en fonction de l’intérêt du texte dans la situation

d’énonciation. Cette hiérarchie peut être syntaxique, cela a été mis en valeur par les linguistes,

en particulier A. Martinet. On l’appellera alors argumentative, pour des raisons qui seront

expliquées plus loin (pages 510 à 513). Mais elle peut être aussi taxinomique, articulée autour

de la prédominance de certains concepts qui, en raison de leur forte présence ou de la position

syntaxique qu’ils occupent, assument la fonction de relais - charnière pour les autres concepts

- qui sont alors dans une relation de dépendance / de détermination. Ce sont ces concepts

centraux qu’A.J. Greimas a qualifié d’actant (1966), par similitude avec l’actant de L.

Tesnière, qui, lui, se situe sur le plan de l’expression (1979). Mais, si les homologies entre les

deux plans ont certainement de l’importance dans la façon dont se construit la cohérence du

discours, entre micro et macrostructures (par exemple, la proposition et le schéma narratif),

voire un rôle non négligeable lors de l’apprentissage du langage (qui resterait à éclaircir), il

est difficile de penser que les deux plans (expression et contenu) puissent avoir les mêmes

modes de fonctionnement. Ce n’est qu’en précisant les phénomènes de cohérence entre les

propositions et l’articulation avec les macrostructures que ce concept d’« actant » (du plan du

contenu) se précisera, ainsi que sa fonction dans la formation du sens.

Il est possible maintenant de préciser la notion de parcours thématique : les thèmes

ancrages introduisent les sujets de discussion, en rapport avec la situation d’énonciation ; les

modes thématiques déterminent les choix grammaticaux du thème (information ancienne) et

du rhème (donnée nouvelle) ; l’organisation taxinomique des lexèmes articulent les isotopies

(microstructures) autour de concepts-charnière qui servent de relais aux autres ; enfin les

macrostructures font référence à des schémas-type fonctionnels ou narratifs liées à la situation

d’énonciation. Le parcours thématique est donc constitué de tous ces phénomènes, qui

s’agencent entre eux à différentes niveaux, pour favoriser la cohérence entre les propositions.

Page 479: UN REFERENTIEL, POUR QUOI FAIRE

479

1-3) Les unités sémiques :

a) Praxèmes et sémèmes :

Lorsqu’on a abordé les dimensions de la signification, on a mis en valeur la façon dont

la succession entre signifiants génère des effets de sens, perceptibles sur le plan du contenu,

qui les signifient en rapport avec des systèmes de classification institués (socialement) et

mémorisés par les individus. Pour nommer ces effets de sens, l’acception du « sémème »

proposée par A.J. Greimas semble bien adaptée. Elle permet de centrer la focale sur ces

phénomènes du plan de l’expression (observables dans le texte) et de les différencier des

effets de sens produits par la façon dont le concept s’insère dans les situations pratiques, dans

un but opératoire, que l’approche praxématique qualifie de « praxème » :

« Nous appellerons praxème les outils de praxis linguistique qui permettent le repérage de l’analyse du réel objectif par l’homme et spécialement le repérage des autres pratiques (…) il est un outil pratique, le moyen d’une praxis linguistique qui vise à produire du sens en même temps qu’à influencer sur le comportement des hommes, et par là sur le monde » (P. Siblot dans C. Détrie, P. Siblot, B. Vérine ; 2001 : 263).

L’étude des sémèmes nous renvoie à la façon dont est construit le discours - plus

particulièrement, la succession des unités sur la chaîne syntagmatique -, alors que celle du

praxème nous invite à étudier l’énoncé en référence à la situation et aux différentes

représentations qui s’y construisent. Quand on étudie le texte, ce sont donc plutôt les effets de

sens des sémèmes qui sont recherchés, quand on s’intéresse au contexte de l’énonciation,

ceux des praxèmes. Mais ce n’est pas une simple distinction de dénomination. Dans le

premier cas, l’observation porte sur l’agencement des unités signifiantes dans le texte et sur

les phénomènes de cooccurrence qui génèrent de la signification ; dans le second,

l’observation porte sur des pratiques (par exemple, les actes de langage), c'est-à-dire sur des

schémas praxiques institués qui s’insèrent dans d’autres schémas plus ou moins contraints par

la situation. Le sémème, dans ce cas, est un concept générique qui regroupe tous les

phénomènes qui, en alliant la cooccurrence sur la chaîne syntagmatique et l’insertion de cette

formes d’expression dans les systèmes formalisés par le plan du contenu (conceptuel),

génèrent du sens. Au niveau phonétique, la proximité des phonèmes génèrent des syllabes,

mais aussi de nombreux phénomènes de type intonations, accentuation. qui ont

immédiatement du sens pour tout membre de la communauté, à partir du moment où ils sont

codés et intériorisés, c'est-à-dire institués socialement et mémorisés, sur le plan du contenu.

Page 480: UN REFERENTIEL, POUR QUOI FAIRE

480

Et il en est de même pour toutes les dimensions de la signification, à la différence que les

systèmes se complexifient avec la première articulation. Par exemple les modes thématiques

ont de la signification à partir du moment où racines et affixes sont identifiés, et tout locuteur

peut fort bien créer un nouveau lexème compréhensible, même s’il n’existe pas dans le

dictionnaire (par exemple, « a-chemin-able »). Le principe est le même, en ce qui concerne la

dimension syntaxique, pour les désinences verbales, qui permettent d’identifier le mode et le

temps des verbes. Mais le domaine qui nous concerne le plus, en analyse des discours –

domaine en pleine extension au niveau de la recherche en linguistique -, est celui de la

dimension rhétorico-pragmatique. L’objet de la réflexion en cours, ce sont les unités

signifiantes qui génèrent des effets de sens (sémèmes) entre les propositions, en fonction de

systèmes institués. On a identifié plusieurs phénomènes de cet ordre, soit d’ordre syntaxique

(l’anaphore, par exemple), soit d’ordre sémantique : la relation entre thème (information

préexistante) et rhème (donnée nouvelle) ; ou encore les taxinomies qui sont élaborées en

fonction des univers dans lesquels les lexèmes apparaissent de façon récurrente. Cette

clarification entre les types d’unités permet de poser le problème de l’articulation entre les

processus rhétoriques et pragmatiques. Si l’articulation thème / rhème, au sein de / et entre les

propositions, est un sémème, l’ancrage thématique est un praxème dans la mesure où

l’interprétation de ce phénomène ne peut se faire indépendamment de la référence à la

situation d’énonciation. De même, l’effet de sens produit par l’anaphore est un sémème, celui

produit par la deixis est de l’ordre du praxème. La dimension rhétorique concernerait donc les

premiers, la dimension pragmatique les seconds. S’agit-il de systèmes différents qui se

complètent ou d’un même système ? Peut-on parler de dimension pragmatique, ce qui sous-

entend, dans notre conception, des phénomènes co-occurrents (donc observables) sur le plan

de l’expression ? Peu importe, dans l’immédiat, pour analyser les contenus, il est évident que

ces deux systèmes se complètent. L’ancrage thématique introduit le parcours thématique, qui

se construit ensuite sur l’alternance entre thème et rhème. De même les déictiques n’auraient

pas de signification sans leur articulation dans des constructions propositionnelles (seuls, JE

ou MOI ne signifient rien). L’important est d’identifier que les phénomènes observés ne sont

pas les mêmes, et surtout que leur utilisation fait appel à des compétences différentes.

L’articulation entre micro et macrostructures est plutôt à rechercher au niveau de la dimension

rhétorique (comment est-elle mise en place sur le plan de l’expression ?) et les phénomènes

d’ancrage (énonciatifs et thématiques) sont plutôt à analyser en fonction des effets qu’ils

produisent, en référence avec leur position dans chaque plan : amorce de parcours dans le

texte, ouverture en termes de contenus, et praxis linguistique au niveau référentiel.

Page 481: UN REFERENTIEL, POUR QUOI FAIRE

481

b) Sèmes et lexèmes :

Y a-t-il intérêt de revenir sur ce concept à partir du moment où on maîtrise deux

concepts de façon opératoire, le sémème par l’observation des phénomènes de cooccurrence,

la praxème par l’analyse de la praxis linguistique, en référence aux autres praxis. Analysons

pour cela, les lieux de l’observation. Le sémème, dans la présente conception, s’observe dans

le texte, du moins dans l’énoncé (plan de l’expression). Le praxème s’analyse à partir de

l’insertion de l’unité langagière dans la praxis linguistique (plan du référent). Et le sème ?

Nous l’avons identifié à partir de la notion d’association sémique (pages 455 à 460). Mais, en

l’état actuel, cette définition est trop limitée et elle présente l’inconvénient :

- soit de s’enfermer dans une définition tautologique : les sèmes sont des associations

sémiques, ensemble de connaissances sur un concept, mais que sont le concept et la

connaissance ? Comment peut-on les appréhender ?

- soit de faire référence, pour exister, à la manifestation sur le plan de l’expression

(exemples d’associations sémiques : page 460), mais cela génère de la confusion avec le

sémème, qui produit les effets de sens sur le plan de l’expression (Idem) ;

- soit de faire référence à une praxis linguistique de mise en correspondance d’éléments

(associations), mais, dans ce cas, il y a confusion avec le praxème.

La fonction spécifique du sème n’existe qu’à partir du moment où on reconnaît une fonction

spécifique, au plan du contenu, entre l’expression et les représentations de l’univers,

conception introduite par F. de Saussure, reprise par L. Hjelmslev et par tous les linguistes

contemporains. Le sème est défini généralement comme « l’unité minimale de la

signification » (P. Siblot ; idem : 306). Sur le plan du contenu, cela nous renvoie, de fait, au

signifié, c'est-à-dire aux processus et systèmes qui font qu’un signifiant (une forme phonique

ou écrite) parvienne à signifier un concept, et à lui donner une dénomination lexicale partagée

par l’ensemble de la communauté linguistique. Présenté de la sorte, un tel projet serait

accueilli avec réserve par la praxématique. Effectivement cette discipline a remis en cause la

conception traditionnelle du lexique, pour une « compréhension renouvelée » de celui-ci :

« La liste des dénominations lexicales (…) apparaît comme l’artefact d’une sommation métalinguistique d’actes de nomination suffisamment récurrents en discours pour qu’on les estime stabilisés en langue (…) La nomination est un acte de catégorisation, une praxis qui est simultanément sociale et linguistique. Aussi, le métalangage analytique a-t-il intérêt à souligner la valeur processuelle de la nomination, celle d’un acte de langage saisi dans la dynamique de son effectuation et le différencier de l’aspect résultatif de la dénomination (…)

Page 482: UN REFERENTIEL, POUR QUOI FAIRE

482

La dénomination consigne un des constituants de la prédicativité nominale. Pour que l’on puisse désigner telle chose x par tel signe X, il faut que la classe des x ait été préalablement catégorisée et nommée. Et il faut que la langue ait enregistré l’acte de nomination établissant ainsi entre la catégorisation et sa dénomination un lien référentiel conventionnel, stable, inscrit dans le code linguistique » (P. Siblot dans C. Détrie, P. Siblot, B. Vérine ; 2001 : 264, 205 et 76).

L’institutionnalisation du lexique est le produit social des processus de nomination qui

aboutissent à des dénominations conventionnelles stabilisées. C’est parce que les signes

linguistiques sont en rapport avec des pratiques instituantes qu’ils ont une portée référentielle,

c'est-à-dire qu’ils peuvent faire référence à ces pratiques et s’insérer dans des praxis

linguistiques adaptées. Les acceptions des concepts évoluent ainsi, en vertu des pratiques

sociales dans lesquelles s’insèrent les signes. Tous les concepts que nous avons étudiés

confirment cette thèse : le concept de « compétence » qui, de son sens juridique (capacité de

juger), évolue depuis quelques décennies, vers une conception plus technicienne, comme

ensemble de savoirs faire évaluables ; mais aussi le concept d’indicateur qui est passé par

différentes significations, avant de caractériser certaines pratiques scientifiques du XIXème

siècle, puis linguistiques du XXème siècle. Les « définitions des mots » sont souvent l’objet de

négociations entre les protagonistes sur le sens à donner à tel ou tel concept, en rapport avec

la situation observée ou vécue : les discussions sur les terminologies scientifiques sont

typiques de ce genre de contractualisation, mais aussi celles sur les concepts des Référentiels,

lors des situations d’évaluation. L’approche praxématique pose ainsi un problème

fondamental : le sens des mots s’inscrit dans des pratiques instituées, des pratiques sociales

qui sont ensuite dénommées, mais aussi des praxis langagières qui établissent un système de

référence entre ces dénominations et ces pratiques sociales instituées. Mais cette approche

n’aborde qu’une partie de la question, faute d’une différenciation entre les phénomènes

ontologiques et socio-historiques. Si l’interprétation des lexèmes est toujours soumise à une

renégociation, en fonction de l’évolution des pratiques sociales et des contextes, il n’en

demeure pas moins que, lors de l’apprentissage du langage, le lexique, autant d’ailleurs que

les structures grammaticales et les superstructures culturelles, est imposé à l’individu sous la

forme de systèmes établis – ce qui explique certainement l’illusion d’un sens lexical

préexistant aux mots. Une grande partie de la signification des lexèmes est reconstruite à

partir de nos lectures et de nos discussions, sans lien direct avec les pratiques sociales qui en

sont à l’origine. Et il existe parfois un décalage sérieux entre ces significations « purement

théoriques » et notre sens pratique, que nous cherchons alors à combler à partir d’un retour

aux sources historiques de ces praxis (cf. par ex., la revue de la littérature sur les concepts).

Page 483: UN REFERENTIEL, POUR QUOI FAIRE

483

Les catégorisations de nos systèmes linguistiques déterminent ainsi notre conception de

l’univers, notre reconstruction de celui-ci à partir de nos échanges langagiers. La notion de

praxème, comme « outil de la nomination » et « de la production lexicale de sens », apporte

une nouvelle dimension pour étudier l’articulation entre discours et praxis. On n’en arrivera

pas, pour autant, à la même conclusion que P. Siblot : la substitution de ce concept à celui de

lexème (idem : 263). Les lexèmes peuvent tout à fait se constituer à partir de relations de

signification avec les autres lexèmes et des phénomènes de récurrence des cooccurrences,

répétitions qui conduisent à une intériorisation de l’association sémique entre les deux

concepts. Certes, pour cet auteur, la discussion et les lectures sont, à juste titre, des praxis

langagières. Mais le praxème, tel qu’il est présenté du moins, et le lexème ne recouvrent pas

forcément les mêmes processus de production du sens. Ce n’est pas la même chose de

dénommer un ensemble de phénomènes auxquels nous avons été confrontés dans nos praxis

ou d’ajuster un concept pour qu’il ait du sens par rapport à celles-ci (praxème), et donner de la

signification à un son ou une graphie en raison des liens qui s’établissent avec les autres sons

et graphies déjà signifiés, c'est-à-dire 1° intégrés, en tant que concepts, dans un ensemble de

concepts = conceptions ; 2° inclus dans le lexique puisque déjà signifiés. C’est dans ce second

cas qu’on préfèrera le lexème. Et cette problématique n’est pas qu’une question de spécialiste,

elle est fondamentale si nous souhaitons progresser dans la découverte des différences entre

compétences déclaratives et procédurales, entre concepts scientifiques et pragmatiques (P.

Pastré et R. Samurçay), ou sur des questions encore plus pratiques comme l’alternance entre

la théorie et la pratique ou la difficulté de construire des Référentiels qui aient du sens pour

les acteurs. Pour le dire avec les mots du sens commun : « On met pas les mêmes choses

derrière les mêmes mots ». Si les praxèmes et les lexèmes étaient les mêmes outils

langagiers, ce clivage n’existerait pas. La formation des concepts ne se résume pas à

l’adaptation de nos praxis à la réalité et à l’ajustement du langage à ces pratiques, bien que ce

problème soit fondamental. Les concepts sont aussi un patrimoine culturel de l’humanité, une

façon de communiquer l’expérience d’une génération aux suivantes, soit par des processus

oraux (l’enseignement), soit par des processus écrits (la lecture) - et peut-être, de nos jours,

des processus audio-visuels qui renvoient vers un nouveau champ d’analyse. La façon dont

sont institués les concepts « dignes d’être enseignés », la façon dont les écrits sont jugés

« dignes d’être publiés », ou la façon dont tel ou tel auteur est favorisé par certains milieux

influents, etc., tous ces phénomènes, qui ne sont pas négligeables dans l’institutionnalisation

du sens des mots, relèvent de la praxématique. Pour maîtriser le sens des concepts, les adapter

à notre univers contemporain et les intégrer à nos praxis, ces questions sont incontournables.

Page 484: UN REFERENTIEL, POUR QUOI FAIRE

484

Mais ces praxis réflexives sur les origines du sens d’un mot sont souvent postérieures aux

premières significations qui lui sont attribuées par les apprenants, sur le fondement

d’explications et d’arguments, c'est-à-dire de relations sémiques qui s’établissent entre des

nouveaux signifiants et des concepts déjà signifiés. Ce sont ces processus qui génèrent le

lexème, c'est-à-dire une signification établie, normalisée et reconnue - une signification

toujours en construction ainsi que l’a fort bien démontré L. Vygotski. Cette signification

s’institue et devient conventionnelle, sur la base du crédit accordé à celui qui communique

l’information. Là encore, praxis sociale et rôles s’enchevêtrent. L’intérêt de la praxématique

est d’avoir conçu la problématique du sens de façon dynamique : le lexique n’est pas un

ensemble de significations des mots qu’il suffirait de découvrir, mais c’est une construction

progressive de la signification des signifiants. Le lexème en tant qu’unité préexistante

constituée de sèmes n’a donc plus de raison d’être, l’argument de P. Siblot est convaincant.

En revanche il semble pertinent de maintenir le concept de « lexème », pour signifier les

processus de construction de la signification à travers les échanges langagiers qui parviennent

à stabiliser le sens des signifiants. Les lexèmes produisent la formation des sèmes, des unités

de sens affectés implicitement à un signifiant (phonique ou graphique). Le modèle ci-dessous

schématise cette structuration des processus, qui s’articulent pour former le sens.

Plan de l’expression Production de la signification

sur la chaîne syntagmatique

Lexème

Plan du contenu Formation des concepts

Praxème

Plan du référent Institutionnalisation de l’utilisation

du langage (praxis)

Page 485: UN REFERENTIEL, POUR QUOI FAIRE

485

Il n’échappera à personne que la notion la plus floue, dans ce schéma, est celle de

« formation des concepts ». C’est la fonction du plan du contenu qui est interpellé ici. A quoi

sert-il ? On a identifié deux types de processus qui génèrent du sens sur le plan du contenu, en

relation avec les deux autres plans : les lexèmes et les praxèmes. Pour la formation des

lexèmes (le sens des mots), le choix du signifiant est arbitraire, ainsi que l’a démontré F. de

Saussure. Le fonctionnement de la langue n’en est pas entravé, à partir du moment où la

dénomination est conventionnellement établie. En revanche, au niveau du praxème, les

dénominations ne sont pas arbitraires, elles correspondent à des praxis de catégorisation du

monde réel. Ainsi le terme de taxinomie est un « composé savant dont les radicaux grecs et

latins disent d’emblée qu’il s’agit de classer et de nommer (tag-/tak-/ tassein, ranger, placer

où il faut, de manière organisée et nomen > -nomie) » (P. Siblot ; idem : 341). Le choix de ce

signifiant a été fait en fonction de signes (signifiants déjà signifiés) qui existaient à l’époque,

dans le milieu scientifique où il a été créé. D’autres signifiants auraient été aussi pertinents -

par exemple « classe de noms » - sur la base du même processus de signification couramment

utilisé dans les langues (cf. synthème d’A. Martinet ou paralexème d’A.J. Greimas). En

revanche, lorsqu’on utilise ce mot dans notre métalangage linguistique, comme au paragraphe

précédent, c’est en tant que praxème, outil de production de sens couramment utilisé. D’une

part, nous avons donc le processus de signification qui donne du sens au mot savant,

processus explicité par P. Siblot dans son argumentaire ; d’autre part, nous avons les

procédures de classification, en tant que praxis qui servent à agencer nos représentations de

l’univers dont il est question : en l’occurrence, ici, la façon d’organiser les unités langagières.

Comment ces processus de signification s’agencent-ils avec les procédures d’organisation de

notre univers ? Comment se coordonnent-ils, se renforcent-ils, se contredisent-ils ?

N’est-ce pas à ce niveau qu’interviennent nos réflexions sur les concepts ? De façon

générique, il est possible de définir ces derniers comme des façons d’organiser nos

perceptions de l’univers : ils n’existent qu’en raison de cette activité. Mais ils sont là aussi

pour expliquer l’organisation de ces phénomènes perçus à partir de l’utilisation des mots

(compréhension). Il paraît difficile de dissocier ces deux activités, mais il est possible de les

différencier : le concept est un produit de ces praxis de catégorisation et de classification, une

structure-type d’ordonnancement qui s’établit par l’expérience et l’adaptation ; le concept

dénomme ces phénomènes observés (plus exactement, les classes de phénomènes ainsi que

l’ont mis en valeur les travaux de L.J. Prieto ; 1966) et les intègre dans des ensembles

conceptuels, c'est-à-dire des réseaux sémiques significatifs. On propose de nommer la

première dynamique, des schèmes, en référence aux conceptions de J. Piaget sur ce sujet.

Page 486: UN REFERENTIEL, POUR QUOI FAIRE

486

Pour la seconde, la notion de sème apparaît tout à fait appropriée. Dans cette acception, le

sème serait le type d’associations sémiques appliquées au concept pour lui donner de la

signification. Le concept – lexème acquiert ainsi sa signification établie et reconnue en

fonction des rapports qui l’unissent de façon significative à d’autres lexèmes. Chacun de ces

lexèmes est rattaché au concept – lexème par un certain type d’associations sémiques, qui

sont nommées « sèmes ». Bien entendu, on s’intéresse, en général, aux plus significatives

(principe de la définition) ou à celles qui sont pertinentes en fonction du cotexte ou du

contexte (sème contextuel d’A.J. Greimas). P. Siblot a mis le doigt sur la difficulté d’obtenir

un consensus sur cette notion de « sème », au-delà de la définition générale, dans la mesure

où il « engage toute la théorie sémantique qui la mobilise » (Idem : 307). Les définitions

qu’on propose se suffisent donc à elles-mêmes, dans la mesure où elles sont cohérentes et

opératoires pour l’analyse des discours. Mais on préfère montrer, en quelques lignes, que la

présente acception n’est pas en complète contradiction avec celles de L.J. Prieto et d’A.J.

Greimas, même si les conclusions sont bien différentes. Cet exercice permet de préciser la

signification du concept de « sème ». Pour L.J. Prieto (1966 : 39), le « sème » est un

processus de correspondance entre les signifiants et les signifiés, c'est-à-dire les classes qui

sont formées sur le plan de l’expression (types de signal) et les classes qui sont formés sur le

plan du contenu (types de message). Pour que la communication puisse s’établir, il est

nécessaire d’instaurer une certaine abstraction : ce n’est pas chaque signal qui correspond à un

message, sinon le nombre de signaux serait trop conséquent, mais bien une codification par

généralisation (Par exemple, pour le code de la route, un « panneau rond cerclé de rouge »

signifie « interdiction »). Pour définir le « sème », il en arrive à proposer une analogie avec un

instrument, de type linguistique bien entendu :

« Les analogies qui apparaissent ainsi entre le sème et l’instrument ne sauraient d’ailleurs étonner personne : rien n’empêche, en effet, de considérer l’acte sémique comme l’exécution d’un type particulier d’opération, c'est-à-dire comme un type particulier d’acte instrumental, et par conséquent le sème comme un type particulier d’instrument » (L.J. Prieto ; 1975b : 65).

Les sèmes seront donc les processus qui, en rapport avec les systèmes d’agencement

sur le plan de l’expression, génèrent de la signification, sur le plan du contenu. Mais les

codes, sur lesquels a travaillé L.J. Prieto, en particulier le code de la route ou les codes à

numération, sont bien moins complexes que les langues. Les systèmes d’organisation

langagiers, sur le plan de l’expression, sont régis par les dimensions de la signification, c'est-

à-dire par les types de « sémèmes » produits en fonction des phénomènes de cooccurrence

entre les unités. Ces effets de sens correspondent à des opérations sur le plan du contenu.

Page 487: UN REFERENTIEL, POUR QUOI FAIRE

487

Par exemple nous avons abordé la « modalité thématique », à partir du sémème produit par

une racine et son suffixe, qui détermine le type de radical signifié (nom, verbe ou adjectif),

soit, en termes de concept : un substantif, une action / un état, ou un attribut. La relation entre

« thème et rhème » produit un autre effet de sens (un autre type de sémème), fondé sur la

cohérence présupposée de tout discours et sur un implicite : le rhème apporte une donnée

nouvelle. Mais nous avons vu aussi « l’ancrage », qui peut signifier un positionnement de

l’énonciateur, ou la « modification du temps des verbes », qui peut signifier un débrayage

temporel, ou l’utilisation de « compléments circonstanciels » qui peut signifier un débrayage

spatial. Toutes ces opérations, qu’on qualifiera de « logiques », sont induites par les sémèmes,

c'est-à-dire par les dimensions de la signification. Ce sont ces opérations logiques, sur le plan

de contenu, qu’on qualifiera de « sème » ou d’ « association sémique », en référence aux

opérations qui les produisent sur le plan de l’expression : rapport de liaison entre deux unités.

Le nombre de sèmes n’est donc pas infini, ainsi que le déduit L.J. Prieto (1975b : 137) il est

en revanche très conséquent. Ce qui est infini, c’est l’application de ces opérations aux

lexèmes. Chaque lexème s’est construit et stabilisé, à partir d’un certain nombre

d’associations sémiques qui les ont mis en rapport, de façon récurrente, avec d’autres

lexèmes : avec tel lexème, ils sont fréquemment dans un rapport thématique, avec tel autre

dans un rapport actanciel. On retrouve ici l’acception du sème proposée par B. Pottier et A.J.

Greimas, le sème comme constituant du lexème. Mais la notion exprime une structure

opératoire du plan du contenu, et non l’expression sur le plan de l’expression (sémème).

c) Schèmes de l’énonciation et lois du discours :

Le concept de « sème » signifie les structures opératoires appliquées aux concepts, sur

le plan du contenu, en rapport avec les effets de sens (sémème), produits par la cooccurrence

des unités linguistiques sur le plan de l’expression. Les sèmes sont des opérations logiques

appliquées aux contenus, à partir des manifestations et des contraintes langagières. Ils ne sont

pas des schèmes au sens où l’entend J. Piaget, c'est-à-dire des structures cognitives qui se sont

formés au cours du développement sensori-moteur et de l’adaptation à l’environnement. Ce

sont des structures associatives. On fait l’hypothèse qu’elles ont acquis un caractère

significatif pour la langue, en raison de leur apparition régulière (significative au sens de la

statistique) dans les énonciations ordinaires. La praxis est une chose, le concept une autre.

Pour savoir skier, il est indispensable de développer des schèmes adaptés à cette pratique, pas

forcément des sèmes pour savoir en parler, sauf si on devient moniteur, chercheur, etc.

Page 488: UN REFERENTIEL, POUR QUOI FAIRE

488

Mais, en revanche, il n’existerait pas d’adaptation du langage aux situations de

communication s’il n’y avait pas de schèmes de l’énonciation, c'est-à-dire un apprentissage de

la façon dont le langage s’utilise en situation (D.H. Hymes ; 1973/1991). Cette différence

entre sèmes et schèmes est fondamentale en linguistique, elle transparaît régulièrement dans

toutes les problématiques qui traitent de l’articulation du texte et de son contexte146. En

particulier, dans ces travaux, O. Ducrot identifie ainsi un « composant linguistique » (C.L.)

qui fait correspondre à un énoncé (E) une signification, et un « composant rhétorique » (C.R.)

qui « calcule à partir de la signification de l’énoncé et d’une description de la situation, le sens

de l’énonciation » (1984 : 60).

Situation S

E Signification de E Sens de E dans S

Le composant rhétorique agit ainsi comme une instance de coordination entre les schèmes de

l’énonciation et ceux adaptés à la situation.

« Le composant rhétorique ne se borne pas toujours à exécuter un calcul à partir d’une fonction et d’un argument qui lui seraient fournis par ailleurs, mais il constitue lui-même, pour ainsi dire, une fonction prenant pour argument à la fois la situation de discours et la signification » (Idem : 99).

Nos modèles sont redevables à cet auteur, sur bien des points. On essayera tout de même

d’approfondir l’imbrication des différentes problématiques qui sont posées, pour dégager un

nouvel objet de recherche : les « indicateurs langagiers ». La pragmatique et la praxématique

ont mis en rapport les travaux des cognitivistes, de la microsociologie et de la linguistique,

pour définir des notions comme les lois du discours, les praxèmes ou les scripts. Nos analyses

au paragraphe précédent ont, par ailleurs, redéfini les concepts de sémème, de sème et de

lexème, le premier pour caractériser les effets de sens produits par les dimensions de la

signification, le second pour nommer les structures cognitives qui se forment en raison de

l’apparition récurrente de certains types de rapports entre signifiants, le troisième pour

qualifier les unités de sens qui se forment autour d’un concept, en raison des relations avec les

autres concepts. Mais la différence entre sème et schème pose une nouvelle problématique :

comment s’articulent ces deux sphères autonomes de la communication langagière ?

146 Il y aurait intérêt à approfondir l’étude de ces relations. Une des hypothèses serait qu’elles fondent les compétences linguistiques. Mais elle était trop prématurée par rapport à l’avancement de cette thèse.

C.L.

C.R.

Page 489: UN REFERENTIEL, POUR QUOI FAIRE

489

Le modèle ci-dessous synthétise ces divers axes de réflexion :

UNITES SEMEME Dimensions de la signification DE L’EXPRESSION (3)

(3) (6)

LEXEMES INDICATEURS

(3) (6)

Sèmes FORMES DU Schèmes de l’énonciation (5) CONTENU (5) (4) (2)

SCRIPTS PRAXEMES

(4) (2)

Représentations SCHEMAS-TYPE FIGURES DU (1) (Schèmes non langagiers) (1) REFERENT

Ce modèle permet de préciser l’articulation entre les trois plans :

- à partir des théories auxquelles nous avons emprunté certains concepts (signifiées par

), c'est-à-dire au niveau du plan du référent, les psychologies cognitive et

génétique et la microsociologie (1), et au niveau des schèmes de l’énonciation, la

pragmatique et la praxématique (2),

- des conceptions qui ont été présentées ci-dessus à la suite d’une redéfinition des concepts

de sème, de lexème, de sémème et de dimension de la signification (3), empruntés à la

sémiologie et à la pragmatique (signifiées par )

- des problématiques qui restent à approfondir, à savoir :

- Comment les scripts représentent-ils les schémas-type de notre réalité

quotidienne ? Ou, autrement formulé, comment les représentations sont-elles

signifiées par des scripts sur la plan du contenu ? (4) Cette question renvoie

certainement aux recherches des cognitivistes, mais aussi à la question de savoir

comment s’articulent les sèmes et les scripts.

- Comment les sèmes et les schèmes de l’énonciation - actes de langage, deixis,

praxèmes, etc. - s’articulent-ils au niveau du plan du contenu ? (5) Comment

génèrent-ils les compétences linguistiques ?

Page 490: UN REFERENTIEL, POUR QUOI FAIRE

490

- Enfin comment ces schèmes de l’énonciation s’inscrivent-ils dans les dimensions

de la signification, voire déterminent la structure de ces dimensions ? (6).

Il ne sera pas possible dans cette thèse d’approfondir toutes ces questions, mais ce cadre

schématique permet de différencier le sème et les schèmes de l’énonciation, le lexème et le

praxème, et ainsi de préciser la notion d’indicateur. On appelle schèmes de l’énonciation les

structures intellectuelles qui, comme les autres schèmes, se construisent à partir de la praxis,

c'est-à-dire de l’adaptation des pratiques intériorisées par expérience (assimilation) et

adaptation aux situations (accommodation). Bien entendu les schèmes de l’énonciation se

développent avec les praxis de communication. Les expériences de J.S. Bruner, en particulier,

ont montré l’importance de l’interaction avec la mère ou les proches, dans la construction

primitive du langage. Les jeux qui se construisent spontanément vont induire les premiers

processus et systèmes de relations qui serviront de référence aux constructions ultérieures :

« Le jeu a pour effet d’attirer l’attention de l’enfant sur la communication en elle-même et sur la structure des actes dans lesquels intervient la communication. (…) Dans le mode ludique, les segments de conduites sont convertis à des fins non utilitaires – surtout à des fins de signalisation, substitution, variation, etc. Les rituels de jeux deviennent objets d’attention au lieu de servir d’instrument pour autre chose » (J.S. Bruner ; 1983 : 224 et 225).

Les schèmes de la communication langagière s’établissent donc à partir des habitudes ou des

jeux de l’enfance. La deixis se structure de façon très précoce, elle sert ensuite d’ancrage au

discours en fonction des situations d’énonciation :

« L’ontogenèse de l’interaction sociale médiatisée sémiotiquement ne commence pas par les significations généralisées, catégorielle des mots, mais par les références indexicales. Les adultes entraînent les jeunes enfants dans des interactions sociales par cette fonction indexicale, qui permet une intersubjectivité à propos des objets perceptivement présents » (J.V. Wertsch dans B. Schneuwly & J.P. Bronckart ; 1985 : 150, 151).

J.S. Bruner a mis à jour de nombreux phénomènes qui relève de ces apprentissages

praxiques : « l’apprentissage de la segmentation », l’« apprentissage des positions et priorités

d’occurrence » entre « agent – action – objet – destinataire », les « règles de substitution », en

particulier l’échange de sa place avec l’agent, la « construction minutieuse de routines » ou la

« conjonction des orientations de l’attention ». (1983 : 221 et 222). Il révèle aussi un

phénomène important :

« Il existe un quatrième processus, fort troublant. L’apprentissage par l’enfant des configurations phonologiques se fait par imitation, un peu comme s’il s’agissait de marqueurs de positions. Ces configurations constituent, même au niveau préverbal, une sorte d’enveloppe ou de matrice prosodique (…) Tout se passe comme si (…) une matrice de distribution se mettait en place pour recevoir la lexie » (J.S. Bruner ; 1983 : 222).

Page 491: UN REFERENTIEL, POUR QUOI FAIRE

491

L’enfant acquiert ainsi de nombreux schèmes qui n’auront plus qu’à s’épanouir au moment

de la socialisation : apprentissage des tours de paroles, écoutes d’histoire et de contes,

discussions avec les adultes, échanges avec les pairs, etc. C’est à cet ensemble d’acquisitions

pratiques, créatrices des conditions de production du discours et, de ce fait, de rapports

référentiels avec les situations d’énonciation, que l’on attribuera le nom de schèmes de

l’énonciation. Mais, au fur et à mesure qu’il se développe, le langage devient de plus en plus

indépendant de ces contraintes. Le débrayage dans des situations imaginaires, tout à fait

irréalistes (avec les contes et les légendes, par exemple), est typique de cette distanciation qui

s’instaure entre les possibilités du langage et la situation référentielle. Ces capacités

s’accélèrent lorsque le jeune entre dans des raisonnements hypothético-déductifs, de plus en

plus abstraits. Les structures du langage deviennent indépendantes de la praxis et se

développent de façon autonome, à travers des énoncés qui se signifient entre eux, sans faire

référence directement à des praxis. C’est à elles que nous réserverons le nom de sème. Les

travaux de J.S. Bruner laissent clairement entrevoir que les schèmes de l’énonciation jouent

un rôle important dans la formation des dimensions de la signification. A part les quelques

indices qu’il nous fournit sur les « configurations phonologiques » comme « marqueurs de

position », sur l’apprentissage des positions, de la segmentation ou des règles de substitution,

nous avons trop peu d’éléments pour nous lancer dans l’étude de ces structures schématiques.

Mais nous pouvons en déduire, a priori, une aperception globale de la façon dont elles

organisent les dimensions de la signification pour générer des effets de sens en fonction des

modes de cooccurrence entre les unités du discours. Nous appellerons ces constructions des

« indicateurs ». Dans le paragraphe suivant, nous verrons que cette définition recouvre les

différentes utilisations de cette notion d’indicateur en linguistique (déictiques, monèmes

fonctionnels ou indicateurs syntagmatiques). Ces indicateurs sont importants, en analyse du

discours, parce qu’ils « indiquent » la façon dont le discours produit du sens : c’est le cas, par

exemple, de l’énoncé élémentaire de M. Pêcheux, qui est construit sur le modèle de

l’« indicateur syntagmatique » de N. Chomsky. Mais bien d’autres indicateurs peuvent être

utilisés pour l’analyse, par exemple le rapport entre « thème » et « rhème », entre « racine » et

« affixes », ou encore l’ « ancrage thématique ». On définira donc, pour l’instant,

l’« indicateur » comme une structure schématique, qui génère un effet de sens entre les unités

langagières du plan de l’expression, en référence à des systèmes de communication qui se

sont mis en place au cours de l’histoire humaine, et que les enfants (mais aussi les adultes sur

des fonctions spécifiques) se réapproprient au cours de leurs longs processus d’apprentissage.

Page 492: UN REFERENTIEL, POUR QUOI FAIRE

492

Deux caractéristiques sont donc importantes pour parler d’indicateur : la référence à la

situation d’énonciation et la production d’un effet de sens au niveau d’une (ou de plusieurs)

dimensions du plan de l’expression. Il s’agit maintenant de préciser ce phénomène pour en

maîtriser le plus de dimensions possibles, lors de nos analyses.

d) La notion d’ « indicateur » en linguistique :

Le mécanisme de l’indication a été décortiquée par L.J. Prieto (1966), mais son

analyse a surtout porté sur des systèmes de codes, en bien des points différents et moins

complexes que les sémiotiques langagières. En particulier son analyse ne différencie pas les

sèmes et les schèmes, du fait justement de la nature du code qui a pour vocation de s’insérer

dans une praxis (par exemple, le code de la route ou de la navigation fluviale). Aussi la

différence n’est-elle pas toujours très nette entre signe et sème. Par ailleurs certains

mécanismes décrits ne sont guère généralisables aux langues. Son approche n’en demeure pas

moins intéressante, car elle pose de nombreuses bases pour la réflexion sur les processus

d’indication. On a déjà vu l’intérêt de sa conception qui considère les signifiants et les

signifiés, non pas comme des unités, mais comme des classes mises en correspondance. C’est

le premier intérêt de l’indication : il ne s’agit pas de considérer les unités une par une, mais

comme des classes. Le plan du contenu est donc la sphère d’activité où nous classons les

unités qui sont produites par le langage. Par ailleurs l’auteur différencie trois types d’

« indication » : l’indication « notificative », le signe « montre au récepteur que l’émetteur se

propose de lui transmettre un message » (Idem : 29) ; l’indication « significative », le signe

est reconnu par le récepteur comme faisant partie d’un code qui lui est familier147 ; enfin

l’indication fournie par les « circonstances dans lesquelles le signal est produit » (Idem : 47).

L’auteur privilégie les deux dernières, considérant que la première va de soi (idem : 43) : là

encore, un code et une langue ne sont-ils pas différents ? Mais on a maintenant des

caractéristiques objectives pour définir l’indicateur. Il n’y a plus qu’à l’adapter à notre

problématique, la recherche formelle des indicateurs linguistiques.

• 1° L’indicateur montre dans le discours son existence à partir de signes intrinsèques.

• 2° L’indicateur produit un effet de sens à partir d’une structure identifiable.

• 3° Le sens de cet effet est induit par les circonstances praxiques de l’énonciation.

147 L.J. Prieto parle ici de « champ noétique » comme « l’ensemble de tous les messages admis par un signal déterminé ou par un autre signal appartenant au même code » (1966 : 35). Mais on voit bien là les limites du

Page 493: UN REFERENTIEL, POUR QUOI FAIRE

493

Ainsi, par exemple, le thème s’inscrit dans le discours à travers son « ancrage », il produit un

effet de sens par son mode thématique, au niveau sémantique, ou par l’alternance thème et

rhème, au niveau syntaxique. Mais le sens à donner à ce thème est fonction des circonstances

de sa production, en particulier des macrostructures auxquelles il fait référence (Quel genre de

discours ? Quel rapport avec la situation).

On a relevé trois définitions de l’indicateur en linguistique, on les analysera

succinctement :

- On a déjà évoqué plusieurs fois la conception de l’indicateur syntagmatique (« phrase

marker » de N. Chomsky). On se contentera ici d’une brève synthèse.

• 1° L’indicateur syntagmatique est délimité, à l’oral par des formes prosodiques, à

l’écrit par la ponctuation.

• 2° Il analyse la phrase en « constituants » et la représente sous forme d’arbre (ou de

diagramme), qui signifie la position respective des unités par rapport au prédicat.

• 3° Le sens de l’indicateur est induit par certains rapports de présuppositions avec la

situation de l’énonciation (l’existence de fait du substantif posé comme thème (cf. O

Ducrot ; 1984 : 13-31)) ou par certains relations sémiques intrinsèques à la structure :

la relation de constitution entre un substantif et un attribut (il est constitué de…), la

relation fonctionnelle entre action et objet qui subit l’action.

- L’indicateur est aussi utilisé pour traduire la notion de « shifter » de R. Jakobson. Mais on

utilise plus couramment, de nos jours, la notion de déictique qui est proche du sens

étymologique : « qui désigne, qui montre » (G. Mounin ; 1974/2000 : 98). Là encore, on

s’attachera seulement à l’analyse des caractéristiques de l’indicateur :

• 1° Il embraye le message sur la situation : l’embrayage est le processus qui permet

d’identifier instantanément la position représentative du déictique dans la situation

d’énonciation : on sait ce qu’indique « je », ce qu’indique « ici ».

• 2° Cet ancrage énonciatif n’a de signification qu’en rapport avec le prédicat de

l’énoncé (de quoi on parle ?) : seuls, « je » ou « ici » ne veulent rien dire.

• 3° C’est l’instance de référence qui ancre le prédicat dans la réalité de l’énonciation.

Le sens de « je » et de « ici » est déterminé par les circonstances du discours.

- La troisième acception est l’« indicateur de fonction » d’A. Martinet (1985 : 40 et 166).

transfert de cette conception pour l’étude des langues, dont le champ noétique ainsi défini, serait infini. Cette définition apparaît ainsi peu opératoire, en dehors de l’étude des codes.

Page 494: UN REFERENTIEL, POUR QUOI FAIRE

494

On l’appelle aussi « connecteur » ou « joncteur », selon les auteurs. En français, ce sont

les conjonctions de coordination et de subordination, les présuppositions. L’auteur les

définit comme « des monèmes de liaison (…) qui s’identifient formellement sans

difficulté du fait qu’ils supposent, pour apparaitre, l’existence de deux autres monèmes

qu’ils relient » (Idem : 107) ou deux propositions (idem : 166).

• 1° L’indicateur fonctionnel est aisé à identifier puisqu’il a besoin, « pour apparaitre de

la présence de deux autres unités entre lesquelles la relation s’établit » (Idem : 166).

Son existence induit, de ce fait, la recherche immédiate et spontanée de ces unités.

• 2° L’effet de sens produit est lexicalisé, mais il est aussi intrinsèque aux rapports entre

les unités en présence, monèmes ou prédicats. Dans le cas des monèmes, il précise une

relation de détermination. Dans le cas des prédicats, il signifie la fonction

argumentative qui existe entre eux.

• 3° Sa relation avec la situation d’énonciation est implicite : l’utilisation d’un

indicateur fonctionnel interroge toujours la finalité de celui qui l’utilise. Pourquoi

précise-t-il la détermination (le lieu vers lequel se dirige l’action ; l’actant avec qui la

relation est établie) ? Pourquoi avance-t-il tel argument ?

On peut donc adopter cette conception de l’indicateur qui englobe toutes les définitions et qui

s’adapte à nos besoins en analyse du discours. Cette notion a surtout, pour nous, un sens

praxique : elle permet d’analyser les outils que nous utilisons couramment, spontanément,

pour identifier l’effet de sens produit par le langage sur une ou plusieurs dimensions

(sémème), interpréter la signification induite par sa structure (sème) et pour situer cet

indicateur dans son contexte de façon pertinente (praxème). Par conséquent la recherche dans

le discours de toutes les formes d’indicateurs est un enjeu important pour l’analyse des

contenus. Elle peut s’articuler autour de quelques questions clefs qui définissent l’indicateur :

1° Comment l’identifier dans les discours ? (indication notificative) ; 2° Quels effets de sens

sont produits ? Comment ? Par quelles procédures ? En rapport avec quelle(s) dimension(s) de

la signification ? (indication significative) ; 3° Quelles sont les circonstances de l’énonciation

qui sont requises, la situation dans laquelle l’outil est pertinent ? Quelles sont les

présuppositions et les implicites qui en dérivent ? (indication circonstancielle).

L’analyse de quelques types de sème ou de sémème permettra de mieux cerner l’enjeu.

On analysera donc tout d’abord les associations sémiques qui se structurent autour des

prédicats (sèmes), puis l’effet de sens produit par les modalisations (sémèmes).

Page 495: UN REFERENTIEL, POUR QUOI FAIRE

495

1-4) La prédication :

a) La notion de prédicat :

La notion de prédicat a été empruntée par les linguistes aux logiciens. Elle représente

donc bien une unité sémique du plan du contenu. Le prédicat est l’unité principale du discours

autour de laquelle s’organise l’énoncé, elle ne saurait être supprimée sans annuler l’énoncé

lui-même :

« Le terme prédicat est réservé à l’élément irréductible d’un énoncé (…) noyau à partir duquel peut se produire l’expansion et les éléments qui constituent cette expansion (….) Le prédicat comporte un monème prédicatif accompagné ou non de modalités. Ce monème prédicatif est l’élément autour duquel s’organise la phrase et par rapport auquel les autres éléments constitutifs marquent leur fonction » (A. Martinet – 1985 : 87 et 127).

G. Mounin définit ainsi le prédicat autour de trois caractéristiques :

« Est prédicat celui des éléments : 1° qui ne dépend syntaxiquement d’aucun autre élément ; 2° par rapport auquel la phrase s’organise ; 3° dont la disparition détruit l’énoncé. Le prédicat se reconnaît donc à trois caractères : il est indépendant, central et obligatoire » (1985).

Le prédicat n’a donc pas une forme et une fonction déterminées, cela peut être un substantif

(un nom) : « c’est la fête » ; un attribut : « la fête est réussie » ou un verbe : « la fête

commence ». Ce qui caractérise le prédicat, ce n’est pas le type de fonction grammaticale sur

la chaîne syntagmatique (plan de l’expression), mais sa fonction d’élément principal qui

structure le plan de l’expression et du contenu. Il est donc possible, lors de l’analyse des

discours, de s’intéresser aux choix syntaxiques de l’énonciateur pour exprimer le prédicat

(substantif, attributif ou fonctionnel), puis d’analyser les effets de sens produits par ce choix.

L’énoncé à « prédicat isolé » est assez rare. Dans la mesure où ce prédicat n’a pas de relation

de signification avec d’autres concepts, exprimés sur le plan de l’expression, son sens

s’élabore entièrement en référence avec la situation d’énonciation et, de ce fait, accentue la

dimension référentielle, c'est-à-dire le sens connotatif : par exemple, « bonjour », « adieu »,

« maman », « Dieu ». Cette problématique de l’argument unique est développée lors de

l’expérience N° 1 (ch. 12) : par exemple, l’argument unique « professionnel ». Mais la plupart

des énoncés élémentaires comprennent au minimum deux unités conceptuelles, un sujet148 et

un prédicat : le prédicat est l’information apportée, le sujet, l’élément sur lequel on apporte

cette information.

148 Il est important ici de différencier le « sujet » grammatical qui signifie une fonction (et dans les langues positionnelles, une position dans la phrase) sur le plan de l’expression, et le sujet dont il est question ici, qui est le sujet du plan du contenu : sujet de la discussion, sujet de la rencontre, sujet du discours.

Page 496: UN REFERENTIEL, POUR QUOI FAIRE

496

« Un énoncé minimum (a) deux termes dont l’un, qui désigne normalement un état de choses ou un évènement sur lequel on attire l’attention, reçoit le nom de prédicat, et dont l’autre, dit sujet, désigne un participant, actif ou passif, dont le rôle est ainsi, en principe, mis en valeur » (A. Martinet ; 1985 : 125).

Analysons cette relation entre le sujet et le prédicat. Avec le plan de l’expression, elle régit un

certain nombre de relations fonctionnelles : relations au sein de l’indicateur syntagmatique

(sujet, verbe, attribut, etc.), mais aussi relations de cohésion et de cohérence ; avec le plan du

référent, elle induit des présuppositions et des implicites (au sens de C. Kerbrat Orecchioni et

O. Ducrot). Les relations de correspondance que cette forme associative entretient avec les

deux autres plans fondent la fonction de ce sème, en tant que catégorie logique. Par

conséquent les questions que nous nous posons pour donner du sens à cette relation orientent

nos réflexions sur la façon dont le sème structure l’interface entre ces deux plans. Quelques

questions liées au sujet : 1° Pourquoi ce sujet est-il abordé lors de la situation d’énonciation ?

a) par rapport à la situation d’énonciation (contexte), on interroge alors les présuppositions ;

b) par rapport à l’énoncé précédent (cotexte), on s’inscrit dans l’analyse de la cohérence. 2°

Comment aborde-t-on ce sujet ? a) à quel moment, dans quelle situation (référent) ; b) quels

sont les choix syntaxiques et de formes (expression) ? 3° Avec qui ? a) les raisons de discuter

sur ce sujet (contexte) ; b) la façon dont se met en place l’échange, les ancrages, etc. (cotexte)

4° De quoi est-il question ? a) quels sont les intérêts des interlocuteurs à discuter sur ce

sujet (référent) ; b) quels sont les mots utilisés pour en parler (expression). Quelques

questions liées au prédicat : 1° Pourquoi cette information est-elle pertinente ? a) intérêt de

l’énonciation dans la situation présente (implicite) ; b) par rapport à ce qui a été dit avant

(construction des parcours). 2° Comment est-elle proposée ? a) quelle position ont les co-

locuteurs au cours de l’interaction (référent) ; sur quel mode (expression) ? 3° Avec qui ? a)

Que sait l’autre sur le sujet (implicite) ; b) co-construction de l’interaction (parcours) 4°

Qu’est ce qui est dit sur le sujet ? a) en quoi l’information intéresse-t-elle le co-locuteur

(référent) ; b) quelles sont les formes syntaxiques utilisées (expression).

Ainsi le fait d’interroger le sujet du discours (de la discussion, de la rencontre, etc.) et le

prédicat (ce qu’on en dit) oriente notre analyse vers les autres plans, pour interpréter le sens

de l’interaction et analyser les façons dont elle se construit. Le sème, catégorie qui relève de

la forme du contenu, se manifeste sur le plan de l’expression à partir de modes thématiques,

de structures syntaxiques et de relations de cohérence entre les propositions (thème/rhème,

anaphores) ; mais aussi, il organise, hiérarchise et synthétise les déductions logiques que nous

faisons pour interpréter, sur le plan du référent, les représentations de l’énonciateur (en

tant qu’acteur) ou les conceptions des figures évoquées (représentées par le discours).

Page 497: UN REFERENTIEL, POUR QUOI FAIRE

497

Cette structure prédicative entre le sujet et le verbe n’est qu’une association sémique parmi

tant d’autres, mais son rôle central est suffisamment attesté par le nombre des travaux de

logiciens et philosophes, dont elle a fait l’objet. A ce titre, son analyse semble propice pour

poser un cadre à la poursuite de la réflexion.

b) La catégorisation des verbes, actant et attribut :

Les deux catégories principales de prédicat ont conduit les linguistes à différencier

deux catégories de verbes149, statifs et factifs. Les définitions de R. Ghiglione et de son équipe

semblent suffisamment précises pour les besoins de nos analyses de contenu :

« Les factifs auraient pour fonction de caractériser la réalisation, la production, la modification d’un objet, une manière d’agir sur quelqu’un ou quelque chose, de produire un effet. Ils se caractérisent par un noyau de descripteurs de constitution temporelle qui marquent fortement cette catégorie (…) Les statifs auraient pour fonction d’asserter l’existence d’un objet, d’attribuer à l’objet des propriétés, de prédiquer une manière d’être, un état de choses, ils se caractérisent par un « noyau dur » vide de tout descripteur, « les états n’ont pas de structure temporelle interne, ce sont des procès qui perdurent dont on ne peut repérer ni début, ni changement, ni fin » (Bromberg et al. 1997) » (R. Ghiglione et ass. ; 1998 : 45 et 46).

De façon simplifié, les factifs sont des « faire », les statifs sont constitués par les verbes

« être » et « avoir » et tous les verbes qui remplissent les mêmes fonctions : « rester, paraître,

etc. ». Les rapports sémiques induits par les verbes factifs, en relation avec les substantifs,

sont donc de l’ordre de l’évènement, ceux induits par les verbes statifs, en relation avec les

attributs, sont de l’ordre de l’état. On nommera respectivement ces relations sémiques (à

prédicat verbal) des « évènements » et des « états ». Nous reviendrons sur les verbes d’état

plus loin, précisons pour l’instant la fonction des verbes factifs. Ces verbes expriment ce que

« font » les figures manifestées par le sujet, d’où le terme de « fonct-tion » ou « fonctionnel »

pour traduire leur rôle prédicatif dans la phrase. Ce sont des actions (le génitif « tion » de

« fonction » traduit cette caractéristique), entendues au sens le plus large de ce terme : tout

factif exprime une act-tion, et il assume une position sémique (sur le plan du contenu) de

fonct-tion. Par conséquent tout verbe factif a un sujet grammatical qui exprime la figure qui

fait l’action. On l’appelle l’ « actant ». Pour être plus précis, on appelle « actant » le concept

signifié, sur le plan du contenu, par le sujet grammatical d’un verbe factif sur le plan de

l’expression, du moins à la forme active. Dans la langue française qui connaît une forme

passive, l’actant devient alors dans ce cas le complément indirect : l’action « est faite par… ».

149 Pour la grammaire traditionnelle, ce sont les verbes qui assument, en général, la position de prédicat.

Page 498: UN REFERENTIEL, POUR QUOI FAIRE

498

La figure qui subit l’action est, sur le plan du contenu, l’« acté ». Celui-ci est exprimé par le

complément d’objet à la forme active, et par le sujet à la forme passive. Ces concepts

d’« actant » et d’« acté » ont été introduits par L. Tesnière, repris et développés par A.J.

Greimas (1966, 1979) et utilisés par R. Ghiglione pour l’analyse des contenus (1998).

Sur ces deux catégories, il n’y a guère de divergence entre linguistes, mais tous les

verbes ne rentrent pas dans ces deux catégories et les choses se compliquent lorsqu’il s’agit

d’en définir de nouvelles. Dans un premier temps, R. Ghiglione et son équipe ont discerné une

catégorie de verbes « déclaratifs », « verbes qui indiquent un comportement verbal »,

« définis lexicalement comme renvoyant à la transcription langagière ». Puis, en raison de

l’évolution vers une « conception du sujet communiquant » et pour intégrer la « mise en scène

langagière de la référence » (1998 : 44), ils s’orienteront vers une nouvelle classification et

l’appellation pour cette troisième catégorie de « verbes réflexifs » qui englobe les

« déclaratifs » :

« Les réflexifs auraient pour fonction essentielle de marquer le type de rapport que le sujet entretient avec le monde, les objets dont il parle, c'est-à-dire de marquer une certaine attitude, une certaine distance du locuteur par rapport aux objets prédiqués. Ils permettent d’exprimer une disposition favorable ou non, de véhiculer un jugement évaluatif de nature axiologique (…) ou modalisatrice » (Idem : 45).

Cette dernière catégorie est particulièrement importante pour identifier, dans le discours des

acteurs, leurs constructions conceptuelles évaluatrices, c'est-à-dire leur critère implicite. Mais

la définition de cette classe est loin d’être satisfaisante. Tout d’abord cette définition n’est pas

suffisamment précise pour différencier les catégories entre elles et, de ce fait, elle ne permet

pas non plus d’englober tous les types de verbes restants, même avec l’inclusion des verbes

déclaratifs. Les verbes « sembler », « aimer », etc. sont-ils des verbes statifs ou réflexifs ?

Mais surtout il n’apparaît pas pertinent d’élaborer, en raison de leur fonction prédicative, une

classification de verbes sur des critères sémantiques (idem : 44) : l’expérience taxinomique de

J. Austin (1962/1970), qui a cherché à classer les verbes performatifs, a montré toute la

complexité et les limites d’une telle entreprise. Certes il existe des caractères sémantiques (sur

le plan du contenu) qui interviennent dans la classification, en raison du caractère générique

de l’effet de sens produit : par exemple, verbes d’« évènement » pour les factifs, verbes

d’« état » pour les statifs. Mais ces discriminations sur le plan du contenu sont induites par les

formes grammaticales qui produisent ces effets de sens ; par conséquent ce sont elles qu’il

convient d’identifier de façon objective. Les contradictions auxquelles ont été confrontées

cette (ou ces) équipe(s) nous ont conduit ici à privilégier l’hypothèse de catégories et de

constructions grammaticales plus complexes qu’une classe unique.

Page 499: UN REFERENTIEL, POUR QUOI FAIRE

499

Reprenons donc l’analyse des verbes statifs, « être » et « avoir ». E.

Benveniste (1966 : 194) a analysé leurs caractères communs. Ils ont tous deux : 1° le statut

formel d’auxiliaire temporel ; 2° ils ne sont pas susceptible d’une forme passive ; 3° ils sont

en répartition complémentaire vis-à-vis des autres verbes. Par ailleurs E. Benveniste montre la

fonction différentielle remplie par ces verbes d’ « état » par rapport à la phrase nominale :

« Une assertion nominale, complète en soi, pose l’énoncé hors de toute localisation temporelle ou modale et hors de la subjectivité du locuteur. Une assertion verbale (…) introduit dans l’énoncé toutes les déterminations verbales et le situe par rapport au locuteur. (…) La phrase nominale et la phrase à (« être ») n’assertent pas de la même manière et n’appartiennent pas au même registre. La première est du discours, la seconde de la narration. L’une pose un absolu ; l’autre décrit une situation. (…) La phrase nominale a valeur d’argument, de preuve, de référence. On l’introduit dans le discours pour agir et convaincre, non pour informer » (1966 : 160 et 165).

C’est pourquoi ces verbes ont la fonction de verbes d’ « état ». Contrairement à la phrase

nominale qui ne fait qu’asserter la relation sémique entre le lexème et l’attribut, le verbe

d’état introduit les possibilités de qualification sur cette relation. Ce n’est pas la même chose

de dire « l’arbre feuillu » et « l’arbre a des feuilles », car, dans le second énoncé, il est

possible d’introduire la négation, la temporalité, les adverbes. E. Benveniste analyse par

ailleurs l’évolution qu’il y a eu, dans les langues indo-européennes, pour que le « être à »

deviennent un « avoir » (idem : 196, 197) et il met à cette occasion en valeur la

correspondance, dans le gothique, avec l’apparition d’une classe de verbes d’état : avoir « fait

partie d’une classe qui contient uniquement des verbes d’état subjectif, d’attitude, de

disposition, mais non d’action » (Idem : 197), tel savoir, pouvoir, devoir, croire, craindre, etc.

Les verbes modaux sont ainsi des verbes statifs : ils expriment un état subjectif que l’on peut

traduire par les termes d’ « attitudes » ou de « dispositions ». C’est à ce titre qu’ils nous

intéressent, puisque leurs relations sémiques avec les autres lexèmes fournissent des indices

sur l’action évaluatrice, soit de l’énonciateur (1ère personne), soit des figures à laquelle il

s’adresse (2ème personne) ou dont il parle (3ème personne). Par exemple, si des stagiaires

s’expriment plus en termes de « devoir être » que de « savoir faire », cela nous communique

des informations sur la façon dont ils élaborent leurs critères (expérience N°1, ch. 12). Il

apparaît donc, pour nous, essentiel de définir cette catégorie. Et, dans la mesure où il s’agit de

prédicats verbaux, les indices caractéristiques, à l’origine de ces effets de modalisation, sont à

rechercher dans les constructions syntaxiques qui les produisent. Le premier est mis en valeur

par A.J. Greimas et J. Courtès (1979 : 230), le verbe modal a une relation de hiérarchie

syntaxique directe avec un prédicat verbal, factif ou statif : « devoir faire » ou « devoir être ».

Page 500: UN REFERENTIEL, POUR QUOI FAIRE

500

Dans ce dernier cas, la modalisation transfère son effet sur le prédicat attribut introduit par la

copule : « il doit être fort ». En raison du sens possessionnel d’« avoir », ces verbes peuvent

être utilisés dans des énoncés élémentaires : « je veux la balle », « je dois cette somme », etc.

La forme modalisante reste cependant la plus utilisée dans le langage courant de notre époque.

Le verbe prédicat s’emploie alors avec l’infinitif, et non avec le participe. Une seconde

caractéristique est déterminante, ces verbes sont susceptibles de forme passive, du moins

lorsqu’ils modalisent un faire (dans la mesure où être et avoir n’adopte pas de forme passive).

C’est aussi le cas dans la forme non-modalisante : « je dois cette somme => cette somme est

due »). Des verbes comme « aimer » ou « sembler » sont donc aussi des verbes modaux. Ces

verbes sont fondamentaux dans l’expression de nos jugements sur les choses et les êtres.

Reste maintenant à identifier la place des déclaratifs. Il semble que cette classe puisse

être définie de façon tout aussi rigoureuse, du point de vue syntaxique. Tout d’abord, à la

différence des modaux, les verbes déclaratifs sont des factifs. Ils expriment des actions, leur

seule particularité par rapport aux autres factifs est de faire référence à la situation

d’énonciation. En tant que tel, ils introduisent donc les acteurs dans le discours sous forme

d’actants et d’actés. En relation avec la deixis (pronoms personnels « je » et « tu »), cela leur

permet d’inscrire le discours directement en référence avec la situation hic et nunc de

l’énonciation. Par conséquent tous les verbes déclaratifs, exprimés à la 1ère personne du

présent de l’indicatif, ont une portée performative (J. Austin ; 1962/1970), si les conditions de

l’énonciation, décrites par J.R. Searle, sont réunies : « dire, déclarer, promettre, prétendre,

conseiller, etc. ». Ce n’est donc pas par leur forme grammaticale que nous pouvons les

identifier, comme les verbes modaux, mais dans leur fonction référentielle performative, en

relation avec la deixis qui inscrit le discours dans la situation de l’énonciation. Il n’en

demeure pas moins que, au niveau du plan du contenu, cette fonction puisse être identifiée

sans ambiguïté.

Nous avons donc identifiée quatre catégories de verbes, les statifs, factifs, modaux et

déclaratifs. Il n’est pas dit que cette classification soit exhaustive et suffisante, seule

l’expérience permettra de préciser s’il convient de la compléter par de nouvelles classes. Mais

elle est déjà plus précise que celles qui ont été proposées par les équipes de R. Ghiglione. Par

ailleurs les classifications sont souvent établies en fonction de leur utilité praxique. Et celle-ci

est adaptée à nos besoins pour l’analyse des contenus, dans la mesure où la fonction de ces

verbes est identifiée : les verbes statifs confèrent le caractère de propriété à la relation entre

les substantifs et les attributs, les verbes factifs s’inscrivent dans une construction actancielle.

Page 501: UN REFERENTIEL, POUR QUOI FAIRE

501

Ces catégories offrent donc de la matière aux notions de parcours, en rapport avec les

phénomènes inter-propositionnels de cohérence, de cohésion et de connexité : parcours

thématique (qualité des états et des évènements sur un sujet / thème), parcours narratif

(succession d’évènements entre des actants, par rapport à des actions). Les deux premières

catégories de verbes sont très générales, ainsi que nous pouvons nous en rendre compte à

travers les différentes études qui ont été conduites sur le sujet. Les deux suivantes sont

beaucoup plus adaptées à notre problématique : les verbes modaux, dans la mesure où ils

traduisent des attitudes, manifestent les dispositions intérieures vis-à-vis des objets du

discours. Ce sont donc des éléments centraux pour identifier les critères implicites. Ils sont

d’ailleurs exprimés sous cette forme dans le discours des acteurs, y compris par les chercheurs

en sciences de l’éducation : « savoir faire », « devoir être », etc. Quand aux verbes déclaratifs,

l’approche performative que l’on vient d’en faire ouvre un champ d’étude conséquent sur la

façon dont le discours s’insère dans la situation, à la fois celle de l’énonciation, à la fois celle

décrite par l’énonciation. Ils apparaissent pertinents pour analyser l’acte de langage (au sens

de J. Austin), avec tous les présupposés liés à la situation d’énonciation et tous les sous-

entendus, induits par la succession des énoncés.

L’analyse de prédicats verbaux se décompose ainsi en trois temps : identifier les types

de prédication qui sont en jeu, les inscrire dans les parcours qui sont adaptés, identifier les

arguments produits par la succession des énoncés. Une analyse de ce type a été produite, de

façon formelle, lors de la première expérience pour discerner les critères implicites, à l’origine

des choix (ch. 12). Approfondissons maintenant l’action des verbes modalisateurs.

1-5) Les modalisations :

La notion de « modalisation » n’a pas le même sens en linguistique et en

microsociologie. Pour les sociologues, elle représente la transcription d’un ensemble de

conventions fixées pour une activité donnée vers une autre activité en introduisant quelques

modifications (E. Goffman ; 1974/1991). Le cadre de référence de la première activité fournit

une structure et une signification pour la seconde : le combat et le jeu, par exemple, mais

aussi l’apprentissage et la situation réelle « d’exercice », ou encore la situation « pratique »

d’évaluation élaborée en fonction des modalités d’action habituelles d’un milieu

professionnel.

Page 502: UN REFERENTIEL, POUR QUOI FAIRE

502

En linguistique, la modalisation est l’expression d’une structure syntaxique entre un

modalisateur et un prédicat. Le modalisateur peut être un adverbe, un verbe (savoir, devoir,

pouvoir, vouloir, etc.) ou, plus rarement, une locution adverbiale. On y retrouve cependant

l’idée de modulation d’une forme déjà établie, en l’occurrence l’association sémique

prédicative dont il a été question dans le paragraphe précédent (le sens de « rapidement » est

différent de « normalement » ou de « lentement » et il influe sur notre aperception de l’action

décrite par le prédicat). La modalisation apparaît ainsi comme un sémème, c'est-à-dire un

effet de sens produit par l’association de deux unités au niveau syntaxique, le prédicat verbal

qui est déterminé et le modalisateur qui est le déterminant. La modalisation module le

prédicat, mais de surcroît elle introduit une part d’évaluation / d’appréciation dans le discours.

En particulier les verbes modaux, qui traduisent un état de l’énonciateur ou de la figure dont il

est question, introduisent une part de subjectivité conséquente. On pourrait donc les intégrer

dans cette catégorie de lexèmes que C. Kerbrat-Orecchioni appelle les « subjectivèmes »

(1999/2002 : 79-82), qui sont les marques de la subjectivité dans le discours des acteurs. Est-il

possible d’identifier les indicateurs qui sont à l’origine de ces effets de modalisation.

1° Le verbe modal, comme l’adverbe, sont, dans notre langue, directement accolés au verbe,

factif ou statif, qu’ils modalisent. En général le verbe modal précède, l’adverbe suit le verbe,

mais il peut être aussi détaché pour être positionné en ancrage thématique au sein de la phrase.

2° L’ensemble des positions syntaxiques adoptées, dans notre langue, par ces modalisateurs,

n’est pas neutre sur les effets de sens produits. Quand l’adverbe est en position d’ancrage

thématique, l’effet de sens est focalisé sur la modalisation (« Ils arrivent rapidement à… » ;

« Rapidement, ils arrivent à…. »). On remarque, par ailleurs, que la position antérieure ou

postérieure au verbe déterminé différencie aussi l’effet de sens produit par le verbe modal ou

par l’adverbe : on peut faire l’hypothèse qu’il s’agit de phénomènes similaires de caractère

thématique. Dans le cas de l’adverbe, c’est le verbe qui se conjugue, l’adverbe introduit des

nuances sur l’action ou sur l’état qui sont exprimés ; dans le cas du verbe modal, c’est

l’inverse, le verbe modalisé est à l’infinitif et c’est le verbe modal qui se conjugue et assume

l’ensemble des modalités verbales, le temps, la personne et le mode. De fait la focale se

déplace. Dans le cas de l’adverbe, celui-ci ne vient que moduler l’action ou l’état qui est

l’objet de l’énoncé. Dans le cas du verbe modal, on introduit un état (de l’énonciateur ou de la

figure) par rapport à l’action ou à l’état dont il est question, et la modalisation acquiert, de ce

fait, une position différente dans l’énonciation. Si l’effet de modalisation, dans le cas de

l’adverbe, est induit par la relation sémique immédiate (par exemple, « ils arrivent

rapidement… » = « l’arrivée est rapide »), ce n’est pas le cas des verbes modaux.

Page 503: UN REFERENTIEL, POUR QUOI FAIRE

503

Il n’est pas possible d’interpréter l’effet de sens produit par une modalisation verbale sans un

référence à la situation d’énonciation : je « peux le faire », « je veux le faire », « « je vais le

faire », « je le ferai ». La modulation introduite dans la certitude de la promesse ou de

l’engagement ne peut s’interpréter qu’à partir du moment où « aller le faire » est perçu

comme un « faire » en chemin. Dans ce cas « vouloir faire » induit la « volonté », mais une

volonté qui n’est pas encore en chemin et qui sous-entend, de ce fait, soit des obstacles, soit

des circonstances attendues. Il y a un « mais ». Cet effet de sens est encore plus sensible dans

le cas de la modalisation du « pouvoir », car si « je peux le faire » et que je ne suis pas encore

en train de le faire, c’est bien qu’il existe implicitement des conditions que j’émets avant de le

faire. C’est pourquoi l’effet de sens de « pouvoir faire » se rapproche du mode conditionnel

(« je peux le faire » ; « je le ferais bien… »). 3° Ces effets de sens modalisateurs des verbes

nous engagent donc dans une analyse des implicites de la situation d’énonciation. Bien

entendu, en tant qu’observateur, nous n’interpréterons pas de la même façon ces effets de

sens, si les verbes modaux sont conjugués à la première personne (JE) ou à la troisième

personne (IL). Dans le premier cas, ils expriment les intentions de l’énonciateur, soit par

rapport à la situation d’énonciation, soit par rapport à une situation décrite si les débrayages

spatio-temporels nous ont transportés dans une situation représentée (ou dans une situation

imaginaire). Dans le second cas, l’énonciateur s’exprime sur le IL, mais il n’a ni la

compétence pour s’exprimer à la place de ce IL (compétence au sens juridique), ni la capacité

de connaître le fond de ses intentions. Par conséquent il ne nous communique qu’une

représentation de l’autre, de la façon dont il le perçoit, de la façon dont il conçoit la situation

en fonction des intentions qu’il lui prête. Les débrayages actanciels (et dans une moindre

mesure spatio-temporels) s’articulent donc avec les modalisations verbales pour nous

communiquer, à la fois les représentations des autres figures et des situations, à la fois les

mobiles de l’énonciateur qui le conduisent à porter le jugement. (cf. entretiens d’examinateurs

par rapport à des situations d’évaluation).

Reste quelques phénomènes à préciser pour analyser cet indicateur assez complexe des

modalisations verbales. On a comparé ci-dessus les modalisations avec les verbes modaux à

une modalisation avec le verbe « aller » : en chemin. Mais ce dernier a un statut différent et ne

produit pas les mêmes effets de sens, dans la mesure où c’est un verbe factif. La modalisation

par ces verbes induit un autre effet, puisqu’il n’exprime pas l’état d’un sujet, mais

l’engagement de celui-ci dans une situation. Le même phénomène est mis en valeur avec

d’autres factifs, en particulier les déclaratifs : « je promets de faire », « je déclare faire », etc.

Page 504: UN REFERENTIEL, POUR QUOI FAIRE

504

Les modalisations par des factifs induisent un effet de sens en référence avec la situation, soit

celle de l’énonciation, soit celle dans laquelle nous sommes projetés suite aux différents

débrayages. L’effet de sens apparaîtra donc plus objectif, en référence aux contraintes de la

réalité, alors que les modalisations par les modaux induisent une aperception plus subjective,

liée à l’état du sujet. Il est donc possible, sur la base de ce principe, de reconstruire un

indicateur pour analyser les effets de sens et les praxèmes des modalisations factives dans les

situations de communication.

On conclura ce paragraphe par une note sur les modes temporels (indicatif,

conditionnel, subjonctif, impératif), qui expriment aussi des modalisations, inscrites dans les

modalités du radical (désinences verbales). Ces modes sont souvent présentés, en linguistique,

comme des façons de « concevoir et de présenter le processus exprimé par le verbe » (G.

Mounin). Ces formes verbales correspondent aussi à des conditions d’utilisation déterminées :

la forme impérative pour l’injonction, la forme conditionnelle pour soumettre l’énoncé à des

conditions de réalisation. En ce sens, ce sont aussi des indicateurs qui correspondent à certains

praxèmes et induisent des rapports de référence avec la situation. Mais le plus important, dans

l’exposé ci-dessus, était de mettre en valeur que les modalisations n’adoptent pas seulement

ces formes grammaticales normalisées, mais de nombreuses formes qui dépendent des usages

qui se sont progressivement institués au cours de notre histoire sociale. Les usages étant fait

pour être mis en pratique, il arrive régulièrement que des praxis se rencontrent et additionnent

leurs effets pour produire de nouveaux effets. Ainsi deux types de modalisations peuvent

renforcer l’effet modalisateur, on parlera alors de « sur-modalisation », double voire triple

(« je pourrais éventuellement le faire »). Plus on introduit de modalisations, plus on introduit

de praxèmes, mais aussi, de ce fait, de références implicites à la situation d’énonciation et, par

conséquent, de sous-entendus dans le discours. D’un point de vue structurel, certaines sur-

modalisations ne sont pas admises par la langue. Par exemple, si les verbes modaux

s’articulent très bien avec le conditionnel, ils ne le font pas avec l’injonction impérative -

alors que les modalisations avec des déclaratifs se conjuguent à l’impératif. L’injonction vis-

à-vis de l’état intérieur d’un sujet est effectivement, d’un point de vue social (et probablement

éthique), un contre-sens. Comment obliger quelqu’un à avoir de la volonté, du pouvoir, du

savoir ? On perçoit ici un nouvel intérêt d’étudier les indicateurs, non seulement pour analyser

plus finement les effets de sens produits en référence avec les situations, mais aussi

l’articulation entre les praxèmes (et les praxis linguistiques qui en sont à la source) qui

produisent de la signification, en référence avec notre univers quotidien.

Page 505: UN REFERENTIEL, POUR QUOI FAIRE

505

2) Les structures propositionnelles et l’analyse des prédicats :

Si l’analyse des types d’unités propres a permis d’aborder l’articulation entre les

dimensions de la signification et les plans du discours et de poser la question de la

construction du sens, elle n’a guère permis d’approfondir celle entre les processus et les

systèmes, plus précisément les parcours qui se déroulent sur le plan de l’expression et les

systèmes conceptuels qui organisent le sens ainsi produit sur le plan du contenu. Pour aborder

ces questions, on ne peut effectivement en rester à l’analyse des unités, il nous faut entrer

dans l’analyse des structures propositionnelles et des prédicats.

2-1) Les catégories de la prédication :

a) La relation sujet / verbe et la phrase nominale :

La notion de prédicat, dans la tradition linguistique, a surtout été attribuée au verbe :

effectivement, sans le verbe, dans nos langues occidentales du moins, l’énoncé n’existerait

plus. Mais ce critère n’est guère satisfaisant, puisque le verbe seul n’a de sens que dans

certaines situations précises, au mode impératif. Le prédicat a alors une forte charge

référentielle en lien avec la situation d’énonciation, il s’inscrit dans un acte perlocutoire.

Mais, en règle générale, les indicateurs syntagmatiques ont au moins deux éléments, le sujet

et le prédicat, et la phrase se structure autour d’eux (A. Martinet ; 1985 : 87). Les autres unités

signifiantes s’agencent autour de ces deux éléments dans une relation de dépendance ou

encore de subordination à laquelle on attribue le nom de « détermination » :

« Le seul rapport qui se révèle décisif dans l’établissement des classes est celui qui, par opposition à la coordination, est désigné comme la subordination. Comme toutefois ce terme évoque un cas particulier des rapports entre propositions, on préfère en général parler de détermination. On dit qu’un monème en détermine un autre lorsque son apparition ou sa présence est sous la dépendance de ce dernier. Pas de déterminant sans déterminé : le déterminant est omissible et marginal ; le déterminé ne l’est pas. L’élément non omissible est plus central que l’élément omissible, ce qui explique que, lorsque le déterminé s’impose en priorité à l’attention, on le désigne comme le noyau. Dans une optique dynamique, les déterminations diverses du noyau se présentent comme des expansions » (A. Martinet ; 1985 : 112).

La grammaire d’une langue s’organise ainsi autour d’un noyau central, le prédicat, avec des

expansions qui le déterminent. Ce phénomène est, en général, qualifié de hiérarchie

syntaxique. Mais une question émerge ici : y a-t-il un ou deux noyaux prédicatifs ?

Page 506: UN REFERENTIEL, POUR QUOI FAIRE

506

La proposition sujet / prédicat ne reconnaît que le prédicat (verbe ou attribut) comme

le noyau central : le sujet est alors conçu comme le déterminant du prédicat verbal.

Mais, si on renverse la proposition et si on opte pour une structure thème / rhème (au sens

« thème ancrage »), c’est implicitement le thème qui devient le noyau central. C’est toujours

de la même relation dont il est question, sur le plan du contenu, bien que l’inversion ait son

importance dans la construction de la signification : thème / rhème insiste plus sur le premier

terme comme élément structurant, sujet / prédicat sur le second. On a vu, par ailleurs, qu’il

peut y avoir deux formes de prédicat isolé, avec des effets de sens et des contextes bien

différents : une forte connotation affective dans le cas du prédicat nominal, un acte

perlocutoire impératif dans le cas du prédicat verbal. Par ailleurs la plupart des langues ont

des phrases nominales, sans verbe :

« La phrase nominale se rencontre non seulement en indo-européen, en sémitique, en finno-ougrien, en bantou, mais encore dans les langues les plus diverses. Elle est même si générale que, pour en mesurer statistiquement ou géographiquement l’extension, on aurait plus vite fait de dénombrer les langues flexionnelles qui ne la connaissent pas (…) les structures linguistiques les plus variés admettent ou exigent que, dans certains conditions, un prédicat verbal ne soit pas exprimé ou qu’un prédicat nominal suffise » (E. Benveniste ; 1966 : 151, 152).

Ainsi la phrase nominale se construit autour du substantif, dans un rapport immédiat entre

substantif et attribut. Mais « la phrase nominale n’est (jamais) employée à décrire un fait dans

sa particularité », comme dans notre logique occidentale, elle « pose un rapport intemporel et

permanent qui agit comme un argument d’autorité » (Idem : 162, 163). De ce fait, elle a

« valeur d’argument, de preuve, de référence » (Idem : 165). Elle s’impose comme un absolu,

directement en prise avec l’univers de référence. Ce caractère absolu de la phrase nominale se

retrouve dans les arguments uniques de l’expérience N° 1 (ch. 12) : dans l’échange oral

ordinaire, la phrase nominale fonctionne aussi, avec les mêmes effets, dans notre langue. On

retrouve ainsi, dans la phrase nominale, le même caractère impératif que dans la prédication

verbale unique. Il ne semble donc pas judicieux, pour analyser le contenu, de privilégier l’une

ou l’autre de ces formes de prédication, par l’institutionnalisation d’une forme de

détermination prédéterminée. Il existe au moins deux types de détermination induite par les

relations, sur le plan de l’expression, entre le sujet grammatical et le verbe, et c’est cette

dualité qui favorise une distanciation par rapport à la situation d’énonciation, premier pas vers

l’abstraction.

Page 507: UN REFERENTIEL, POUR QUOI FAIRE

507

b) Les six grands types de prédication :

Il est maintenait important de préciser les formes de ces déterminations, pour en

apercevoir toutes les dimensions. Ce n’est pas le lexique qui définit si un signifiant est un

substantif, une fonction ou un attribut (un nom, un verbe ou un adjectif150), mais un jeu de

positionnement sur la chaîne syntagmatique (page 398) et de désinences verbales. Un verbe a,

le plus souvent, une forme substantive apparentée (communiqu/er - communic/ation ;

amorc/er - amorç/age, etc.) et une forme attributive (adjectif, passé composé, complément du

nom). C’est aussi le cas pour les verbes modaux (vouloir – volonté) ou les néologismes

(surfer, tchatcher). Par conséquent, ces formes du contenu (substantif, fonction et attribut)

résultent de choix grammaticaux effectués par l’énonciateur, qu’il apparaît alors pertinent

d’analyser. A partir de ces trois formes de prédicat, on peut différencier trois types de

structures sémiques autour desquelles s’organise le plan du contenu. On les appelle des

« déterminations », en raison de la hiérarchie syntaxique qui s’établit, sur le plan de

l’expression, entre le prédicat et le déterminant, qui constituent les deux pôles de

l’association. La première, on la nommera « substantielle », puisqu’elle est à l’origine de la

formation du substantif. Elle articule, sur le plan de l’expression, un signifiant donné avec des

verbes factifs et / ou des attributs. La récurrence de ces cooccurrences détermine, à l’usage,

celles qui sont les plus significatives du lexème, attaché à ce signifiant. C’est cette opération

que nous qualifions, en général, de « substantivisation » dans la mesure où elle inscrit dans la

permanence les caractéristiques essentielles et factuelles du lexème, qui permettront de

repérer son existence en référence au monde sensible / perceptif. Avec le développement de

notre vocabulaire et l’institutionnalisation progressive de nouveaux concepts, cette logique de

substantivisation fonctionne aussi avec des lexèmes beaucoup plus abstraits (liberté, égalité,

compétence, critère, etc.), c'est-à-dire avec des signifiants qui n’ont plus leur référence dans le

monde aperceptible. C’est certainement ce phénomène qui a conduit les philosophes à la

recherche de ces substances idéelles (concepts purs, noumènes, eidos, etc.). Il n’est pas

question, ici, d’entrer dans ce débat, mais d’apporter un simple rappel : pour notre propos, les

objets ainsi définis correspondent aux processus de prédication.

150 Notons que cette seconde formule, qui emploie les anciennes dénominations plus répandues dans l’usage courant, est moins précise que celle qu’on propose, qui est fondée sur une analyse plus prédicative que grammaticale. Le complément de nom, par exemple, est construit avec un substantif (le nom complété, déterminé) et son complément – attribut, le déterminant. . Ce dernier est un attribut, même s’il s’agit d’un groupe nominal. Il en est de même quand l’attribut du sujet est un nom : « ce livre est un pastiche », par exemple. Il est important ici de différencier l’analyse grammaticale (sur le plan de l’expression) de l’analyse prédicative (sur le plan du contenu).

Page 508: UN REFERENTIEL, POUR QUOI FAIRE

508

Par conséquent le sens de « substance » (ainsi que plus loin celui d’ « essence », de « genre »,

voire plus généralement celui de « concept ») n’ont pas, de ce fait, la même acception que

celle des philosophes, qui est plus générique et globale : celle employée ici est centrée sur les

phénomènes observés. La deuxième détermination est celle qui se structure autour des deux

types de verbes, factifs et statifs. On l’appellera « fonctionnelle », en raison des sèmes de

fonctionnalité qu’induisent l’articulation entre les verbes factifs (faire) et les statifs (états). On

reviendra sur les processus argumentatifs qui installent cette fonctionnalité. Pour l’instant,

l’essentiel est de percevoir les effets de sens induits par la relation entre ces deux types de

prédicats. Autour d’un même thème, cette association génère un rapport logique entre les états

et les faire du référent (cf. l’exemple de « Suzanne », pages 393 et 394). Par exemple : le

« faire » conduit à l’ « état », ou encore l’ « état » de X induit la possibilité de « faire » Y avec

X. Les formes de cette fonctionnalité sont très diversifiées : les verbes expriment la

temporalité, le mode, diverses modalisations, les possibilités fonctionnelles en sont d’autant

décuplées : ainsi « faire » passé induit « état » présent, ou encore « faire » conditionnel de X

induit « état » indicatif de Y. La troisième détermination est celle qui s’articule autour de

l’attribut. Les travaux d’E. Benveniste ont cependant mis l’accent sur le fait que cette forme

de prédication qui, en sus des déterminations substantielles, introduit les statifs (être, avoir)

entre le substantif et l’attribut n’est pas une condition intrinsèque aux structures langagières,

mais le produit de l’évolution historique de nos langues occidentales. La prédication

attributive, à partir de l’institutionnalisation du verbe « être », puis du verbe « avoir », comme

copule et auxiliaires verbaux, élargit le champ des associations sémiques pour exprimer nos

positions sur l’univers. Les verbes, contrairement aux attributs directs (adjectif épithète,

complément de nom), introduisent les temps, les modes, les modalisations. En sus de la

notion d’état (copule « être »), l’évolution du « être à » en « avoir » a généré celle de

« propriété », et l’essor des verbes modaux la propriété d’états intérieurs, sur lesquels la

réflexion a pu alors se construire. Il devient possible de s’interroger sur la volonté, le savoir,

le pouvoir, etc. Les formes du positionnement réflexif s’individualisent. Ces dernières formes

de détermination seront qualifiées de « qualitatives ». Chaque forme de détermination génère

donc des grands types de sèmes, mais, selon la modalité thématique du déterminant, nous

aurons aussi des effets de sens différents avec le même prédicat : par exemple, « verbe factif

avec substantif » (énonciation d’un fait) est différent de « verbe statif avec attribut »

(énonciation d’un état). Il existe donc au moins six grands types de sèmes. Les qualifications,

qu’on propose ici pour nommer ces effets de sens, n’ont pas de prétention de se substituer à

une réflexion plus complexe sur ces phénomènes.

Page 509: UN REFERENTIEL, POUR QUOI FAIRE

509

- Pour la détermination substantialiste, on a choisi les termes d’associations sémiques :

1° d’« essence », puisque les sèmes ont, dans ce cas, pour fonction de fixer la signification

lexicale du signifiant, ainsi que la substance figurative à laquelle il est fait référence. Les

formes grammaticales « nom / adjectif », ou « nom / attribut du sujet », sont le plus

souvent privilégiées, mais cette relation sémique s’exprime aussi entre deux substantifs

(complément du nom dans notre langue) qui constitue un des fondements de la formation

de synthèmes (par exemple, pomme de terre, moulin à café) ;

2° d’« action », car une figure n’est pas définie seulement par ces caractères, mais aussi en

tant qu’acteur (cf. le concept d’ « actant » d’A.J. Greimas).

- Si l’association sémique entre un substantif et un attribut est renversée, l’attribut devient

le prédicat. On préfèrera alors employer les qualificatifs : 1° d’« état » si on insiste sur une

propriété particulière du substantif (le verbe est alors un statif) ; 2° de « caractère » si l’on

envisage les attributs qui spécifient la signification des lexèmes.

- Si, enfin, la détermination est fonctionnelle (forme de prédication qui a beaucoup plus fait

l’objet d’étude), on parlera de « propriété » ou de « fait ».

Détermination Prédicat Déterminant Relation sémique

Substantielle Substantif Verbe (factif) Action

Substantif Attribut Essence

Fonctionnelle Verbe (factif) Substantif Fait

Verbe (statif) Attribut Propriété

Qualitative Attribut Substantif Caractère

Attribut Verbe (statif) Etat

Les notions d’« action », de « fait », d’« état » et de « propriété » sont ici conçues dans une acception très spécifique : elles définissent le sens propositionnel induit, sur le plan du contenu, par un indicateur syntagmatique qui assemble un substantif et un verbe factif, ou bien un verbe statif et un attribut. Elles ne correspondent pas à un acte historique ou un fait social, ni à l’état naturel ou à la propriété de la chose, qui sont de l’ordre de la représentation et du référent. De même les notions d’ « essence » et de « caractère » n’ont pas, ici, leur signification philosophique, elles correspondent à des relations sémiques qui induisent intuitivement des opérations de substantivisation et de classification des unités langagières. La détermination est donc une relation sémique qui s’instaure entre deux modalités

thématiques, sur la base d’une hiérarchie syntaxique qui privilégie un prédicat. On introduit

ainsi une extension de la notion de prédicat à toutes les formes modales que sont susceptibles

d’adopter les lexèmes.

Page 510: UN REFERENTIEL, POUR QUOI FAIRE

510

c) Prédication et macrostructures :

Le postulat que l’on défend ici, à la suite de nos analyses, est le suivant : contrairement

à la position de la syntaxe traditionnelle qui s’est centrée sur certaines formes canoniques de

l’expression, il n’existe aucun critère objectif pour certifier la prédominance de la forme

prédicative verbale. Les trois modalités des lexèmes peuvent assumer la forme prédicative.

Certes ce postulat est hypothétique et il se construit au fur et à mesure de la recherche

empirique. Il est tout de même fondé sur une analyse des effets de sens produits (sémème),

des conditions d’utilisation (praxème) et des principales structures du contenu qui fondent les

relations entre les concepts (sèmes). Ce postulat induit d’autres conséquences. Si la position

du prédicat (qui est un sème du plan du contenu) n’est pas déterminée par une position

grammaticale préétablie, cela signifie qu’il nous faut rechercher ailleurs les processus qui

instituent en prédicat une construction grammaticale donnée (sur le plan de l’expression). Si

on se réfère au modèle présenté au paragraphe 1-3-c, cette recherche s’oriente alors vers deux

axes, les sèmes et les praxèmes. C’est l’articulation d’un sémème (effet de sens) avec un sème

ou un praxème qui génère cette position de prédication. L’étude des praxèmes nous dirige

vers le domaine de la pragmatique ou de la praxématique. Les schèmes de l’énonciation qui

sont acquis au fur et à mesure de l’usage du langage induisent spontanément la prédication,

importance donnée à une des positions grammaticales : la deixis est un exemple, l’ancrage

thématique un autre. En ce qui concerne les sèmes, on dispose des recherches de la

sémiotique, de la sémiologie et de la psychologie cognitive. Les enchaînements

syntagmatiques sur le plan de l’expression génèrent des effets de sens en raison de la

succession des énoncés, qui valorisent de fait une position grammaticale dans l’indicateur

syntagmatique : l’anaphore est un exemple, la mise en valeur d’une information ancienne

(thème) qui introduit une nouvelle (rhème) un autre ; mais aussi dans une interaction question

- réponse, les éléments de la seconde qui ancrent l’énoncé en fonction de la première. La

notion de prédicat n’est donc pas grammaticale, mais sémique. À structure grammaticale

identique, l’effet de sens diffère selon la position prédicative qui est privilégiée. L’« action »

n’est pas le « fait » : l’action se rapporte à l’acteur (relation actancielle), elle n’existe pas

indépendamment de lui ; en revanche le fait est posé, « c’est un fait », peu importe qui l’a fait.

Il en est de même de la notion de « propriété », elle apporte une dimension de plus que

l’« état » ou l’« essence ». C’est à partir du moment où nous considérons qu’il existe des

propriétés, c'est-à-dire des états spécifiques attribués à un substantif, que nous pouvons

construire des genres : des classes entre ces substantifs en fonction de ces propriétés.

Page 511: UN REFERENTIEL, POUR QUOI FAIRE

511

Les taxinomies apparaissent ainsi comme la résultante de ces phénomènes de prédication

attributive, par l’institutionnalisation de certaines procédures (praxis d’affectation en fonction

de leur utilité) ou de divers systèmes de classification (taxinomies scientifiques,

classifications d’archives, nomenclatures professionnelles). Ces macrostructures constituent,

de ce fait, des cadres de référence pour la cohérence des microstructures : les liaisons entre

thème et rhème (dans la succession des énoncés ou les interactions questions / réponses) se

référent souvent à ces univers sémantiques institués pour établir la cohérence. On retrouve ici

la compétence encyclopédique mise en valeur par C. Kerbrat-Orecchioni. Mais la notion

d’univers sémantique, introduite par A.J. Greimas et reprise par M. Reinert, est trop floue et

générique. Les liaisons sémantiques s’instaurent-elles en référence à des taxinomies, à des

conceptions, à des scénarios, à des représentations sociales ? Il y a là tout un champ empirique

en perspective pour différencier les différents types de praxis (taxinomiques, procédurales,

etc.) et étudier leur interférence avec les schèmes de l’énonciation et les sèmes de la

prédication. Il existe donc deux niveaux pour analyser les phénomènes de cohérence qui

déterminent les processus de prédication. Ces niveaux s’imbriquent les uns dans les autres : la

notion de « dialectique » n’est-elle pas induite par cette articulation ? Au niveau de la

microstructure, les divers phénomènes du parcours thématique génèrent de la cohérence

(ancrage, modalités, thème et rhème…). Au niveau des macrostructures, les praxis s’instituent

sous forme de cadres dans lesquels s’intègrent ces microstructures propositionnelles, en

référence à des taxinomies, à des praxis, à des modes de fonctionnement, à des finalités, bref

ce que nous nommons en général le sens global. Les taxinomies ont ce rôle au niveau des

phénomènes de cohérence inter-propositionnelle, mais les schémas narratifs l’ont aussi vis-à-

vis des actants, au sens définis par A.J. Greimas (1966).

2-2) Arguments et ancrages :

a) La notion d’argument :

L’argumentation est un sujet complexe et ce n’est pas le lieu de l’approfondir. Mais il

semble incontournable, pour analyser la formation du critère et sa fonction dans le discours,

d’aborder quelque peu la question. Effectivement, pour le philosophe, le critère est constitué

de l’ensemble des signes qui justifient l’existence de / ou l’appréciation portée sur une chose.

Ne sont-ils pas, de ce fait, des arguments sur son état ou sur sa qualité ?

Page 512: UN REFERENTIEL, POUR QUOI FAIRE

512

On discerne deux acceptions de l’argument, l’une dérivée de la logique formelle,

l’autre, traditionnelle, qui remonte à l’antiquité. Les deux sont pertinentes pour notre propos :

1° il nous faut construire une analyse formelle des énoncés, pour dégager un contenu

qui ait de la signification ;

2° il s’agit d’identifier les effets de sens qui ont conduit à la définition classique.

L’argument des logiciens consiste à transposer la notion de fonction des mathématiques à

l’analyse de la détermination fonctionnelle, pour identifier les différentes variables qui

participent à celles-ci autour du verbe : « la fonction correspond au verbe (prédicat) ; ainsi le

verbe « donner » correspond à un prédicat à trois arguments : « x donne y à z » » (P.

Charaudeau ; D. Maingueneau ; 2002 : 64). D’après G. Mounin, « on appelle argument ce que

Tesnière appelle les actants d’une phrase » (1974/2000 : 40). Il ne semble donc pas utile de

reprendre dans ce sens le terme d’argument. En revanche l’analyse des arguments autour de

chaque prédicat devient intéressante à partir du moment où, ainsi qu’on l’a proposé

précédemment, la notion de prédicat est étendue aux trois types de modalités des lexèmes

(substantifs, verbes et attributs). L’argument signifie alors les processus de détermination.

C’est le principe de l’indicateur syntagmatique de N. Chomsky qui illustre, sous forme

d’arbre ou diagramme, la distribution de la phrase en constituants immédiats. On observe

alors que les arguments s’ordonnent selon une structure hiérarchique qui groupe les éléments

par niveau, en fonction de chaque dimension de la signification : phonèmes/syllabes ;

monème/synthème ; déterminant/prédicat. Ces notions ont déjà été développées lors de la

présentation des dimensions de la signification.

La seconde acception de l’argument nous apporte une nouvelle réflexion sur la

fonction de cette hiérarchie. Une définition simple de ce concept nous est fournie par A.

Lalande (1926/1972 : 78) : « raisonnement destiné à prouver ou à réfuter une proposition

donnée ». Sa structure linguistique est analysée par P. Charaudeau : « l’argumentation sur le

plan de vue discursif correspond au raisonnement sur le plan cognitif » :

« Sur le plan linguistique, ces opération cognitives correspondent respectivement à (1) l’ancrage référentiel du discours au moyen d’un terme, (2) la construction de l’énoncé par imposition d’un prédicat à ce terme, (3) l’enchaînement des propositions et argumentations, par lequel on produit des propositions nouvelles à partir de propositions déjà connues » (2002 :68).

L’argument s’installe donc dans un ancrage référentiel : celui-ci peut d’ailleurs être déictique

ou thématique. J.B. Grize préconise aussi d’identifier cette caractéristique, dans la mesure où

« toute logique standard repose sur la distinction entre objet et prédicat » (1990 : 68).

Page 513: UN REFERENTIEL, POUR QUOI FAIRE

513

A partir de la proposition première, posée comme un cadre de l’argumentaire, à partir d’un

thème tacitement accepté par les parties, les propositions suivantes se construisent pour

« accréditer une proposition controversée ayant statut de conclusion » (P. Charaudeau ; idem :

65). Bien entendu l’argument n’est acceptable comme tel que si la construction exprime un

schéma « vraisemblable ». Pour J.B. Grize, « est vraisemblable ce qui est semblable au

vrai » :

« Ceci me conduit à concevoir la vraisemblance comme une fonction tout à la fois d’un sujet (ici l’auditeur) et d’une situation (celle dans laquelle se déroule la schématisation) » (idem : 43).

Cette différenciation entre l’argument et l’adhésion de l’auditoire - qui fait référence à l’éthos

(crédibilité de l’énonciateur), au pathos (capacité à émouvoir son auditoire) et au logos

(logique du discours) d’Aristote -, est particulièrement pertinente pour notre propos. On

proposera de pousser un peu plus loin la logique de J.B. Grize. Le « vrai », dans la

philosophie classique jusqu’au XXème siècle, était considéré comme une valeur absolue,

catégorique - pour E. Kant, il est de l’ordre du transcendantal. De nos jours, surtout depuis

l’essor de la phénoménologie et du structuralisme, nous considérons le réel de façon beaucoup

plus relative, comme produit par nos schèmes cognitifs et par les conditions dans lesquelles

nous appréhendons les réalités (cf. ch. 3). Le « vrai » est donc plutôt à rechercher, dans notre

conception contemporaine, au sein des structures qui déterminent notre logique formelle : les

sèmes et les schèmes. Le « semblable », au contraire, serait plus de l’ordre de la référence : les

schémas de la réalité, structurés par nos schèmes sensori-moteurs (c'est-à-dire notre façon

d’appréhender le monde sensible) sont confrontés à ces structures logiques pour produire le

vrai-semblable. Celui-ci est donc le produit, d’une part de l’argumentaire, d’autre part de

l’adaptation des conceptions aux schématisations (ou représentations) de la réalité. La

construction argumentative n’est donc pas directement liée à la véridicité des propositions,

mais aux formes conceptuelles qui ont été intériorisées. « Pour qu’il y ait vraisemblance, deux

conditions doivent être satisfaites : l’une de cohésion et l’autre de cohérence » (J.B. Grize ;

idem : 37). La cohésion (à laquelle on adjoint ici la connexité des cognitivistes) est

intrinsèque à la construction du discours, alors que la cohérence est beaucoup plus induite par

les relations référentielles entre la (ou les) proposition(s) et la réalité exprimée. Pour éviter les

confusions entre les différents plans, on limitera le terme d’ « arguments » aux constructions

du plan du contenu. On rejoint ainsi P. Charaudeau, lorsqu’il cite G. Vignaux :

« Argumenter, cela revient à énoncer certaines propositions qu’on choisit de composer entre elles. Réciproquement, énoncer cela revient à argumenter du simple fait qu’on choisit de dire et d’avancer certains sens plutôt que d’autres » (Idem : 67).

Page 514: UN REFERENTIEL, POUR QUOI FAIRE

514

Par conséquent l’argumentation n’exprimera, dans ces travaux, que les constructions logiques

sur le plan du contenu, qui sollicitent des associations sémiques et des schèmes de

l’énonciation. Elles correspondent, bien entendu, à des processus du plan de l’expression

(dimensions de la signification). Mais nous avons vu aussi que les lois du discours (au sens

d’O. Ducrot) et les schèmes de l’énonciation (institués par les praxis langagières) peuvent

induire des effets de sens différents avec les mêmes constructions grammaticales : le cas de

l’ironie est particulièrement significatif.

Les « arguments » apparaissent alors, au même titre que les sémèmes, une

construction à plusieurs niveaux. Ceci paraît logique, dans la mesure où les deux plans

(expression et contenu) sont en correspondance. A un premier niveau, les arguments

déterminent les prédicats. La notion de prédicat ne se limite pas aux verbes, mais à toutes les

modalités thématiques qu’est susceptible d’adopter un lexème, à savoir substantif, verbe ou

attribut. Ces déterminants modulent les prédicats en question, par exemple les adverbes pour

le verbe, mais aussi les déterminants numériques pour les substantifs, ou encore la forme

déterminée, indéterminée, possessive, démonstrative de ces déterminants. Deuxième niveau :

les prédicats s’articulent ensuite entre eux. On appellera proposition le sème produit, sur le

plan du contenu, par un énoncé qui comprend deux prédicats. Une proposition peut

comprendre plusieurs lexèmes, mais ceux qui sont dans une relation de dépendance

hiérarchique auprès d’un prédicat, ne sont pas déterminants de la proposition (seulement du

prédicat) : par exemple, l’adjectif épithète pour le substantif, le complément d’objet pour le

verbe. Leurs associations sémiques génèrent du sens, mais elles ne sont pas prédicatives. La

conjonction de deux prédicats forme donc un nouveau type d’argument nommé proposition.

Nous sommes au niveau de la phrase. Le niveau supérieur articule entre elles les propositions,

à partir des relations logiques de cohésion et de cohérence. L’identification des unités

langagières investies du statut de prédicat permet d’analyser les processus qui génèrent de la

signification à ce niveau et d’en déduire les sèmes, voire certains schèmes qui sont privilégiés.

Nous avons vu que l’anaphore ou la logique entre thème et rhème pouvaient induire cette

cohérence. Mais ces articulations inter-propositionnelles ne se font pas qu’entre prédicats,

elles peuvent aussi inclure les déterminants de ces prédicats : par exemple, les pronoms

possessifs et démonstratifs génèrent des relations anaphoriques avec les propositions

précédentes. Ces analyses micro-structurelles deviennent intéressantes quand elles sont

récurrentes, car elles nous informent sur les constructions conceptuelles les plus significatives

de l’énonciateur. L’appareil argumentatif apparaît ainsi comme le produit des arguments qui

se combinent entre eux et qui se structurent de façon hiérarchique.

Page 515: UN REFERENTIEL, POUR QUOI FAIRE

515

b) Arguments, position et critère :

En limitant la notion d’argument à la logique formelle (au syllogisme d’Aristote), on

introduit une différence fondamentale entre la validité d’un argument et sa véridicité. Un

argument est valide à partir du moment où il correspond aux formes de la logique, c'est-à-dire

aux sèmes et aux schèmes de l’énonciation qui sont socialement reconnus pour être valables.

Mais cela ne veut pas dire que l’information est véridique. Si quelqu’un dit : « la neige est

rouge », sa proposition est valable mais pas forcément véridique - sauf à supposer le caractère

métaphorique de sa proposition après une bataille. Pour qu’elle soit véridique, il nous faut

supposer ce sens ou obtenir d’autres informations communiquées par l’énonciateur. Nous

retrouvons ici l’articulation entre les composantes linguistique et rhétorique, proposée par O.

Ducrot. La validité relève de la construction logique entre les propositions, la véridicité de la

vérification empirique des informations. Le « vrai » est le produit de ces deux phénomènes.

Par conséquent le « vrai-semblable » peut être induit, par le fait que les constructions logiques

soient valides (mais l’information reste à vérifier), ou par le fait que les informations

empiriques soient correctes (mais leur agencement logique reste à interroger). Tout chercheur

en sciences humaines et sociales connaît bien cette double problématique. Mais l’objet de

recherche, dans cette thèse, porte sur les critères des acteurs. Que les informations soient

véridiques, là n’est pas la question, du moins dans un premier temps : à partir du moment où

un énonciateur nous communique ses modes logiques de pensée (sa façon de construire

l’argumentaire) et ancre ses démonstrations dans la situation d’énonciation par un JEé, ce sont

ses propres critères et nous n’avons pas de raison de les mettre en doute. Qu’ils soient adaptés

ou non à la situation, il s’agit là d’une question différente que nous ne pouvons pas traiter à

partir de l’analyse du discours. Nous avons besoin, pour ce faire, de connaître la situation en

question et les procédures d’enquête font alors appel aux méthodes sociologiques (cf.

expérience N° 2, ch. 13). De même lorsqu’un énonciateur parle des autres acteurs (actants),

nous n’avons aucune preuve de la véridicité des informations qui nous sont fournies par lui.

En revanche, nous découvrons ses conceptions, c'est-à-dire la façon dont il construit son

argumentaire pour s’exprimer sur le sujet et sur les actants en question. Cette contrainte

objective induit deux perspectives pour notre problématique :

1° méthodologique : à partir des analyses de discours, nous ne pouvons travailler

objectivement que sur les conceptions et les positionnements de l’énonciateur, pas sur les faits

et les états : ceux-ci restent toujours à vérifier par des preuves empiriques.

Page 516: UN REFERENTIEL, POUR QUOI FAIRE

516

2° par rapport à l’objet de recherche : s’il n’est pas possible, dans le discours, d’identifier la

preuve empirique de la véridicité, cela signifie que, lors des épreuves d’évaluation fondées sur

des communications écrites et / ou des discussions autour d’un sujet (études de cas, mémoires,

dissertations), les capacités à faire du candidat ne sont pas évaluables. D’autres situations

d’évaluation seront mises en œuvre, le cas échéant, si ces capacités ont de l’importance (lors

d’un concours, d’un recrutement). Sur ce point, on rejoint J.M. Barbier, les « savoirs

d’action » ne sont pas observables par ce type de méthodes (cf. paragraphe suivant). Elles

n’offrent a priori que la possibilité d’apercevoir les compétences linguistiques des candidats à

construire des structures logiques acceptables (au sens de la condition de félicité), en rapport

avec la situation d’évaluation et le sujet discuté : c'est-à-dire des conceptions, des positions,

des argumentaires, des critères, voire la référence à certaines représentations en fonction des

éléments du terrain introduits dans le discours, mais aucunement les capacités à réagir de

façon adaptée sur le terrain, schèmes dont on ne peut vérifier l’adéquation qu’au cours des

actions. Cette contrainte renvoie donc à une question fondamentale : quelle est la fonction de

ce type d’épreuves écrites et orales, qui existent depuis des générations et qui se pérennisent ?

c) Les diverses formes d’ancrage :

En raison de cette démarcation entre le plan du contenu, où se construisent la logique

et la validité de l’argumentaire, et le plan du référent, où se vérifie empiriquement la véridicité

des propositions, toute étude sur la fonction respective de ces deux types de processus nous

conduit à rechercher l’articulation entre eux au niveau de chaque plan. En d’autres termes,

comment les processus logiques agissent, au niveau du contenu, pour que certaines figures de

nos représentations (plan du référent) soient identifiées sans (trop d’) ambiguïté(s),

lorsqu’elles sont évoquées par des signifiants sur le plan de l’expression. Ces processus, on a

déjà nommés « ancrages ». Ils peuvent être analysés au niveau de chaque plan, pour chaque

dimension de la signification.

Les deux niveaux, sémantiques et syntaxiques, ont déjà fait l’objet de nombreuses

études évoquées dans les paragraphes précédents, on y reviendra donc de façon synthétique en

insistant sur l’articulation entre les processus de référence et les sémèmes spécifiques de

chaque dimension de la signification. Au sujet de la dimension sémantique, les processus

logiques sont fort bien précisés par J.B. Grize :

« Toute logique standard repose sur la distinction entre objet et prédicat, il nous faut une opération productrice d’objet (α) et une opération productrice de prédicat (η) » (1990 : 68).

Page 517: UN REFERENTIEL, POUR QUOI FAIRE

517

Sur la production du prédicat, on a apporté suffisamment d’éléments dans les paragraphes

précédents. L’opération productrice d’objet, en revanche, mérite d’être un peu plus

approfondie :

« L’opération α produit un et un seul élément, ce qui résulte d’une décision qui repose sur deux faits. Le premier c’est qu’un objet correspond à une substance et que, comme le notait Aristote, « le caractère des substances, c’est qu’elles n’ont pas de contraires » (Catégories) (…) Le second, c’est que l’objet sélectionné sert de thème (…) le prédicat fonctionne comme rhème et ma tâche de locuteur est d’apporter une information nouvelle » (Idem : 68).

Le substantif posé comme objet en début de discours fonctionne comme un thème : on dit

souvent « l’objet du discours » ou « de l’énoncé ». Mais on peut aussi inverser cette loi : le

substantif posé comme thème fonctionne comme objet. Nous avons vu, avec l’exemple des

logiciens sur le roi de France, que s’il y a contestation sur l’objet, le thème ne sera pas

reconnu par les interlocuteurs, ni, de ce fait, poursuivi d’un parcours thématique. La

discussion est rompue. Une fois cette loi du discours identifiée, la question est de savoir sur

quoi repose cette réification de l’objet qui permet de le poser comme thème. Ce sujet est

développé par J.B. Grize avec sa notion de « faisceau d’objet » :

« J’appelle faisceau d’objet un ensemble d’aspects normalement attachés à l’objet. Ses éléments sont de trois espèces : des propriétés, des relations et des schèmes d’actions » (Idem : 78).

Dans la mesure où nous retrouvons ici les principales formes prédicatives que nous avons

évoquées, il ne semble pas utile de revenir sur ces phénomènes de substantivisation, de

fonctionnalité et de qualification, qui précisent progressivement, à l’usage, le sens des

lexèmes. Mais le logicien introduit ici une idée supplémentaire, qu’il développe dans les

pages suivantes. Un substantif est objet du discours parce qu’il est posé comme thème, mais

aussi parce qu’il s’insère dans une pratique de communication (un schème d’énonciation151) :

ce n’est pas par hasard que tel sujet est abordé à tel moment et de telle façon. L’objet prend

alors son sens en fonction de ce contexte dans lequel émerge le substantif. Par conséquent

l’ancrage thématique est toujours objet à analyse. On pourrait dire que l’ancrage thématique

joue comme une illusion, c'est-à-dire il institue de fait le substantif en objet : si deux (ou

plusieurs) interlocuteurs abordent une discussion hic et nunc sur cet objet (de facto sujet),

c’est en raison des conditions de la situation qui justifient la mise en place de cette

communication. Mais rien ne prouve a priori qu’ils aient la même conception de l’objet, ainsi

que l’illustrent les nombreuses occasions de malentendus ou les discussions acharnées pour

préciser les concepts.

151 J.B. Grize préfère le concept d’opération, mais, en raison de ses références à J. Piaget, on peut concevoir ces opérations comme des schèmes particuliers de l’énonciation, de type opératoire.

Page 518: UN REFERENTIEL, POUR QUOI FAIRE

518

Sur le deuxième processus de la référence, qui identifie les figures de la situation,

l’ancrage déictique a suffisamment fait l’objet d’étude pour ne pas être discuté plus

longuement ici. Il positionne le discours par rapport à la situation d’énonciation ; il constitue

de ce fait une référence commune aux deux interlocuteurs. A partir de ce repère objectif, les

phénomènes de débrayage nous projettent dans des espaces – temps imaginaires, expressions

représentatives de la réalité. La dernière forme d’ancrage mériterait une place plus importante,

en raison de notre objet de recherche, que celle qu’il est possible de lui réserver ici. Nous

avons abordé ci-dessus les formes d’ancrage (thématique et déictique), largement étayées

dans cette partie méthodologique. A partir de ces ancrages se constituent des propositions,

puis des microstructures inter-propositionnelles déterminées par des phénomènes de

thématisation ou de débrayage. En raison de la multiplicité des phénomènes, seuls certains

d’entre eux, suffisamment significatifs, sont perçus dans le discours. Il est permis de penser

que les phénomènes langagiers les plus saillants, pour ordonner cette cohérence entre

propositions, sont mis en exergue par l’analyse intuitive de la situation d’énonciation. Ce

mécanisme existe spontanément lors de nos interactions : quand un inconnu nous aborde dans

la rue, la première question spontanée n’est-elle pas : « qu’est-ce qu’il attend de moi ? »

L’analyse de la situation d’énonciation se produit alors en fonction des schémas-type de notre

vie quotidienne qui correspondent à la situation (information sur son chemin, sollicitation

d’une obole). Cette analyse s’avère souvent indispensable pour bien interpréter le sens de son

énoncé : par exemple, lors d’un repas, « pourriez vous me donner le sel ? » est plus une

demande qu’une question. Lors d’énoncés assez courts, n’excédant pas quelques propositions,

dans des situations-types de notre quotidien, de telles analyses suffisent à structurer nos

interprétations. Mais, dès que l’énonciation est plus conséquente, l’analyse de ces

microstructures devient plus complexe. Comment s’opère la segmentation ? Comment

s’ordonne la cohérence thématique ? Comment se hiérarchisent les arguments ? A.J. Greimas

a proposé le concept d’isotopie, qu’ « il a emprunté au domaine de la physique-chimie », pour

qualifier, et surtout identifier, dans le discours, ces microstructures inter-propositionnelles :

« Le concept d’isotopie a désigné d’abord l’itérativité, le long de la chaîne syntagmatique, de classèmes qui assurent au discours-énoncé son homogénéité. (…) Dans un second temps, le concept d’isotopie a été élargi : au lieu de désigner uniquement l’itérativité des classèmes, il se définit comme la récurrence des catégories sémiques, que celles-ci soient thématiques (ou abstraites) ou figuratives » (A.J. Greimas, J. Courtès ; 1979 : 197).

Page 519: UN REFERENTIEL, POUR QUOI FAIRE

519

Nous avons vu que cette cohérence itérative peut être grammaticale (par exemple, l’anaphore,

le temps des verbes). Elle peut être aussi sémantique : le classème, dans la pensée d’A.J

Greimas, correspond au sème contextuel, soit, dans notre conception, aux associations

sémiques entre lexèmes sollicitées en raison du cotexte (univers sémantique) ou du contexte.

Ces associations entre lexèmes reposent, soit sur une cohérence schématique entre les figures

exprimées à travers le discours, soit sur une cohérence thématique entre signifiants. Mais cette

notion reste assez théorique et n’est pas toujours très simple à identifier. Pour la préciser, on

évoquera le concept de « topos », vocable emprunté à la philosophie grecque, duquel est

abstrait étymologiquement l’ « iso-topie ». Le mot topos « correspond au latin locus

communis, d’où est issu le français lieu commun. » La topique s’entend alors comme une

pratique heuristique pour dégager différents topos autour d’une situation-type ou d’une

question :

« Une topique est un système empirique de collecte, de production, de traitement de l’information à finalités multiples (narrative, descriptive, argumentative), essentiellement pratiques, fonctionnant dans une communauté relativement homogène dans ses représentations et ses normes. Les topiques expriment une ontologie populaire oscillant entre le cognitif et le linguistique » (P. Charaudeau ; 2002 : 576).

Les topos apparaissent ici comme des schèmes d’énonciation générant, de fait, des types

d’énoncés qui répondent à des questions-types. Ils produisent ainsi un certain isomorphisme

thématique, tant dans la forme que l’objet, en rapport de référence avec des schémas-type de

notre quotidien. La notion de topique a donc subi une extension, de nos jours, pour qualifier

ces schémas que l’on retrouve dans le discours sous forme d’énoncés-standard, souvent

récurrents. L’attention portée sur ces derniers, en relation avec la situation d’énonciation,

oriente l’analyse vers les schémas-type qui en sont à l’origine. Intuitivement perçus dans une

culture donnée en référence aux phénomènes de mode qui les ont promus, ils entretiennent

donc, avec l’univers du discours, une relation référentielle. Ces formes inter-propositionnelles

élémentaires sont ensuite fédérées dans des ensembles plus conséquents, en fonction des

usages qui en ont été faits et des praxis qui les ont utilisées. C’est certainement à ce niveau

qu’interviennent les macrostructures de W. Kintsh, comme cadres de référence (au sens où

l’entend E. Goffman). Les connexions entre les arguments n’ont du sens qu’en référence à ces

systèmes de représentations schématiques (typiques au sens d’A. Shutz) que nous avons des

réalités sociales. Ainsi ces grands types se schématisations qui nous guident pour construire

nos argumentaires ne sont-ils que des constructions sociales qui se sont instituées petit à petit,

à partir d’arguments qui s’appuient (ou se fondent) sur des représentations sociales établies.

Page 520: UN REFERENTIEL, POUR QUOI FAIRE

520

Les parcours narratifs sont assez typiques de ces codifications culturelles. Induits dans un

premier temps par les contes et légendes, puis par les diverses formes culturelles de nos

sociétés modernes : romans, théâtre, cinéma, feuilletons télévisés. Mais, dans tous les milieux

sociaux, bien d’autres formes ont vu le jour, à l’instar des schémas canoniques pour construire

nos démonstrations scientifiques. Ces macrostructures favorisent la progression et le

repérage, au niveau thématique, isotopique et argumentatif. Ces schémas canoniques

s’immiscent dans le découpage inter-propositionnel, dans l’organisation des grandes étapes de

la démonstration, dans la façon de générer de la cohérence textuelle en rapport avec des praxis

identifiées. Les modes évoluent, les praxis aussi, mais les structures essentielles demeurent,

le plus souvent inconsciemment. Elles constituent des cadres de référence, expressions de

modes sociaux / modes sociales institué(e)s. C’est à ces macrostructures qu’on réservera le

nom de « référentiels » (avec un petit r), dans la mesure où elles organisent le discours en

fonction de praxis sociales instituées, avec lesquelles elles maintiennent une relation

référentielle.

d) Modaux et positionnement :

On précisera brièvement cette idée à partir de la fonction des verbes modaux

dans les discours éducatifs. Ces formes de l’expression édifient des outils (praxèmes) pour

parler sur les états intérieurs des sujets. La discussion sur ces états intérieurs a induit des

réflexions sur l’ego, le sujet-pensant. Leur utilisation dans les discours éducatifs accompagne

ces réflexions philosophiques. Il est possible, en fonction des principales récurrences

argumentatives, d’analyser la façon dont se structurent les différents discours éducatifs : par

exemple le devoir être et le devoir faire, comme piliers de certains argumentaires

pédagogiques. Ces structures-types se constituent donc en référentiels éducatifs. Mais

comment s’articulent-elles avec les constructions micro-structurelles ?

Cette notion d’état intérieur a été rendue possible avec l’évolution du verbe « avoir »,

qui est le produit d’une évolution historique à partir de la forme possessive « être à ».

« C’est sur le modèle de la construction possessive que le parfait a été conformé, et son sens est indubitablement possessif puisqu’il reproduit, avec une autre tournure, le sens littéral du type habeo factum » (E. Benveniste ; 1966 : 180).

Notre « passé composé » (ou « parfait »), temps des verbes avec l’auxiliaire « avoir » et le

participe, peut aussi être considéré comme une forme attributive. Il exprime une action qui a

été accomplie par le sujet, qui appartient en quelque sorte au sujet en tant qu’action réalisée.

Page 521: UN REFERENTIEL, POUR QUOI FAIRE

521

Il assume donc une double fonction : il peut être considéré à la fois comme une des propriétés

du sujet (action réalisée) et s’intégrer ainsi dans le parcours qualificatif, à la fois comme un

temps verbal et s’intégrer dans le parcours fonctionnel. Cette double fonction lui confère une

position charnière. Les unités linguistiques qui adoptent ces positions ont donc une

importance centrale dans la construction de nos raisonnements. Ces fonctions de charnière

résultent de plusieurs associations sémiques autour d’une même structure syntaxique. Les

verbes modaux ont, de fait, récupéré cette position de charnière, rendue possible par

l’évolution du verbe « avoir ». Ce sont des verbes statifs, dans la mesure où ils traduisent des

états intériorisés. Vouloir = avoir de la volonté ; pouvoir = avoir du pouvoir ; devoir = avoir le

sens du devoir ; croire = avoir une croyance. En tant que tels, ils sont susceptibles de se

construire autour d’une thématique. La volonté, le pouvoir, etc. Le cas le plus typique, en

sciences de l’éducation, est le thème du savoir. Mais ils peuvent aussi, en raison de leur

détermination directe avec les statifs (vouloir, pouvoir… être) et les factifs (vouloir,

pouvoir… faire), se compléter avec les autres déterminations de substantivisation, de

qualification ou de fonction. Il y a sur-détermination. Ils ont ainsi une fonction importante

dans la construction de l’argumentaire puisqu’ils justifient les raisons invoquées autour du

thème à partir de la construction des autres parcours. Le sème modalisateur du « savoir » peut

se combiner ainsi avec la volonté, le devoir, le pouvoir-faire. Par exemple, « savoir-faire, c’est

pouvoir–faire », « savoir-être, c’est un devoir », « savoir, c’est une question de volonté ». On

retrouve ici des structures prédicatives qui sont assez significatives du discours que les adultes

communiquent aux jeunes générations. Le thème du « savoir » s’inscrit ainsi, à partir de ces

arguments, dans des parcours de type thématique, narratif ou fonctionnel. Ils participent à la

modalisation de ces parcours en apportant une dimension subjective et évaluatrice (« il fait »

n’est pas la même chose que « il peut faire », « il sait faire » ou « il veut faire »). Perspectives,

finalités sociales, utilité pragmatique, compétences, sont ainsi des termes génériques, qui

expriment des conceptions complexes et globales, développées à partir de ces formes

élémentaires. On n’a cité, ci-dessus, que des formes indéterminées de ces structures sémiques.

Mais, dans la mesure où les modaux sont des verbes, l’énonciateur peut aussi les ancrer

directement, soit dans la situation à travers la deixis (je/tu), soit dans la situation décrite à

partir de processus thématiques et anaphoriques. Ils expriment les états intérieurs des figures

auxquelles il est fait référence. Les notions de volonté, pouvoir, devoir, savoir, sont alors

affectées directement à ces figures réelles ou signifiées.

Page 522: UN REFERENTIEL, POUR QUOI FAIRE

522

On peut alors distinguer deux niveaux d’analyse :

1° L’articulation entre les verbes modaux et les signifiants qui représentent les figures,

dans le langage, exprime alors la conception de l’énonciateur sur l’interaction entre

ces figures.

2° L’articulation entre le JEé et les processus thématiques et anaphoriques

communiquent la position de l’énonciateur sur la conception qu’il a exprimée, c'est-à-

dire la façon dont il réagit intérieurement en fonction de son analyse intuitive des

interactions.

Cette combinaison entre position et conception, entre l’ancrage modal de l’énonciateur et son

interprétation de la situation, représente dans le discours une expression du critère, en

référence à l’objet d’étude : situations d’évaluation. Par exemple, « JE pense qu’IL peut le

faire, mais IL ne le veut pas, alors JE…. » = ancrage JEé + jugement de « IL » + processus

« penser, pouvoir, vouloir… » + référence à la situation. Cette forme n’est certainement pas la

seule, mais,ù en raison de sa fréquence, elle fournit déjà un bon corpus. Les verbes modaux

organisent ainsi les rapports sémiques et les types d’arguments entre les énoncés, sur lesquels

sont fondés les jugements des acteurs : leurs critères implicites.

Au terme de l’analyse de ces systèmes langagiers, une question se pose : face à une

telle complexité et à une telle multitude de phénomènes, l’utilisation des logiciels a-t-elle un

intérêt pour préparer le terrain et faciliter l’interprétation ?

3) L’utilisation des logiciels :

L’utilisation des logiciels en analyse de contenu a souvent été décriée, soit par les

linguistes, soit surtout par les philosophes, qui à juste titre, qu’aucun logiciel n’a la capacité

de traiter l’ensemble des phénomènes complexes qui sont mis en jeu lors d’un échange

langagier, ni à plus forte raison, de ce fait, celle de développer des raisonnements aussi

performants que l’être humain. Inversement des auteurs comme R. Ghiglione font remarquer

que le travail sur logiciel, outre qu’il autorise un traitement systématique des informations

langagières, permet aussi de vérifier la validité de certaines règles procédurales formulées par

la linguistique. Si elles sont exactes, elles peuvent s’appliquer à tout matériel langagier

retranscrit à l’écrit. Les exceptions sont alors mises en valeur lors de traitement à grande

échelle avec le logiciel. Il convient donc de faire le tri dans ces critiques ? pour utiliser les

logiciels avec discernement, sans se priver d’un outil performant.

Page 523: UN REFERENTIEL, POUR QUOI FAIRE

523

3-1) L’intérêt et les limites de l’utilisation des logiciels :

Contrairement à notre cerveau qui, en relation avec l’ensemble des sensations que

nous éprouvons (extéro-, mais aussi intéro- et proprioceptivité), s’est adapté à notre

environnement pour nous permettre d’ajuster rapidement nos réactions et nos modes d’action,

les logiciels ne traitent que les procédures pour lesquels ils ont été programmés. L’ère du

robot intelligent d’Asimov n’est pas pour demain152. Il va donc de soi qu’ils n’apportent des

informations qu’au regard de ces procédures. Tout d’abord le texte est retranscrit. De fait, et

même avec une retranscription au mot à mot, tout ce qui relève du para-verbal est laissé de

côté. Seul un enregistrement phonique permet de rétablir les intonations, les ponctuations, les

rythmes. Par ailleurs bien de jeux de positionnements, spatiaux, attitudinaux, ou des gestes

significatifs, ne figurent pas dans le discours tel qu’il est retranscrit. Ces sont les outils vidéo

qui, de nos jours, permettent d’observer ces divers aspects de la situation, ou bien, de façon

plus classique, l’observation ethnographique si elle est possible sans déranger le déroulement

de l’évènement. Chaque méthode d’observation a ses propres limites. On se heurte ici à une

problématique centrale en sciences humaines, abordée par E. Husserl quand il différencie

noème et noèse. On en restera donc là par rapport à cette relativité de l’observation, et c’est

avec toutes les précautions d’usage que l’on abordera ce matériau.

Revenons maintenant au traitement même de l’information langagière qui est produite.

Les logiciels fournissent des informations, de façon systématique en fonction de règles (ou de

régularités), mises en valeur par les recherches linguistiques. A partir de ces procédures, ils

communiquent des matériaux sous forme ordonnée, la question est alors de savoir ce qu’il est

possible d’en abstraire :

1° Le logiciel ne dispense pas le chercheur d’un minimum de compétences dans le

domaine du métalangage linguistique et sémiologique, pour traiter les matériaux en

question et éviter des contre-sens : que faire d’une liste de propositions d’énoncés

(logiciel TROPES) ? Comment identifier les oppositions entre les prédicats ?

Comment en déduire les constructions argumentatives ?

152 Notons, tout de même, que le romancier a introduit quelques principes fondamentaux (cadres pour les robots), sous forme de programmes introduits par l’être humain pour les contrôler et, en jouant sur les paradoxes, il a ainsi mis en valeur les limites mêmes du robot intelligent et certaines différences fondamentales avec l’être humain. Il s’agit là de la meilleure illustration de ce qui est exposé ici.

Page 524: UN REFERENTIEL, POUR QUOI FAIRE

524

2° Le chercheur a besoin de connaître, à minima, les procédures mises en œuvre, pour

éviter certaines confusions : le logiciel ALCESTE, par exemple, ne discerne pas des

thématiques mais des univers sémantiques, phénomènes qui ne reposent pas du tout

sur les mêmes processus cognitifs.

Si l’on exclut les logiciels de traitement occurrentiels, lemmatisés ou non (nombres de mots

ou de lemmes), dont on a exprimé les limites (page 364), on peut discerner deux grands types

de logiciels qui se sont développés ces dernières décennies :

- ceux qui, à la suite des travaux de Z.S. Harris et M. Pêcheux, ont hérité des avancées en

matière d’analyse propositionnelle : c’est le cas des différentes équipes qui ont travaillé

avec R. Ghiglione, en particulier autour de l’élaboration de TROPES ;

- ceux qui, dans la foulée des travaux de Saint Cloud et des recherches cognitivistes sur la

sémantique (en particulier les travaux de W. Kintsh) ont privilégié l’étude des

cooccurrences. C’est le cas, par exemple, du logiciel ALCESTE de M. Reinert. Dans la

mesure où ces deux logiciels ont été utilisés dans ces travaux, on abordera leurs limites

sans prétention d’extension généralisante aux autres logiciels du même type.

3-2) Le logiciel TROPES :

Le logiciel TROPES a reproduit la logique du découpage propositionnel. Il fournit

ainsi des énoncés élémentaires, sous forme de listes triées, soit par catégories grammaticales,

soit par substantifs. Il offre aussi la possibilité de classer ces substantifs par univers

sémantiques, sous forme de taxinomies. Il est ainsi possible de discerner certains choix de

l’énonciateur, en particulier au niveau des modes prédicatifs en fonction des lexèmes (pages

506 à 508), des types de modalisations verbales (pages 519 à 521), de certaines constructions

argumentatives (utilisation des connecteurs), des ancrages de l’énonciation (pronoms

personnels). Ces traitements apparaissent donc pertinents pour étudier les microstructures

argumentatives (critères). Mais il est important d’avoir conscience que nous n’en percevons

ainsi qu’une partie, la plus évidente et la plus formelle. Tout d’abord ce logiciel n’opère pas

de lemmatisation, les univers sémantiques mis en valeur ne le sont que sur la base des

substantifs. Ce qui est intéressant pour analyser les choix de susbtantivation, mais insuffisant

pour analyser les rapports sémiques entre concepts : verbes, adjectifs, adverbes en sont exclus.

Par ailleurs, les taxinomies sont construites empiriquement, et non sémiques : le logiciel laisse

la possibilité de les modifier en fonction des besoins, mais de façon toujours empirique.

Page 525: UN REFERENTIEL, POUR QUOI FAIRE

525

Par ailleurs les rapports argumentatifs entre propositions sont loin de se borner à la

formalisation des connecteurs. De même les phénomènes d’ancrage ne reposent pas sur les

seuls pronoms. Enfin l’équipe de R. Ghiglione a cherché, à partir de la notion de référent-

noyau, à faire ressortir la logique des relations thématiques entre propositions. Le logiciel

regroupe ainsi les énoncés fondamentaux qui structurent le texte (sorte de trame) et propose

une schématisation de la progression thématique. Mais les algorithmes utilisés pour cette

dernière opération ont surtout été organisés à partir d’une sériation chronologique, modulée

par les phénomènes syntaxiques, en particulier la prise en compte de la hiérarchie entre les

propositions induite par les connecteurs et les anaphores. De ce fait le produit n’est pas

toujours isomorphe avec la progression thématique réelle, d’autant que les phénomènes de

lemmatisation ne sont pas pris en compte. Le logiciel offre tout de même une bonne vision

globale de la construction rhétorique des différents textes. Il fournit un bon squelette, à partir

des phénomènes les plus évidents, qui de ce fait sont souvent ceux qui structurent le plus

l’énonciation. Le chercheur a seulement besoin, ensuite, d’acquérir un peu de recul pour

éviter des conclusions trop hâtives.

3-3) Le logiciel ALCESTE :

Les traitements du logiciel ALCESTE sont fondés sur l’analyse systématique des

cooccurrences. Les algorithmes opèrent une étude systématique de la cooccurrence des unités

d’enregistrement (des mots), dans les mêmes unités de contexte (les énoncés élémentaires).

Les unités d’enregistrement sont lemmatisées, ce seront donc des lemmes, expressions sous

une forme déterminée (en général l’infinitif ou le radical) des lexèmes. Ceux qui apparaissent

le plus souvent dans les mêmes unités de contexte sont ainsi regroupés en univers sémantique.

Le logiciel croise ensuite ces unités de contexte – et de ce fait, les unités d’enregistrement qui

en font partie -, avec des variables caractéristiques de l’énonciateur ou de l’énonciation,

introduites par le chercheur pour chaque texte. Il est ainsi possible d’identifier les univers

sémantiques les plus fréquemment utilisés par chaque énonciateur ou dans chaque texte.

Les limites sont de plusieurs ordres :

1° Les unités de contexte ne sont pas des phrases, mais des composés segmentés en fonction

des besoins des statistiques, et paramétrés autour de 10 à 12 unités d’enregistrement. Par

ailleurs, le logiciel offre la possibilité de traiter manuellement les segmentations.

Page 526: UN REFERENTIEL, POUR QUOI FAIRE

526

A l’exception des retours à la ligne et des marqueurs de phrases quand leur amplitude est

proche de la segmentation automatique, le logiciel ne prend pas en compte les différentes

liaisons syntaxiques qui interfèrent dans la segmentation propositionnelle : anaphores,

indicateurs fonctionnels entre les propositions ou les macrostructures. Aussi la segmentation

est-elle adaptée à des textes très normalisés (comme les fiches du RNCP), mais elle est

beaucoup moins pour les interviews orales (comme des entretiens), qui demandent alors un

gros traitement manuel.

2° Le principe du traitement automatique se fait sur la base de la complémentarité / opposition

entre les univers sémantiques. D’une part, la fréquence d’apparition des mêmes lemmes, dans

les mêmes unités de contexte conduit à les regrouper. Mais ces lemmes sont aussi en relation

avec d’autres lemmes co-occurrents entre eux, ou en relation de cooccurrence avec de

nouveaux lemmes, dans d’autres unités de contexte. Tous ces lemmes sont regroupés dans le

mêmes univers. D’autre part, la distance d’apparition avec certains lemmes, ou les groupes

dans lesquels ces derniers se retrouvent, conduit à différencier les univers. L’algorithme est

fondé sur le principe de tris croisés et du poids respectif des Khi2, par itérations successives.

De ce fait le logiciel n’a d’intérêt qu’à partir du moment où l’objectif de l’étude est de

préciser les oppositions sémantiques entre certains univers : autour du même objet, plus

précisément du même univers référentiel (par exemple, dans les fiches RNCP, les principales

fonctions du métier), les choix lexicaux sont-ils différents ? Cela ne dispense pas le chercheur

d’analyser ces choix et la raison de ces différences. Cette procédure est donc inadaptée si

l’objectif est de découvrir les processus cognitifs communs entre acteurs (par exemple, la

forme des constructions argumentatives des interviewés). En revanche, dans le cas d’une

hypothèse théorique, posée à la suite d’une étude sociologique du contexte et d’une analyse

des procédures mises en œuvre par les acteurs, le logiciel peut constituer une bonne validation

des oppositions intuitivement perçues.

3° Si les résultats produits par le logiciel corroborent des significations intuitivement perçues,

il convient de rechercher le fondement des processus qui les ont produites. Les arguments

théoriques de M. Reinert sont, à ce titre, insuffisamment étayés pour justifier une utilisation

de son logiciel avec parcimonie. Nos significations reposent sur les rapports sémantiques que

nous instituons, pour chaque dimension de la signification, sémantique, syntaxique et

rhétorique. Ce sont les phénomènes de cooccurrence entre les unités qui génèrent le sémème,

c'est-à-dire l’effet de sens. Les procédures du logiciel proposent un algorithme pour traduire

mathématiquement ce processus générique. Mais elles ne différencient pas les multiples

processus (thèmes, anaphores, arguments), ni les phénomènes de hiérarchie syntaxique.

Page 527: UN REFERENTIEL, POUR QUOI FAIRE

527

Elles ne communiquent qu’une aperception globale. En revanche les résultats orientent

l’analyse à partir de ces premiers traitements, d’autant que le logiciel fournit l’ensemble des

énoncés élémentaires qui correspondent aux classes. Il est possible ainsi d’observer sur

quelles modalités le logiciel a opéré la sélection, ainsi que les unités de contexte qu’il n’a pas

réussi à classer. Ce logiciel a donc un atout, celui de travailler sur le principe des

cooccurrences, valorisant ainsi les processus de la signification153. En revanche les

phénomènes syntaxiques, en particulier la hiérarchie et le découpage propositionnel,

apparaissent moins visibles. La complémentarité de ces deux types de logiciels est donc

évidente lors des analyses. Une limite est cependant identique pour tous les logiciels, et c’est

elle qu’on va maintenant traitée.

3-4) Les limites dues à la situation éphémère :

Les analyses de contenu ne portent que sur les relations sémiques et syntaxiques qui

sont évoqués hic et nunc, en référence à la situation, et non celles qui existent dans la tête des

acteurs : leurs conceptions, leurs logiques. Chaque trait récurrent de signification mis en

exergue par l’analyse de contenu n’est donc pertinent que pour expliquer l’adaptation de

l’acteur à la situation et non sa façon de penser, totalement inaccessible à partir d’une seule

prestation. L’étude objective porte donc sur ces modes d’adaptation, c'est-à-dire sur les

processus de référence, et non sur les conceptions des acteurs, la façon dont ils construisent

celles-ci. Par conséquent chaque trait de la signification, pour être interprété, doit pouvoir être

rapporté à la situation d’énonciation et à l’objet de l’analyse. Cette contrainte est à prendre en

considération dès la mise en œuvre des protocoles expérimentaux (conditions expérimentales

de l’expérience N°1, ch. 12 ; fiche signalétique de l’expérience N°2, ch. 13). Cette contrainte

est certainement aussi celle qui préside à l’organisation des évaluations certificatives, dans la

mesure où les examinateurs se retrouvent confrontés aux mêmes contraintes et limites que le

chercheur qui analyse les contenus.

Ce sont ces questions de problématiques et de protocoles qu’il convient maintenant de

poser avant d’aborder la partie empirique.

153 D’autres logiciels comme LSA peuvent aussi apporter leurs contributions en approchant ceux-ci d’une autre façon.

Page 528: UN REFERENTIEL, POUR QUOI FAIRE

528

4) L’analyse des Référentiels et observation des critères :

4-1) Sur la notion de « Savoir » et son observation dans le discours :

Les notions de « savoir », « savoir-faire » et « savoir-être » se sont développées dans

le milieu de la formation professionnelle et de l’Education nationale. Cette trilogie a été

reprise par plusieurs auteurs en sciences de l’éducation (J.M. De Ketele ; A. De Peretti ; J.

Cardinet). Le fait que ces catégories soient largement exploitées par les professionnels

suppose l’adéquation à leurs pratiques et problématiques. Mais cette adaptation ne signifie

pas, pour autant, que la recherche scientifique puisse les traiter sans les reformuler. Pour être

empiriquement pertinent, chaque concept doit signifier un système d’éléments dont

l’observation systématique s’avère possible : modalités d’actions, procédures, formes de

communication, constructions matérielles, opérations cognitives. Toute recherche scientifique

est à ce prix. Or le savoir n’est pas un objet dont l’observation est complexe. Pour B. Charlot,

c’est un « objet virtuel », une virtualité ou un idéal, qui nous orientent vers des éléments

observables. Le savoir n’est pas un objet extérieur qu’il s’agit d’intérioriser, le « sujet »

humain se construit dans son « rapport au savoir » ; « il n’est pas de savoir sans rapport au

savoir » (1997 : 68) ; « tout être humain apprend : s’il n’apprenait pas, il ne deviendrait pas

humain » (Idem : 76). Aussi cet auteur aborde-t-il la question du « savoir » sous un angle

anthropologique. Il observe ce concept à travers les conduites, actions et faire du sujet-acteur,

et à travers les « objets empiriques » du savoir, c'est-à-dire sa réification sous forme de lieux

plus ou moins sacralisés (bibliothèques, musées, écoles, instituts, archives), de documents

reconnus, diffusés, conservées, de modes de communication intériorisés, institutionnalisés,

officialisés. J.M. Barbier et O. Galatanu (2004) s’inscrivent dans une autre problématique,

mais similaire en ce qui concerne l’articulation entre l’expérience du sujet et la sacralisation

des lieux de savoir. Ils rappellent que « les savoirs sont des énoncés », « indexés d’un

jugement de valeur, d’une reconnaissance, d’une qualification sociales ».

« Nous ferons l’hypothèse qu’il y a désignation de savoirs lorsque le lien de correspondance entre représentation et objet représenté fait l’objet d’une argumentation (…) Dans les sociétés occidentales contemporaines, elle s’effectue aujourd’hui essentiellement par deux voies, aux valorisations sociales contrastées : - l’expérience, c'est-à-dire l’exercice par un sujet d’une activité. Les savoirs dits

d’expérience ou issus de l’expérience, les savoirs empiriques sont censés avoir été produits à l’occasion de pratiques de transformation du monde. (…)

- la recherche, c'est-à-dire l’organisation d’un espace social spécifiquement ordonné autour de la production de savoirs, mais surtout régi par des règles spécifiques à l’espace social ainsi constitué, notamment règles de production, de confrontation et d’accumulation des savoirs ainsi produits » (J.M. Barbier et O. Galatanu ; 2004 : 46, 47).

Page 529: UN REFERENTIEL, POUR QUOI FAIRE

529

J.M. Barbier précise alors les « implications théoriques et épistémologiques » de cette

conception en différenciant trois types de savoirs : les « savoirs théoriques (…) énoncés

relatifs à des représentations de relation entre classe d’objets, d’évènements, de situations » ;

« les savoirs opératifs (…) dont l’intention de production fonde les actions de recherche en

optimisation (recherche-développement, recherches liées à l’action) » ; et « les savoirs

d’action (…) savoirs opératifs produits et considérés comme efficaces par les acteurs

énonciateurs eux-mêmes. » (2004 : 105). Le « savoir » est conçu ici comme un savoir

d’action. Mais cela signifie-t-il, pour autant, que les connaissances soient inobservables ?

« La preuve de la détention de supposées connaissances est en effet considérée comme apportée à partir du moment où les sujets qui sont censés les détenir sont en mesure d’effectuer des énonciations qui rendent « publiques » (Sperber, 1996) les représentations détenues en rapport avec les états mentaux souhaités. Cela explique probablement la toute puissance, dans les systèmes d’enseignement, d’évaluations fondées essentiellement sur des énoncés écrits ou oraux » (J.M. Barbier ; 2004 : 50).

La façon dont l’auteur expose le problème, « la détention de supposés connaissances », laisse

transparaître un a priori défavorable qui clôt la question avant toute ouverture du débat. Il ne

fait de doute, pour personne, qu’un enseignant dans le primaire, voire même dans le

secondaire, n’évalue pas la connaissance scientifique de ses élèves : les résultats seraient

catastrophiques. La transposition didactique du savoir disciplinaire, et les divers ajustements

qu’il opère pour conserver la maîtrise de sa classe et la reconnaissance des élèves, ont été

suffisamment étudiés par les didacticiens (pages 147 à 157). Il n’est pas nécessaire de revenir

dessus. Mais n’a-t-il pas, pour autant, les compétences linguistiques pour analyser les

constructions argumentatives de ses élèves ? On rejoindra donc ces auteurs pour souligner à

quel point le « savoir » est un objet virtuel. Il est important de ne pas dissocier la

problématique de la façon dont les acteurs se l’approprient et l’utilisent dans leurs praxis.

Mais, si le « savoir » est évalué à travers des énonciations et des écrits, il ne s’agit pas d’en

déduire, ni l’incohérence de cette praxis, ni l’incompétence des enseignants154. Cette position

serait inconcevable d’un point de vue scientifique, justement parce que la fonction de la

recherche est de découvrir sur quoi sont fondées ces praxis sans porter de jugement a priori

sur elles. Aussi ne suivra-t-on pas J.M. Barbier s’il sous-entend155 qu’il n’est pas possible

d’observer, dans un échange langagier ou écrit, la façon dont les élèves organisent leur savoir.

154 Cette position n’est pas, bien entendu, celle des auteurs précédemment cités, mais elle est suffisamment fréquente dans le milieu professionnel, et surtout dans les milieux universitaires, pour mentionner ces dérives. 155 L’implicite est très clair et identifiable dans l’expression de J.M. Barbier.

Page 530: UN REFERENTIEL, POUR QUOI FAIRE

530

Quand un enseignant ou un évaluateur pose une question, il a en général la capacité :

1° d’apprécier la pertinence de la réponse, c'est-à-dire l’adaptation pragmatique de l’élève au

contexte auquel il fait référence ; 2° d’apercevoir la façon dont celui-ci ancre sa réponse dans

les unités langagières les plus structurantes de sa question (prédicats de l’énoncé, articulation

thème de la question et rhème de la réponse) ; 3° de juger la validité de la construction

argumentative. D’ailleurs la façon dont nous avons été formés pour passer les concours est on

ne peut plus explicite à cet égard : repérer les concepts-clefs, l’articulation entre ces concepts,

la pertinence de la question en fonction du contexte (social, professionnel) ; puis inventorier

toutes les références objectives que nous avons sur la question, les concepts (microstructures

conceptuelles) qui les signifient, agencer tout cela en fonction de schémas canoniques

(macrostructures) en tenant compte des lois implicites du discours adaptés à la situation.

D’un point de vue méthodologique, l’hypothèse de ces compétences implicites des

enseignants, que l’on pourrait retrouver dans les rapports de jury, pose tout de même un

problème de fond. L’identification de ces formes langagières significatives et pertinentes, lors

des interactions, est le plus souvent un ensemble de processus intuitifs, voire inconscients. Il

n’est guère possible d’avoir, des acteurs eux-mêmes, une explication de la mise en œuvre de

ces processus cognitifs. Ils n’expriment, sur ces questions, que des concepts généraux, en

référence le plus souvent à leur propre parcours universitaire ou professionnel. Un travail

d’explicitation, au sens où l’entend P. Vermersch (1994), permettrait certainement de décoder

progressivement certains de ces processus. Certaines pratiques de l’analyse de contenu ont

expérimenté cette démarche qui implique progressivement les acteurs (R. Ghiglione et

associés ; 1980). Mais, dans ce cas, le processus d’explicitation, en clarifiant les démarches

cognitives, transforme en même temps les rapports de l’individu à ses constructions

conceptuelles, c'est-à-dire, de ce fait, les critères des acteurs. On a donc adopté, pour l’instant,

une autre démarche qui consiste :

1° dans un premier temps, à analyser formellement les appréciations des évaluateurs

pour en discerner les structures argumentatives ;

2° dans un second temps, à analyser les significations possibles à partir des prestations

écrites des candidats, en poussant l’analyse des discours de façon assez conséquente ;

3° à confronter ses deux approches, en analysant dans quelle mesure les concepts des

évaluateurs sont en correspondance (au niveau générique et sémantique) avec le

matériel langagier fourni par la prestation des candidats. Cette démarche demande

parfois une recherche historique (le plus souvent étymologique, mais aussi

philosophique) sur l’origine des concepts utilisés par l’examinateur.

Page 531: UN REFERENTIEL, POUR QUOI FAIRE

531

On a bien conscience, ici, des limites de la démarche, dans la mesure où rien ne prouve qu’un

examinateur lambda soit capable d’identifier ces formes dans le discours. Mais il y a au moins

deux points à relever. Les examinateurs ne perçoivent pas toujours les outils langagiers

(indicateurs) qu’ils ont à leur disposition ; mais cela n’occulte pas, à l’inverse, la nécessité à

laquelle ils sont confrontés de générer ces outils (praxèmes) pour donner de la signification

aux discours qu’ils analysent, en rapport avec leurs pratiques éducatives. Par ailleurs, à partir

du moment où ces examinateurs utilisent, de façon récurrente, certains processus de la

signification pour s’exprimer, on présuppose qu’ils en ont la maîtrise lorsqu’ils échangent

avec le candidat : par exemple, l’effet de sens induit par les modalisations verbales. Certains

de ces processus sont tellement inscrits dans la langue qu’il paraît inconcevable, au niveau de

culture générale où se fait la sélection des examinateurs, que ceux-ci ne les maîtrisent pas.

Avec la conscience de ces limites, la méthode nous permet de nous orienter vers l’étude des

processus d’interprétation du discours (indicateurs), mis en œuvre plus ou moins

consciemment par les acteurs, à partir de leurs critères (constructions argumentatives de leur

raisonnement). L’analyse qualitative de l’expérience N° 1 (ch. 12) illustre cette démarche,

avec cependant les limites liées au protocole : la passation de l’expérience n’a pas été suivie

d’un entretien qui aurait permis d’observer les compétences linguistiques des personnes

enquêtées. Mais, l’expérience montre que les constructions prédicatives des arguments, sur le

même mode que les appréciations remplies sur les bulletins de note (une brève justification),

sont assez explicites pour exprimer, de façon synthétique, les critères des examinateurs.

4-2) De l’observation des arguments aux référentiels de la communication :

Mais on se rend compte assez rapidement, à l’analyse, que ces assertions prédicatives

n’auraient guère de sens hors de leur contexte : des assertions comme « déclinaison logique »,

ou « emploie des termes précis et pro », ou « responsable et mature sur son rôle » signifient

bien peu de choses si on les retire du contexte dans lequel s’est réalisée l’expérience. Or ce

style télégraphique, nous le retrouvons dans la vie ordinaire, sur les bulletins scolaires ou sur

les appréciations des copies qui sont rendues à la suite d’épreuves écrites. Celles-ci sont

censées communiquer, à des acteurs (élèves, parents, etc.), le sens de l’acte d’évaluation.

Ces propositions et microstructures propositionnelles, qui sont inscrites de façon brève et

synthétique pour justifier un acte de jugement, n’acquièrent donc leur sens qu’en référence à

un système global dans lequel s’insèrent les pratiques d’évaluation en question. Ce système

constitue un référentiel commun, pour reprendre en extension le concept de J. Leplat (2001).

Page 532: UN REFERENTIEL, POUR QUOI FAIRE

532

Les Référentiels ne sont qu’une forme standardisée, dans un système particulier, qui

représente un cadre de référence à partir duquel les acteurs peuvent donner du sens à ces

microstructures d’arguments, que nous avons nommées « critères ».

Nos combinaisons argumentatives s’organisent ainsi à partir d’associations sémiques

et de rapports thématiques entre prédicats qui sont souvent posés comme des actes

de langage sentencieux : par exemple, « déclinaison logique ». Mais ce sens n’existe pas

indépendamment des rapports que ces énoncés entretiennent avec la situation et les cadres de

référence sociaux. Si le « vouloir » du prince ou le « pouvoir » du ministre sont des critères,

c’est en raison de la position qu’ils occupent dans la hiérarchie sociale. De même, si les

modalisations autour du savoir ont cette fonction de critères en sciences de l’éducation, c’est

en raison de la position conceptuelle de cette thématique dans les institutions sociales dont la

fonction est, entre autres, de communiquer les connaissances scientifiques aux jeunes. Et ces

institutions ne sont pas montées in abstracto, elles sont le fruit des évolutions sociales. Par

conséquent les Référentiels (macrostructures de référence) et, de ce fait, les critères

(microstructures argumentatives) sont interprétés à partir d’une connaissance de ce contexte

social d’une part, ou des praxis auxquelles il est fait référence d’autre part. Cette condition,

intrinsèque à nos modes de communication peut, au demeurant, générer de sérieux

malentendus : tous les acteurs n’ont pas la même conscience du contexte pour analyser les

macrostructures référentielles, ni les mêmes compétences linguistiques pour interpréter les

critères (microstructures argumentatives), et encore moins les mêmes expériences pour donner

du sens aux modes de communication auxquels il est fait référence. On ne saurait donc étudier

les Référentiels d’évaluation sans aborder les modes de communication, avec ses codes et ses

formes particuliers, qui constituent des cadres de référence pour les praxis d’évaluation. Ce

sont des macrostructures qui ont pour objet de fournir des repères pour l’interprétation des

énoncés formulés au cours des situations pratiques, en particulier les appréciations qui sont

portées par les examinateurs. Les diverses constructions d’arguments entre prédicats ou leurs

modalisations (savoir, pouvoir, vouloir, devoir) n’acquièrent de signification qu’en raison de

ces macrostructures, qui les repositionnent dans un contexte qui leur donne ainsi du sens.

Cette conception de la problématique se traduit par une remise en question des lieux

communs sur les taxonomies d’évaluation. Celles-ci ont vu le jour, aux Etats-Unis, pour

homogénéiser les pratiques des universitaires américains ; l’intention du gouvernement belge,

dans les années soixante-dix, de s’appuyer sur cet outil pour superviser son enseignement est

légitime. Mais les premiers se sont interrogés sur les capacités observables des étudiants, dans

leur praxis, et rien ne présume que ce système soit transposable à l’évaluation des savoirs.

Page 533: UN REFERENTIEL, POUR QUOI FAIRE

533

L’intention, dans le domaine des sciences, doit-elle se substituer à l’observation des processus

réels ? Les études de P. Merle (1998), les rapports de l’IGEN (2007), les difficultés des

enseignants et des formateurs, fort bien synthétisées par G. Malglaive (1990/1993) ou par

J.M. De Ketele (1993), tous ces phénomènes plaident pour une certaine modestie : les espoirs

et les intentions à l’origine des Référentiels ont été de puissants moteurs, mais les motivations

ne se sont pas confirmées, dans les faits, par des réalisations fiables. Qu’est ce qui fait alors

que ces Référentiels ne soient pas remis en question, demeurent, voire se développent ?

L’immersion dans un réseau de professionnels, qui avait pour mission d’élaborer un

Référentiel en réponse à une commande institutionnelle, était une occasion idéale pour étudier

les enjeux sociaux autour de ce type de construction. On a conservé les mêmes principes

méthodologiques au niveau de l’analyse des contenus. Mais plusieurs conditions nouvelles

ont été introduites : 1° la démarche d’enquête a été prise en charge par le groupe de

professionnels, en particulier l’élaboration du questionnaire. Il a donc été possible d’avoir un

recul sur la construction de celui-ci et de l’analyser comme ensemble de catégories implicites

des acteurs. 2° Le travail s’est fait en partenariat avec une sociologue156, qui a apporté son

regard dans la progression de la démarche. L’articulation dialectique, au niveau de la

dimension rhétorique, des rapports entre micro et macrostructures, est la conséquence de cette

praxis empirique, tout au moins d’une démarche d’explicitation à partir de celle-ci.

On pourrait parfois reprocher aux sociologues d’arriver sur le terrain avec leurs

schémas d’analyse préétablis et d’interpréter les phénomènes observés à l’aune de ces cadres.

Ceux-ci sont certes le fruit d’une longue expérience, mais, sans une praxis réflexive (P.

Bourdieu ; 2001), cette façon de procéder peut conduire à une démarche dogmatique, car il

n’est jamais très difficile de ne collecter sur le terrain que les phénomènes qui corroborent les

schémas préconstruits. Cependant, cette expérience conjointe nous a surtout montré

l’importance d’alterner les questionnements sociologiques - pour analyser la démarche de ce

réseau d’animateurs, en quête de reconnaissance sociale et professionnelle au sein de leur

filière et auprès de leurs partenaires institutionnels -, et l’analyse micro-structurelle conduite à

partir de leurs propres démarches de réflexion. Les critères discernés (sous forme, soit de

catégories à l’origine du questionnaire, soit de constructions argumentatives des réponses)

n’ont acquis du sens qu’en référence avec ces jeux de reconnaissance. En particulier, quand

ces professionnels font des évaluations de satisfaction auprès de leurs commanditaires

(instituteurs, institutions, etc.), n’est-ce pas pour ajuster leurs prestations d’animation ?

156 Magdalina Dimitrova – Construction et professionnalisation du champ de l’éducation à l’environnement à travers le RENE FRAPNA Isère - Mémoire de Maîtrise de sociologie – UPMF - Grenoble II - 2004

Page 534: UN REFERENTIEL, POUR QUOI FAIRE

534

Les référentiels s’inscrivent ainsi dans des jeux sociaux macro-structurels, et c’est cette

inscription qui leur donne du sens. Les critères, en revanche, puisent leur sens dans le rapport

entre les énoncés et les praxis auxquelles il est fait référence. Ce phénomène est mis en

valeur, au cours de cette expérience, par les rapports de signification entre les questions de

fond, relevant de la fonction (Qu’est ce que l’évaluation pour vous ? A quoi sert-elle ?), et les

questions sur les modalités (moments de préparation et d’évaluation, méthodes et outils,

facteurs limitants). Ces critères acquièrent ainsi un sens praxique. La cooccurrence entre les

outils et leurs fonction donne de la signification à certains termes : « suivi de mon travail »,

« se remettre en question », « se repositionner, corriger sa trajectoire », « connaître les attentes

des partenaires ». Il serait plus exact de dire que cette signification se construit à partir de

lexèmes substantivés, en rapport avec des schémas-type d’action qu’il est plus ou moins

possible d’inférer à partir du discours : « bâton de parole », « table ronde »,

« questionnaires », « brainstorming », « jeu de synthèse en fin d’activité », « jeu de l’oie ». Le

sens de ces lexèmes n’acquiert de la dimension (de la signification) qu’en référence au cadre

général de l’évaluation. C’est dans cette articulation rhétorique entre des microstructures

argumentatives et des macrostructures sur le sens global de l’action, que se développent nos

argumentaires conceptuels en rapport avec les jeux sociaux de communication et de

positionnement qui les accompagnent. Ainsi les réponses aux questionnaires nous proposent

un argumentaire où les prédicats s’enchaînent de façon ordonnée. Par exemple : « critique du

fond et de la forme de l’intervention - retour sur mes animations – mon travail, sa cohérence,

sa pertinence – moi, les enfants – avec les enseignants – fiche déjà prête – l’enseignant

renvoie l’évaluation – questionnaire – évaluation difficile si longtemps après » ; ou un autre

type d’argumentaire : « analyse détaillée d’une animation – vérifier l’efficacité de sa façon de

faire – gestion de chaque étape d’une animation – on évalue ses pratiques, on s’évalue soi

même – à toutes les étapes – questionnaires, discussions, jeux dessins expos – temps accordé

insuffisant ». Chacun de ces argumentaires reflète des choix différents dans la façon de

conduire l’évaluation. Cette expérience a montré, en particulier, que ce ne sont pas les mêmes

structures de raisonnement qui sont mises en place si les professionnels privilégient le

contrôle des connaissances, l’ajustement au public et aux attentes des partenaires, ou une

dynamique de projet. Les référentiels apparaissent ainsi comme des formes standardisées

d’argumentaires, structures communément admises qui facilitent la communication. Les

Référentiels officiels n’en sont qu’une forme synthétique, globalisée, générique.

Page 535: UN REFERENTIEL, POUR QUOI FAIRE

535

4-3) L’analyse des critères dans le discours des examinateurs :

L’analyse de la dimension rhétorique de la signification et de l’articulation entre

microstructures argumentatives et macrostructures référentielles permet de dégager deux

types de problématiques, selon qu’elles soient traitées en privilégiant les premières et ou les

secondes. Dans ce paragraphe, on s’attachera plus à l’analyse des microstructures, dans le

suivant des macrostructures. Cette dichotomie rejoint, sous une autre forme, celles qui ont été

mises en valeur par B. Charlot et J.M. Barbier. Ils ont, chacun à leur façon, mis en exergue la

complexité du savoir : dialectique entre, d’une part, un sujet acteur qui construit son

expérience, d’autre part, des lieux de sacralisation, du moins d’institutionnalisation de la

production des conceptions scientifiques. L’expérience dans le réseau d’animateurs a, par

ailleurs, montré la complexité des rapports entre ces deux pôles, d’un côté celui qui

correspond à des praxis identifiées et des microstructures argumentatives, de l’autre celui des

conceptions générales et instituées. Le rapport de signification entre les deux reste pour le

moins complexe ; le rapport de référence avec le réel, différent à chaque pôle, n’est pas non

plus simple et uniforme. Les concepts généraux qui caractérisent les actions d’évaluation (que

nous avons appelé « fonctions ») sont en relation de signification avec les modalités d’actions,

mais ces dernières n’ont de sens qu’en référence à des pratiques. Or seuls des acteurs qui les

ont vécues ou pratiquées, pourront se les représenter157. Le « jeu de l’oie » fait certes partie de

notre patrimoine culturel, mais comment l’adapter à l’évaluation ? Qu’est ce qu’un « bâton de

parole »158 ? Tout le monde a-t-il la même façon de construire un questionnaire ? La

formation joue donc ici un rôle à deux niveaux, à la fois pour expérimenter ces praxis, à la

fois pour construire une argumentation fonctionnelle à partir de ces concepts. Les savoirs et

les savoirs-faire recoupent cette complexité de phénomènes, de la simple connaissance des

objets et pratiques auxquelles il est fait référence, aux diverses compositions conceptuelles

qu’il est possible de produire. Mais ces pratiques n’ont pas de sens pour elles mêmes : les

lexèmes qui les expriment sont signifiés à travers leurs relations sémantiques ou syntaxiques

avec des prédicats fonctionnels qui les intègrent dans des parcours chrono-logiques : soit des

conceptions générales sur les valeurs, croyances, idéaux, etc. (ce que certains auteurs

appellent « idéologies »), soit des référentiels plus précis qui les inscrivent dans un cadre

beaucoup plus normalisé. Cette conceptualisation leur communique donc un « sens global ».

157 Les fiches techniques ou les discussions avec les pairs sont aussi un moyen d’en avoir une vision globale (de les signifier), mais la représentation n’est effective qu’une fois l’action expérimentée. 158 Le « jeu de l’oie » et le « bâton de parole » sont des techniques utilisées par les animateurs pendant les évaluations (ch. 13), l’une pour tester les connaissances, l’autre pour organiser les tours de parole.

Page 536: UN REFERENTIEL, POUR QUOI FAIRE

536

La formation professionnelle aurait donc une double fonction :

- de normaliser un lexique, adapté aux besoins de l’exercice professionnel et identifié par

tous les acteurs, et de l’ancrer substantiellement dans la réalité159 ;

- d’inscrire ce lexique dans des constructions argumentatives considérées comme

fondamentales pour ordonner les différents éléments de la praxis : par là même, donner

conjointement du sens à ces éléments terminologiques et à cette praxis.

On observe ainsi, d’une part, des formes de microstructures argumentatives, d’autre part, des

référentiels, conceptions normalisées du « métier » (cf. par exemple, de nos jours, les fiches

du Répertoire National des Certifications Professionnelles) ou idéologies qui justifient

l’existence de la profession vis-à-vis des autres partenaires de la société (par exemple,

l’éducation populaire pour certains animateurs, l’éducation à l’environnement pour d’autres).

Une problématique réunit ces deux aspects de la question : comment les évaluateurs articulent

ces deux pôles de la dimension rhétorique ? Malheureusement pour le chercheur, ce qui est

simple en théorie l’est beaucoup moins dans la réalité. L’étude des processus de la référence

et de la signification a mis en valeur les difficultés d’établir ce rapport, dans la pratique. Les

mots (signifiants) ont une valeur polysémique dont le sens ne s’institue qu’en fonction des

usages. Ainsi, derrière les termes « savoir, savoir-faire, compétence » se profilent de

nombreuses significations en fonction du contexte (IGEN ; 2007). L’ancrage dans ce dernier

est effectivement lié à la façon dont l’évaluateur conçoit les rapports de signification entre

argumentations et référentiels, ainsi que les relations de référence au niveau de chacun de ces

deux pôles, avec les praxis d’une part, avec le « sens global » de l’autre. Mais ce sens

s’exprime souvent de façon abstraite et générique. Il est souvent signifié par des valeurs, des

croyances et des idéaux. La façon dont l’évaluateur organise cet ajustement est donc

fortement individualisée, ce qui est particulièrement mis en valeur, lors d’entretiens avec des

examinateurs, tant dans le contenu (interrogations sur leur pratique) que dans la forme : on

observe, en particulier, une forte utilisation des verbes modaux (C. Bélisson ; 2012).

Comment peut-on expliquer cela ?

159 Les problématiques, autour de cette fonction, ont été abordées au sujet des terminologies scientifiques par A.J. Greimas (1970).

Page 537: UN REFERENTIEL, POUR QUOI FAIRE

537

En raison même de la multitude des phénomènes à percevoir et du caractère intuitif de

notre aperception, l’appréciation de la prestation d’un candidat ne peut être que globale, à

partir des effets de sens produits, de la cohérence des microstructures argumentatives et de

l’adéquation des praxis énonciatives, en référence à la situation réelle et à la situation évoquée

dans le discours. Quand l’interaction se situe dans le cadre d’une évaluation certificative,

l’examinateur n’a guère d’autre choix que d’agglomérer intuitivement tous ces phénomènes,

car aucune des dimensions de la signification n’existe sans les autres, et aucun énoncé n’a de

sens indépendamment du contexte et des lois du discours adaptées à la situation. En

évaluation formative, la démarche est différente : il est plus aisé au formateur de se centrer sur

certains processus cognitifs qui ne sont pas assimilés, ou du moins qui ne sont pas utilisés de

façon pertinente, puis de générer les échanges et les actions de l’apprenant qui favorisent cette

assimilation. Ces contraintes se traduisent par deux nouvelles problématiques :

- aucun Référentiel ne sera jamais assez précis pour aborder tous les processus qui sont en

jeu au cours d’une communication. L’examinateur construira donc toujours l’interaction

en fonction des processus dont il maîtrise intuitivement / globalement le sens, et en

fonction de la façon dont il perçoit l’inadaptation des praxis d’énonciation du candidat, ou

l’incohérence des relations sémiques entre les unités langagières : utilisation des concepts

et constructions des conceptions ;

- aucun examinateur n’est capable d’appréhender toutes les compositions sémiques qui

existent dans le cerveau d’un candidat, ni tous les schèmes qu’il est en mesure de solliciter

pour s’adapter à diverses situations. Il est seulement en mesure de créer une situation,

fictive ou réelle (un contexte), pour observer les arguments mis en œuvre et les schèmes

sollicités, à travers l’action lors de mises en situation, ou les jeux de communication avec

les examinateurs. Mais comment évaluer la pertinence, la validité et l’acquisition de ces

compétences ?

Les notions d’ « acquisition du savoir », de « maîtrise » d’une connaissance ou d’une

compétence, et encore plus de « seuil à atteindre », sont donc purement théoriques et

inobservables dans la communication avec le candidat, ou à travers les différentes mises en

situation factices. La seule observation possible, ce sont les modalités d’adaptation du

candidat à la situation créée, et uniquement sur un plan conceptuel et pragmatique. En raison

de la complexité de ces phénomènes, est-il possible d’arriver à un consensus sur les façons de

faire ? Il y a peu de chance. Cela signifie-t-il, pour autant, l’inutilité des Référentiels ?

Page 538: UN REFERENTIEL, POUR QUOI FAIRE

538

4-4) L’institutionnalisation des Référentiels :

Les Référentiels n’auraient donc pas la fonction qu’on leur assigne, du moins dans le

milieu des sciences de l’éducation, et certainement aussi au sein des institutions d’Etat qui ont

pour fonction de gouverner le pays (ministères, instituts nationaux). Cette hypothèse peut

maintenant être interrogée. Pour les personnes dont la mission est de normaliser les pratiques,

du moins de les coordonner, la tentation de la prescription est intrinsèque à l’exercice du

métier. Mais une chose est de prescrire, une autre de s’illusionner sur la toute puissance de la

prescription. Le principal écueil de la démarche prescriptive a été de cautionner ces illusions,

en survalorisant l’intentionnalité des acteurs par rapport aux contraintes objectives des

situations de communication. Cette illusion a aussi été à l’origine de cette recherche, avec

l’idée d’identifier dans le discours des acteurs les modes d’observation mis en œuvre, plus ou

moins consciemment, pour évaluer les prestations des candidats. Mais les contradictions sont

apparues dès les premières analyses et n’ont cessé de se confirmer au fur et à mesure de

l’étude des relations complexes entre praxis et discours. Face à des processus cognitifs aussi

complexes, comment les Référentiels pourraient-ils aboutir à une normalisation des

pratiques ? Il existe, certes, des convergences (cf. expérience N° 1, ch. 12), mais il semble

plus pertinent de les rechercher, soit dans les contraintes de l’exercice professionnel, soit dans

les conditions de l’évaluation des compétences rhétorico-pragmatiques (cf. paragraphe

précédent).

Lors de l’expérience dans le réseau d’animateurs (cf. expérience N° 2, ch. 13),

l’analyse de contenu a permis de décoder certains argumentaires, et certains fondements

objectifs des référentiels : la notion de « projet » remplit une fonction structurante pour les

pratiques d’évaluation. Mais quel est le sens global de ces constructions conceptuelles ?

Comment ces référentiels ont-ils réussi à s’installer et à se faire reconnaître ? Quelles sont les

raisons de leur institutionnalisation, c'est-à-dire de leur reconnaissance par tous les membres

du groupe professionnel ? Comment se reproduisent-ils au cours des formations ? Quelles

relations pragmatiques ces constructions argumentatives typiques entretiennent-elles avec les

conceptions du métier, plus exactement les « rôles sociaux » reconnus par la société ? Autant

de questions sociologiques incontournables pour dépasser le bout de la lorgnette et situer

l’analyse des relations de signification entre microstructures argumentatives (critères) et

macrostructures référentielles, dans le contexte qui lui donne du sens.

Page 539: UN REFERENTIEL, POUR QUOI FAIRE

539

Nos référentiels, dans quelques domaines que ce soit, ne se sont jamais construits en

un jour, même si les jeunes générations se les réapproprient de façon rapide. Leur stabilisation

s’inscrit souvent sur plusieurs générations, voire, pour les plus anciens d’entre eux (comme

les légendes, par exemple), certainement sur des siècles ou des millénaires : de l’initiative des

pionniers à la popularisation par les médiateurs, puis l’appropriation par diverses sphères

concurrentes de la société, suivie des négociations et régulations qui en découlent, la

sollicitation d’experts et de scientifiques qui apportent leurs réflexions (autrefois les mages,

druides, philosophes, prêtres), la normalisation des praxis institutionnelles, acceptées et

reconnues par tous, ce sont plusieurs générations qui se succèdent. Ces différentes étapes,

nous pouvons les identifier en ce qui concerne les Référentiels de compétences : depuis les

initiatives nord-américaines dans les années cinquante (universitaires autour de B.S. Bloom,

cognitivistes autour de N. Chomsky), l’introduction des taxonomies en Europe avec le

développement des Référentiels dans les années soixante-dix, la généralisation du concept de

compétence dans les années quatre vingt-dix, les premières remises en question à l’intérieur

même des institutions de nos jours, le processus de régulation est en marche. Il s’inscrit dans

un ensemble de modes de communication et de praxis collectives qui reflètent l’évolution des

formes d’organisation de la société : l’arrivée massive des étudiants dans les universités

(taxonomies), la massification de l’enseignement général auprès de toute une population en

âge scolaire, en particulier en France avec le collège unique, le développement de

l’enseignement technique et la mise en place de Référentiels, la normalisation européenne

avec les fiches RNCP (généralisation du concept de compétence). Les Référentiels ne sont

donc pas le fruit génial de quelques esprits éclairés qui ont ouvert la voie, malgré tout le

mérite de ces innovateurs160, mais le condensé d’une fonctionnalité organique qui exprime,

derrière des vocables imprécis dans un premier temps, des praxis sociales se généralisant.

Sans ces référents sociaux organiques, les pratiques individuelles ne conduiraient qu’à un

éclatement du sens donné aux concepts. Ainsi que le notaient P. Bourdieu et ses associés

(1968), l’empirisme sur ces questions, sans recul historique et analyse conceptuelle, conduit

bien souvent à des conceptions superficielles. On prend aisément l’intention pour cause,

écueil traditionnel de l’Idéalisme161. Il est donc important de bien situer la problématique de

recherche dans son contexte socio-historique pour éviter toute interprétation hâtive.

160 Il est intéressant de noter que le groupe des universitaires américains qui se sont rencontrés pendant trois ans pour élaborer les taxonomies ont été surpris eux-mêmes de l’essor mondial de celles-ci. 161 On se reportera ici à la critique que K. Marx (1845/1976) a formulé à l’encontre de la philosophie du droit de G.W.F. Hegel (1816-1827/1954) : la recherche des causes de l’évolution historique est à rechercher dans les conditions d’existence d’une époque et non dans les Idéaux : la Cause avec un grand C.

Page 540: UN REFERENTIEL, POUR QUOI FAIRE

540

Revenons maintenant à nos observations sur les discours. Contrairement aux entretiens

avec les examinateurs, les Référentiels expriment une certaine forme d’ « objectivité ».

L’analyse systématique des fiches RNCP est révélatrice de ce choix syntaxique : les verbes

sont presque tous des verbes factifs, déclaratifs compris. Les modalisations verbales sont

exceptionnelles. On peut faire le même constat à la lecture de Référentiels, comme celui du

BEATEP, celui des moniteurs éducateurs. Cette forme n’est pas neutre, elle est

compréhensible si nous analysons le processus de formation de ces Référentiels. Les

professionnels s’intéressent en priorité aux fonctions qu’ils auront à confier aux

professionnels. Lors des négociations, l’accord porte donc surtout sur les fonctions

essentielles pour exercer le métier : la première démarche, lors de l’élaboration d’un

Référentiel, consiste, pour les différents protagonistes, à définir les principales missions que

le professionnel est susceptible de remplir, dans de nombreuses situations, chez beaucoup de

partenaires. Dans un second temps, ces faires sont déclinés en savoirs et savoir-faire, objets de

formation. Mais là, les choses se compliquent. Nous n’avons pas tous la même façon de

construire les relations de signification autour de la notion de savoir, ni les mêmes

représentations sociales qui servent de support aux praxis auxquelles il est fait référence.

N’est-ce pas à partir de ce constat qu’il est pertinent de se poser la question du critère ? Cette

déclinaison en conceptions de formation est donc très diversifiée : les situations de formation

englobent des mises en situation pour découvrir ces fonctions dans le faire, des connaissances

terminologiques, des arguments procéduraux, des arguments sur le sens social de ces

pratiques, des arguments sur l’éthique professionnelle, des compétences cognitives pour

pouvoir-faire, des compétences d’analyse pour identifier les actions adaptées aux situations,

des compétences de communication, des compétences à saisir les implicites d’une situation.

Chaque formateur privilégiera donc certains aspects au détriment d’autres, en fonction des

compétences qui lui paraissent prioritaires, de ses représentations de la profession induites par

son expérience, de ses propres compétences. Il devra aussi tenir compte des contraintes de la

formation, des compétences initiales du public. Alors, au moment où l’évaluation est mise en

place, on imagine la complexité de l’exercice. Il n’est donc pas surprenant que les

examinateurs aient quelques difficultés à accorder leurs critères, d’autant qu’il s’agit d’aboutir

à un accord sur les capacités qu’il est possible d’évaluer et dans quelles conditions. Comment,

face à une telle complexité et dans ces conditions, les Référentiels pourraient-ils normaliser

les pratiques ? Le volontarisme prescriptif n’y changera rien.

Page 541: UN REFERENTIEL, POUR QUOI FAIRE

541

Il apparaît donc plus pertinent d’interroger les Référentiels en tant que référentiels de

communication autour desquels se construisent les réflexions collectives d’un corps

professionnel : un cadre de référence macro-structurel qui permet d’interroger les pratiques de

formation et d’évaluation. Quel type de formations pour chacune de ces fonctions ? Quel

mode d’observation, dans quelle situation, est susceptible de garantir que le candidat remplira

convenablement cette fonction ? En tant que cadre de référence fonctionnel, partagé par les

partenaires, le Référentiel permet d’échanger des arguments qui font eux-mêmes référence à

des praxis substantivées, aussi bien professionnelles que de formation. Ils favorisent ainsi

l’émergence et la structuration des conceptions (dimension rhétorique), c'est-à-dire des

rapports de signification ente les arguments et la finalité fonctionnelle du dispositif de

formation et d’évaluation. Et ce sont ces débats qui, progressivement, instituent les pratiques,

les représentations du métier et les cadres de référence.

Pour confronter cette dernière hypothèse, on étudiera les fiches de métiers du RNCP

(Répertoire National de la Certification Professionnelle) (ch. 14) en fonction des branches

professionnelles et des conventions collectives. L’hypothèse a déjà été présentée lors de

l’approche sociologique et juridique de la compétence (pages 265 à 270). Selon les enjeux au

sein de ces branches, soit des liens juridiques forts avec l’Etat ont été maintenus à travers

l’attribution des diplômes qui permettent l’exercice des métiers (conventions collectives de la

Fonction Publique Aménagée), soit, au contraire, un recentrage s’est effectué sur des

compétences évaluées au sein des entreprises, à travers des formations en alternance, et sur la

prise en compte de ces compétences acquises sur le terrain au niveau des grilles indiciaires

(conventions collectives à critères classants). Ce n’est pas ici l’objectif d’approfondir

l’analyse de cette évolution ; les sociologues, les économistes et les juristes ont travaillé sur

ces questions (A. Dupray, C. Guitton, S. Monchatre ; 2003). En revanche il est intéressant

d’observer, dans la forme, les différentes fonctions (les « faires » à savoir) qui sont mises en

valeur, au sein de ces professions. Le contexte de ces actions, signifié par les compléments

circonstanciels, met alors en valeur, implicitement, ce dont il faut tenir compte au cours de ces

actions. Pour la FPA, les rédacteurs ont surtout insisté sur la notion de « cadre » à prendre en

compte pour agir ; pour les industries, les notions de « travail d’équipe » et de « sécurité »

sont le plus souvent citées. Ne retrouve-t-on pas, à travers ces dernières, les problématiques

qui ont conduit les ergonomes européens vers la notion de compétence dans les années 80 ?

La notion de « cadre », elle, permet de saisir certaines attentes implicites des examinateurs

lors des évaluations dans la FPA, à savoir les capacités à analyser le contexte et à intégrer ces

analyses dans les praxis : notion de projet, soutenances de mémoires, études de cas.

Page 542: UN REFERENTIEL, POUR QUOI FAIRE

542

Par conséquent les jeux institutionnels entre les partenaires sociaux apparaissent

déterminants dans l’élaboration des fonctions professionnelles et des référentiels sollicités

pour donner du sens à celles-ci, ainsi qu’aux actions de formation et d’évaluation. La notion

de « référentiel commun » de J. Leplat correspond plus, semble-t-il, aux préoccupations des

industries à critères classants, alors que celle de « cadre de référence », des interactionnistes,

semble plus adaptée pour les métiers qui relèvent de la FPA. Dans tous les cas, on peut noter

que ces référentiels professionnels sont un enjeu important dans les négociations. En fonction

des métiers, on aperçoit aussi qu’ils sont, en grande partie, induits par les conditions de

l’exercice professionnel : la sécurité est un aspect important dans certains métiers à risque ; de

même, les cadres de la FPA sont souvent déclinés des missions des agents (fixées par l’Etat

ou par l’éthique professionnelle) ou des rapports avec les partenaires sociaux. La nouvelle

signification de la compétence serait bien, en ce sens, comme l’ont souligné les sociologues,

le produit des rapports sociaux qui s’instituent à notre époque, avec la réorganisation de notre

société industrielle, fondée sur la division du travail (E. Durkheim ; 1930). Et ce phénomène

est intéressant pour les linguistes, surtout les sémiologues, car il illustre la façon dont un

signifiant (compétence) acquiert une nouvelle signification substantielle (de la compétence

juridique à la compétence fondée sur le savoir et le savoir-faire), qui s’inscrit en vertu des

arguments qui y sont attachés (critères) et des référentiels qui les situent dans leur contexte

(praxis de formation et d’évaluation), dans un cadre de référence qui lui donne du sens pour

nos pratiques.

Page 543: UN REFERENTIEL, POUR QUOI FAIRE

543

4ème PARTIE

Etudes empiriques des référentiels

De l’analyse des discours et du contexte d’énonciation

à l’interprétation des situations

d’évaluation

Page 544: UN REFERENTIEL, POUR QUOI FAIRE

544

Chapitre 11 :

Présentation du milieu socioprofessionnel de l’animation

On a cerné, dans un premier temps, les problématiques qui se sont posées aux

professionnels de l’éducation (ch. 5). L’approche sociologique a ensuite apporté des concepts

pour observer les phénomènes sociaux, les échanges interactifs et les modes de

communication (ch. 6). Ainsi les notions de référentiel, critère et indicateur, ont-elles été

réifiées avec, en perspective, l’observation des situations de communication, qui constituent

nos supports empiriques (ch. 7). L’étude de ces phénomènes a exigé un minimum d’analyse

des discours pour identifier nos objets sociaux, à travers nos modes d’observation, à partir de

l’analyse des processus langagiers (ch. 8 à 10). L’articulation de ces différentes recherches a

permis de générer des relations de sens entre, d’une part, les problématiques des sciences de

l’éducation avec ses paradigmes - relations entre les concepts, en particulier critère,

indicateur, référentiel, curriculum (RFC) et les modalités empiriques, en particulier celles de

la docimologie (expérience N°1 ; ch. 12) et de l’ethnométhodologie (expérience N°2 ; ch. 13)

(MEO) -, d’autre part, l’analyse des échanges langagiers, et enfin l’étude des modes de

communication qui se structurent dans nos relations quotidiennes : habitus, représentations

sociales, reconnaissance de compétences. Nous sommes ainsi en mesure d’analyser les modes

opératoires et les processus cognitifs mis en œuvre lors des interactions évaluatives.

Mais une autre question surgit maintenant : celle de la validité externe. Pourquoi avoir

choisi le milieu de l’animation pour étudier ces phénomènes ? Est-ce pertinent ? Et dans

quelle mesure peut-on généraliser certaines conclusions, que ce soit au sujet des processus

cognitifs, des modes opératoires de la communication et des enjeux de reconnaissance

sociale ? L’animation est un métier nouveau, en pleine expansion ces trente dernières années :

il entre, de nos jours, dans une phase de reconnaissance sociale et d’institutionnalisation. Si

l’on observe la courbe des effectifs, du moins des personnes qui se réclament de cette

profession lors des recensements, on perçoit une croissance régulière de 1975 à 2000, les

effectifs se stabilisant à partir de cette date autour de 120 000 (F. Lebon ; 2009 : 46). Les

phénomènes d’institutionnalisation de cette profession sont donc récents et cela peut poser

quelques problèmes à l’historien. Mais, pour le sociologue, il y a là matière à puiser des

observations pour analyser les phénomènes sociaux qui émergent, lors de ce type de phase,

soit à travers l’étude de processus microsociaux, soit à travers des analyses macro-sociales.

Page 545: UN REFERENTIEL, POUR QUOI FAIRE

545

Par ailleurs les recherches historiques sur l’éducation populaire sont déjà assez conséquentes

(B. Caceres, 1964 ; G. Poujol, 1981 ; 1989 ; J. Bourrieau, 2011 ; J.M. Mignon, 2007). Elles

nous informent sur la dynamique sociale depuis la Révolution française jusqu’à l’origine de

ce secteur professionnel, dans les années soixante - à partir du moins des représentations

sociales et des conceptions qui ont dominé au sein de ces mouvements. Elles sont complétées

par des études plus ciblées sur tel ou tel mouvement (C. Dufresne sur les auberges de

jeunesse ; 1993). Les recherches sociologiques (J.C Gillet, 2006 ; F. Lebon, 2009 N.

Favarque, 2008 ; E.Gallibour, 2008), de leur côté, apportent des informations sur la

composition de ce milieu professionnel, sur son expansion et sur les caractéristiques sociales

des agents. Certaines études ethnographiques (J. Camus ; 2008) complètent, de façon

pertinente, cette approche globale. Mais cela pose alors la question de l’articulation de ces

différentes approches et de ce qu’elles apportent à cette recherche.

1) L’articulation entre les apports des différentes disciplines :

Dans les premiers chapitres, nous avons abordé les différences dans les approches

épistémologiques, afin de faire ressortir les complémentarités entre les paradigmes, aussi bien

au niveau des modalités empiriques (MEO), de la modélisation des objets (MCP) que de la

formalisation des concepts (RFC) : ainsi les approches constructivistes et structuralistes ont

déterminé nos démarches conceptuelles, les approches cognitivistes et positivistes ont offert

des outils pour systématiser les observations. Mais la question qui se pose maintenant est d’un

autre ordre : il s’agit d’identifier la complémentarité entre les disciplines, en particulier entre

la sociologie et l’histoire. G. Gurvitch (1962) a insisté sur les enjeux autour de cette

articulation interdisciplinaire, surtout sur les risques de dogmatisme qui dériveraient de

l’impérialisme de l’une sur l’autre. Les historiens de l’éducation populaire ont étudié les

grands mouvements de jeunesse qui se sont structurés en fédération, à la fin du XIXème siècle

et dans la première moitié du XXème. Ils nous présentent ainsi les différents enjeux sociaux,

les rivalités, les conflits, l’évolution des fédérations et de leurs structures. Mais, dans la

science de l’histoire, les « temps historiques réels sont reconstruits selon le point de vue

idéologique de l’historien qui est tenté de choisir certains de ces temps au détriment des

autres » (G. Gurvitch ; 1962 : 292). Ainsi l’histoire est-elle une conceptualisation qui

s’organise autour d’idéaux (cf. la dialectique de G.W.F. Hegel ; 1816). Ceux-ci servent de

repères pour orienter la collecte des données. La sociologie apporte alors un autre regard :

Page 546: UN REFERENTIEL, POUR QUOI FAIRE

546

« La réalité historique n’est donc que la part prométhéenne de la réalité sociale (…) il incombe à la sociologie d’en établir une échelle en corrélation avec les types de cadres sociaux qu’elle élabore. Cette réalité historique est étudiée aussi bien par la science de l’histoire que par la sociologie. Mais tandis que l’historiographie ou savoir historique se concentre exclusivement sur elle, la sociologie cherche à la confronter avec les cadres sociaux non historiques ou peu historiques, donc à la replacer dans des ensembles sociaux plus vastes où, par ailleurs, s’insèrent également des éléments microsociaux et groupaux qui ne sont que plus ou moins pénétrés par l’ « historicité » » (G. Gurvitch ; 1962 : 288).

Pour argumenter son point de vue, l’auteur compare les conceptions historiques de nos

sociétés contemporaines avec le « faible degré » d’historicité des « sociétés dites archaïques »

ou des « sociétés patriarcales ou traditionnelles » (idem : 288). Il en résulte, pour notre

propos, que la discipline historique construit un ensemble de connaissances en rapport avec

les représentations sociales d’une époque. Elle nous apporte de nombreuses informations pour

analyser l’existence des institutions de notre société et les modes de communication

contemporains, mais sa prétention à la prédiction doit être relativisée par les autres disciplines

(cf. critique du « déterminisme historique » ; idem : 291). Cette « dialectique » entre les

disciplines est donc fondamentale pour mieux apercevoir les rouages des jeux institutionnels

et des enchaînements évènementiels. La dialectique s’opère aussi au sein même du champ

historique, par l’accumulation des données contradictoires à la doxa scientifique, qui élargit

ainsi l’ensemble des évènements pris en compte et, par là même, introduit une autre vision

des enjeux sociaux. Ainsi les travaux G. Poujol ont-ils remis en question certains lieux

communs des années soixante sur les origines des mouvements d’éducation populaire.

A partir du moment où nous concevons la production historique comme un produit des

représentations sociales d’une époque, elle acquiert de l’intérêt pour notre propos. D’abord

elle génère des cadres de référence en rapport avec les modes de fonctionnement des

institutions. En schématisant le raisonnement, si certains modes de fonctionnement sont

institués de nos jours, c’est en référence à des façons de faire qui ont émergé, pour telle ou

telle raison, à une époque donnée. L’histoire explique donc nos modes de communication

contemporains en référence à la reproductibilité des modes institutionnels (par exemple, le

phénomène des assemblées générales dans les associations). Ainsi les recherches sur l’histoire

de l’éducation populaire répondent-elles aux préoccupations de certains milieux sociaux de

notre société républicaine. Ce n’est certainement pas un hasard si les historiens font, sur ce

sujet, débuter leur histoire à la révolution française, même s’ils évoquent par ailleurs les

actions antérieures. Les schémas de l’historiographie fondent ainsi les cadres de référence

pour donner du sens à nos actions actuelles, pour les justifier socialement. L’histoire apporte

alors une continuité, qui peut faire défaut à la sociologie dont les études sont plus segmentées.

Page 547: UN REFERENTIEL, POUR QUOI FAIRE

547

Mais les approches sociologiques sont plus fournies sur les contraintes organiques

(communicationnelles, socio-économiques, socioculturelles) et sur les mobiles individuels /

les modes interactionnels, qui interfèrent dans les jeux de positionnement entre les acteurs et

qui conduisent à l’institutionnalisation des rapports sociaux. Enfin l’approche globale de la

systémique offre un cadre général d’interprétation sur les phénomènes vivant (page 28), qui

permet une autre entrée globale différente de celle des historiens. On abordera donc quelques

repères historiques, dans un premier temps sur les mouvements d’éducation populaire et de

jeunesse, dans un second temps sur la formation des diplômes de l’animation. Puis, à partir

des données sociologiques, on évoquera une première modélisation systémique qui orientera

nos hypothèses de recherche.

1-1) Quelques repères historiques sur les mouvements d’éducation populaire :

Il ne s’agit pas, dans ce paragraphe, d’approfondir l’histoire de l’éducation populaire,

mouvement social complexe. Mais il n’est pas certain que tous les acteurs de ce champ

professionnel en aient la même conception ; c’est cet angle de la question qui intéresse cette

recherche sur les référentiels.

Pour la plupart des historiens des mouvements de l’éducation populaire, la révolution

française est le vivier dans lequel ont germé les idées novatrices en matière d’éducation, qui

se concrétiseront dans les deux siècles suivants. Le rapport d’A.C. de Condorcet fait office de

texte fondateur. B. Cacérès le qualifie de « grand ancêtre » (1964 : 15). P. Besnard en parle

aussi comme le « premier projet éducatif d’ensemble » (1980/1985 : 24). Pour G. Poujol

aussi, le rapport Condorcet a été précurseur en matière d’éducation permanente et

d’organisation du système d’enseignement (G. Poujol ; 1981 : 90 et 126). Mais, en reprenant

les recherches de P.A. Rey-Herme, elle a aussi mis en valeur le discours du citoyen L. Portiez

à la convention en 1793 :

« Portiez apparaît dans ce texte comme le prophète du socio-éducatif et de « jeunesse et sports », dans son ensemble, comme Condorcet l’est apparu pour l’éducation permanente » (1981 : 122).

La Révolution française a, sans conteste, posé les fondements constitutionnels de notre

système d’éducation. Les idées d’A.C. de Condorcet et de L. Portiez ont été des utopies

porteuses, mais les conditions matérielles n’étaient pas requises pour mettre en œuvre ces

vastes projets. En revanche la Révolution a institué de nouvelles formes d’organisation

politiques, sur lesquelles les différents politiques publiques de l’Etat s’appuieront au cours du

19ème siècle pour développer l’instruction du peuple : les communes et les départements.

Page 548: UN REFERENTIEL, POUR QUOI FAIRE

548

Avec le retour des thermidoriens au pouvoir, la loi Lakanal (novembre 1794) et la loi Daunou

(octobre 1795), l’Etat s’en remet aux communes pour organiser l’enseignement primaire et la

liberté est établie d’ouvrir des écoles particulières (C. Lelièvre ; 1990 : 58). En 1802, la loi

Fourcroy confirme cette tendance, l’effort de l’Etat est porté sur les lycées, dans le but de

former l’élite de la nation. En 1806, est créée l’Université, sur le modèle de celles de l’Ancien

régime. Elle a pour vocation de contrôler les établissements d’enseignement, mais aussi la

formation des enseignants (C. Lelièvre ; 1990 : 35-40). Les trois premiers articles du décret de

mars 1808 sont assez clairs, dans leurs intentions :

« Art. 1 - L’enseignement public, dans tout l’empire est confié uniquement à l’université. Art. 2 - Aucune école et aucun établissement quelconque d’instruction ne peut être formé hors de l’université impériale, et sans l’autorisation de son chef. Art. 3 – Nul ne peut ouvrir d’école, ni enseigner publiquement sans être membre de l’université impériale, et gradué par l’une de ses facultés. Néanmoins, l’instruction dans les séminaires dépend des archevêques et des évêques, chacun dans son diocèse » (Idem).

L’empereur est ainsi parvenu à s’allier le concours des congrégations religieuses, à cette

époque mieux organisées que l’Etat pour l’enseignement, tout en contrôlant la formation des

élites et le corps enseignant : les lycées sont directement sous le chapeau de l’université. En

revanche, pour l’instruction primaire, l’enseignement se développera en fonction des rapports

de force locaux et des moyens dont disposent communes et congrégations. Cette alliance de

fortune, et toutes les contradictions de cette époque révolutionnaire, permettent de mieux

saisir les enjeux qui ont conduit progressivement à l’institution de notre système

d’enseignement centralisé, mais aussi dual, entre un enseignement public pris en charge par

l’Etat et un enseignement privé organisé par les congrégations. A la Restauration, l’université

n’est pas remise en question. Au contraire elle sera investie et utilisée par les milieux

catholiques qui, pendant la période des « ultras » au pouvoir en 1820, en profiteront pour

évincer de l’enseignement libéraux, athées, bonapartistes, protestants. Avec l’accession au

pouvoir de la Monarchie de juillet, en 1830, les libéraux reviennent aux commandes. F.

Guizot, victime des épurations de 1824-28, devient ministre de l’instruction en octobre 1832.

Mais, là encore, une fois au pouvoir, les libéraux ne songent plus à faire disparaitre

l’université et à libéraliser l’enseignement, mesure qui profiterait surtout aux congrégations

religieuses. F. Guizot s’emploie surtout à organiser l’enseignement primaire pour couvrir

l’ensemble du territoire, en structurant celui-ci autour de quatre types de structures existantes :

« publiques et privées laïques, publiques et privées congréganistes »162.

162 « Les écoles primaires publiques sont celles qu’entretiennent en tout ou partie les communes, les départements ou l’Etat » (loi Guizot – juin 1833).

Page 549: UN REFERENTIEL, POUR QUOI FAIRE

549

La loi de juin 1833 fixe les principales matières à enseigner, en laissant le libre choix des

familles pour les cours d’enseignement religieux ; elle impose aussi aux communes

d’entretenir une école primaire, aux grandes communes et chefs lieux de département, une

école primaire supérieure, et aux départements une école normale. Mais, surtout, F. Guizot

intervient de trois autres façons : 1° il crée un corps d’inspecteurs qui sillonnent le pays, et un

manuel général, bulletin du Ministère de l’instruction publique 2° il favorise l’édition de

manuels scolaires, ainsi que leur diffusion à travers toute la France, 3° la supervision des

écoles normales, qui forment les instituteurs, est du ressort de l’Etat. La loi Falloux, en mars

1850, ne modifie guère les équilibres au niveau de l’école primaire mais, comme à l’époque

de F. Guizot, la gratuité et l’obligation ne sont pas retenues. C’est surtout au niveau du

secondaire que les choses changent : la loi institue la liberté de l’enseignement et remet ainsi

en cause l’hégémonie de l’université. (C. Lelièvre ; 1990 : 89).

C’est dans ce contexte conflictuel, pour contrôler l’éducation de la jeunesse, que se

structurent les mouvements d’éducation populaire et de jeunesse. À la fin du 2nd Empire et

sous la 3ème République, diverses initiatives locales se fédèrent pour former des organisations

nationales. En 1866, Jean Macé lance son appel pour la constitution de la Ligue de

l’Enseignement. Cette mobilisation nationale revendique une instruction du peuple gratuite et

pour tous. Cette initiative profite d’un contexte favorable, en raison des réformes de

l’enseignement introduites par Victor Duruy et des discussions que celles-ci ont occasionné

dans la France entière. Les statuts fondateurs sont explicites :

« Articles 1 : La Ligue de l’Enseignement a pour but de provoquer par toute la France l’initiative individuelle au profit du développement de l’instruction publique Article 2 : Son œuvre consiste : 1) à fonder des bibliothèques et des cours publics pour les adultes, des écoles pour les enfants, là où le besoin s’en fera sentir ; 2) à soutenir et à faire prospérer davantage les institutions de ce genre qui existent. Article 3 : Il demeure entendu, que ce soit dans la composition des bibliothèques, soit dans l’enseignement des cours, soit dans le programme des écoles, fondés ou soutenus par la Ligue, on s’abstiendra de tout ce qui pourrait avoir une couleur de polémique, politique ou religieuse » (G. Poujol ; 1981 : 51).

L’arrivée au pouvoir des républicains, en 1879, modifie la donne. Jusqu’à l’année 1886, une

succession de lois institue la gratuité, puis l’obligation de l’enseignement primaire, ainsi que

le statut et la formation des instituteurs. A partir du moment où l’école devient publique et

laïque, l’action de la Ligue se recentre sur les « activités complémentaires de l’école » et sur

la formation des adultes. Dans ce même contexte, les milieux catholiques réagissent à la

laïcisation de l’école. A. de Mun fonde, avec le concours des jésuites, l’ACJF en 1886

(Association catholique de la jeunesse française). Il avait impulsé, la décennie précédente, les

cercles catholiques ouvriers pour combattre l’influence grandissante du socialisme.

Page 550: UN REFERENTIEL, POUR QUOI FAIRE

550

L’ACJF s’adresse surtout aux étudiants ; de nombreux cadres de l’Etat passeront par ses

rangs. Mais les catholiques adopteront aussi une autre forme d’action, pour réagir face aux

« lois scolaires de 1882, qui les dépossédaient en partie de leur tâches éducatives » :

« l’organisation de patronages scolaires destinés aux élèves catholiques des écoles laïques »

(G. Poujol ; 1981 : 94). Les laïques s’en inspirent pour créer les patronages laïques, souvent

avec la même préoccupation : « retirer des patronages cléricaux les enfants des écoles

laïques ». C’est donc sur un fond de concurrence et de lutte d’influence éducative que les

« activités complémentaires de l’école » ont pris leur essor à la fin du XIXème et au début du

XXème siècle. M. Turman publie un ouvrage, en 1900, qui esquisse un inventaire de ces

activités et des groupes qui en sont porteurs : « l'éducation populaire, les œuvres

complémentaires de l'école » (G. Poujol; 1981 : 94). Il reprend ainsi un concept adopté, dès

1842, par la « société pour l’instruction élémentaire » pour son organe de presse : le « journal

d’éducation populaire » (A. Léon : 1983 : 45) ; mais il y inscrit toutes les activités

complémentaires de l’école et pas seulement l’éducation permanente pour le peuple.

L'éducation populaire s'inscrit donc, dès cette époque, dans l'espace de temps non-contraint

par le travail ou la scolarité - le « temps libre » selon l'expression utilisée lors de la création

du ministère confié à A. Henry en 1981 (F. Tétard ; 2003 : 39-44). Les activités regroupées

sous ce terme générique se sont rapidement diversifiées. Outre les patronages qui s’adressent

aux enfants et la formation des adultes, cours du soir, conférences populaires, lectures

publiques, universités populaires, M. Turman y inclut les cercles d’étudiants et d’ouvriers.

Les colonies de vacances sont organisées dés cette époque, surtout dans des perspectives

sanitaires : elles sont destinées à sortir les enfants pauvres des villes. Au XXème siècle, de

nouvelles formes d’activités voient le jour, en particulier le scoutisme à partir de 1911 et, dans

les années trente, les auberges de jeunesse. La première auberge de jeunesse française est

créée le 27 août 1930, ainsi que la « ligue française pour les auberges de jeunesse », par M.

Sangnier (C. Dufrasne ; 1993 : 16), fondateur et dirigeant du Sillon, un mouvement

d’éducation populaire pour adultes, du début du siècle et d’obédience catholique. Trois ans

plus tard est constitué le CLAJ (Centre laïque des auberges de jeunesse), dont le but est « de

favoriser la création en France et dans les colonies de gîtes d’étapes dénommés auberges de

jeunesse » et de « venir en aide aux jeunes gens des deux sexes désirant voyager » (idem :

17). Mais les deux associations n’ont guère coopérer. Là encore, la concurrence entre laïques

et catholiques a induit la division, mais aussi a constitué un moteur du mouvement. L’arrivée

du Front populaire au pouvoir en 1936 et les premiers congés payés ont favorisé son

expansion, parmi les ouvriers et les employés, qui étaient peu présents les premiers temps.

Page 551: UN REFERENTIEL, POUR QUOI FAIRE

551

Les querelles reprennent à la fin de la guerre, mais cette fois ci, pour des raisons idéologiques,

entre laïques. Il faut attendre 1956 pour avoir une fédération unie (FUAJ), « organisation

technique qui s’interdit toute prise de position idéologique » (Idem : 39). A la fin de la

seconde guerre mondiale, une nouvelle dynamique se dessine pour l’éducation populaire,

avec les maisons des jeunes et de la culture ou les maisons pour tous et avec l’essor de centres

aérés (le jeudi puis le mercredi) et des colonies de vacances. Les pouvoirs publics encadrent

cette dernière activité, généralement occasionnelle et complément de ressources pour les

enseignants et les étudiants, par la création des diplômes d’état de moniteur et de directeur de

colonies de vacances. Il se dégage ainsi deux dynamiques bien différentes à l’origine de la

professionnalisation de ce milieu social : une activité occasionnelle, accessoire, qui apporte un

revenu complémentaire, soit sous forme d’indemnités, soit de vacations ; une activité

professionnelle permanente, pour gérer les équipements, les MJC, les MPT, les auberges de

jeunesse, les foyers ruraux.

Un autre virage s’opère dans les années 1970 avec la règlementation de la formation

pour les adultes (formation professionnelle continue). A la sortie de la seconde guerre

mondiale et à la suite du traumatisme provoqué par l’impact qu’ont pu avoir le fascisme et le

nazisme sur le peuple, un nouveau concept apparaît dans les années 1950, en particulier

« sous la plume des militants de Peuple et Culture (Joffre Dumazedier, Joseph Rovan, Paul

Lengrand, Jean Le Veugle), qui en affinent les contours » : « l’éducation permanente »

(Y. Palazzeschi ; 2003 : 21). « La Ligue de l’Enseignement en fait un axe structurant de son

action » (Idem) ; elle l’intègre même, à l’occasion de son centenaire en 1966, à son sigle, pour

devenir « Ligue française de l’Enseignement et de l’Education Permanente ». L’idée est de

favoriser l’ouverture culturelle du peuple à travers la formation permanente, tout au long de la

vie. Mais, si la loi du 12 juillet 1971 intègre ce concept dans son titre, suite à un amendement

introduit par voie parlementaire - « organisation de la formation professionnelle continue dans

le cadre de l’éducation permanente » -, dans les faits, ce nouveau contexte juridique favorise

bien plus la formation professionnelle que l’éducation permanente. Ainsi que le note Y.

Palazzeschi, « les organismes d’éducation populaire découvrent la réalité d’une concurrence »

(Idem : 22), que ce soit par la « multiplication d’organismes de formation privés et publics »

ou par les « associations de formation patronales ». Malgré les illusions et les utopies déçues,

l’éducation populaire s’y retrouve en partie à travers « deux nouveaux marchés, limités mais

réels », auxquels elle s’adapte plus aisément : « la formation des entreprises de l’économie

sociale », « la formation des demandeurs d’emploi et des populations fragilisées » (idem : 23).

Page 552: UN REFERENTIEL, POUR QUOI FAIRE

552

S’il est difficile de connaître la part des associations d’éducation populaire dans le second

secteur d’intervention, dans la mesure où les données de la formation professionnelle du

public en insertion regroupent tout type d’associations, leur rôle au sein des entreprises

d’économie sociale est plus aisé à identifier, au travers des différentes actions et instances

auxquelles elles participent. Les lois sur la formation permanente ont ainsi permis au champ

professionnel, qui était jusqu’alors éparpillé dans différents mouvements, de se fédérer.

Les travaux préparatoires au VIème plan, à la même époque, font bien ressortir les

préoccupations des pouvoirs publics, en particulier des différents ministères concernés par

l’animation. Un groupe commun a réuni les représentants de quatre commissions : « Action

sociale, Activités sportives et socio-éducatives, Affaires culturelles, Éducation nationale ».

Dans la partie qui concerne la commission des activités sportives et socio-éducatives, on

retrouve les orientations des associations d’éducation populaire de cette époque :

« Les activités sportives et socio-éducatives doivent être considérées comme un élément essentiel de l’éducation permanente. Elles le sont dès le plus jeune âge (…). Elles ne cessent de l’être à tous les âges de la vie dans une société où les conditions d’habitat et de travail tendent à replier les individus sur eux-mêmes, tandis que l’évolution accélérée des techniques et du langage rend de plus ne plus difficile l’effort individuel et collectif pour comprendre son environnement et agir sur ses transformations. La pratique régulière du sport et des activités de plein air est aussi un facteur de santé » (éléments des rapports préparatoires cités par H. Théry ; 1975 : 8).

Les préoccupations sont similaires au niveau des affaires culturelles, face à un monde de plus

en plus atomisé et sectorisé :

« Le travail rationalisé et impersonnel, l’habitat grégaire, le déferlement des informations, la sollicitation d’une consommation toujours accrue tendant à faire de (l’individu) un spectateur ou un objet manipulé par des forces qui lui échappent. Acquérir une culture est pour l’homme d’aujourd’hui le moyen de retrouver son autonomie, c'est-à-dire la capacité de juger ce monde qui l’entoure, d’exprimer sa relation avec les choses en même temps que de communiquer avec autrui. Ainsi, la culture, moyen d’autonomie, devient aussi la condition de l’initiative retrouvée, de la relation avec autrui » (Idem : 12).

Les conceptions sont sensiblement différentes du côté de la commission de l’action sociale,

qui « prend nettement position contre une attitude d’assistance et de protection, qui loin de

favoriser l’autonomie des personnes, accroit au contraire leur dépendance » et qui se prononce

pour « donner la priorité aux actions préventives et compléter l’action thérapeutique par une

action promotionnelle » (Idem : 10). La référence à l’animation y apparaît moins souvent,

même si les projets se recoupent. A partir de ces rapports, H. Théry discerne trois fonctions de

l’animation : la première de « médiation éducative et culturelle », la seconde de « médiation et

d’innovation sociales », « chargée d’instaurer de nouveaux systèmes de communication ».

Page 553: UN REFERENTIEL, POUR QUOI FAIRE

553

La troisième apparaît alors la conséquence des deux premières : « facteur de croissance

économique et de développement », à travers la création d’institutions dont la vocation serait

la coordination et la communication, et sur lesquelles pourrait s’appuyer la planification. Par

ailleurs, dans le rapport commun, sont recensés les principaux lieux de l’activité : « rôles

politiques qui s’exercent dans des groupes affinitaires et volontaires » ; « rôle de direction, de

coordination et d’orientation » dans « les établissements ou équipements » socio-éducatifs, de

formation ou de création culturelle ; « responsables de l’animation globale » dans les

collectivités territoriales » (idem : 27-29). Les projections portent aussi sur le personnel à

former, surtout celui des activités sportives et socio-éducatives, les deux autres commissions

étant moins prolixes : c’est au moins 50 000 « moniteurs »163 par an pour les activités

occasionnelles et 8 700 animateurs permanents sur cinq ans. Par ailleurs, le rapport estime à

60 000 le nombre d’animateurs socio-éducatifs et socioculturels dont la France a besoin pour

1985 (ils ne sont que 6 300 en 1970). Ainsi le VIème plan, dans les années 1970, est celui qui

anticipe les grandes lignes du développement de la profession et de l’effort de formation à

fournir dans les décennies qui vont suivre. Au regard des données statistiques, ces

prospectives ne se sont guère fourvoyées. On peut cependant s’interroger au moins sur un

point : les profils des professionnels de ce secteur sont-ils vraiment ceux prévus par les

différentes commissions qui ont participé à l’élaboration du VIème plan ?

1-2) Les relations entre l’éducation populaire et le mouvement ouvrier, les notions de

fonction et de conjoncture :

Il ne s’agit pas ici de s’engager dans une étude historique de l’éducation populaire, les

travaux ne font pas défaut dans ce domaine. Il s’agit seulement de faire un point pour cerner

le rôle des référentiels lors de la constitution des milieux professionnels, en l’occurrence ceux

de l’éducation populaire. J. Bourrieau (2001 : 15-19), qui s’appuie sur les travaux d’O.

Douard, met en valeur un phénomène qui nous interpelle : à partir des années 1945,

« l’éducation populaire (…) met la classe ouvrière au centre des préoccupations éducatives et

sociales des mouvements qui s’y réfèrent ». Les dirigeants y font référence, jusqu’à souligner

son rôle émancipateur pour le mouvement ouvrier.

« Arlette Burgy, directrice du « Centre Conseil 1901 » de Besançon, a tenté, dans le cadre d’une recherche personnelle sur l’éducation populaire, de mettre en parallèle à travers un tableau, les évolutions du mouvement ouvrier d’une part, du mouvement d’éducation populaire d’autre part » (J. Bourrieau ; 2001 : 16).

163 Terme utilisé à l’époque pour les animateurs des centres aérés et des colonies de vacances.

Page 554: UN REFERENTIEL, POUR QUOI FAIRE

554

G. Poujol a aussi analysé la vie associative au XIXème et, en particulier, le développement

conjoint du mouvement ouvrier et des mouvements d’éducation populaire. Mais elle est

beaucoup plus réservée sur l’hypothèse d’« une relation de cause à effet dans l’apparition de

l’un et de l’autre mouvement » : les mouvements d’éducation populaire ont été

essentiellement animés « par des notables » (1981 : 21), malgré la participation de certains

ouvriers, en particulier lors de la création de la Ligue. Certes cette implication ouvrière est

beaucoup plus sensible lors des universités populaires, à la fin du XIXème et au début du

XXème siècles, mais cette collaboration entre les milieux intellectuels et la classe ouvrière a été

de courte durée. Ne faut-il pas alors plutôt chercher la cause de ce développement

concomitant dans les progrès économiques et sociaux de l’époque ?

« L’apparition de ces mouvements doit bien son origine à la même cause : la révolution industrielle qui restructure les classes sociales et donne à certaines fractions de classe un rôle nouveau et socialement actif » (G. Poujol ; 1981 : 21).

De nouvelles conditions matérielles, conjoncturelles, ont favorisé de nouvelles formes de vie

sociale, ne fut-ce que la plus grande facilité des déplacements et des correspondances

épistolaires. Sans celles-ci, comment aurait-il pu y avoir un essor des fédérations d’éducation

populaire et des confédérations ouvrières, mais aussi des fédérations sportives, des sociétés

savantes. Au-delà d’une restructuration du tissu économique, qui n’est guère contestable, les

nouveaux modes de communication de la société - dont l’instruction des masses laborieuses

n’est pas la moindre condition - ont favorisé de nouveaux modes d’organisation, bien

différents des corporations professionnelles ou des congrégations de l’ancien régime. Il ne

s’agit pas de nier le rôle historique joué par un grand républicain comme P. Waldeck-

Rousseau, dans la mise en chantier des lois relatives à « la liberté des syndicats

professionnels » (21 mars 1884) et « au contrat d’association » (loi 1901) (J.C. Gillet ; 2001 :

17-20). Mais la naissance et l’organisation de ces mouvements sociaux sont largement

antérieures à ces deux lois, qui, dans l’esprit des élites de l’époque, s’inscrivent plus dans une

perspective de contrôle social, du moins de maintien de l’ordre face aux poussées

revendicatives du socialisme, que d’un développement du mouvement associatif. Ainsi la

position sociologique introduit-elle un regard spécifique, face aux évènements historiques :

elle n’explique pas le mouvement social par des idées communes qui préexisteraient et

« s’empareraient des masses », elle étudie les conditions organiques qui favorisent l’extension

des idées et l’organisation de nouveaux modes de communication. Quelles sont les nouvelles

circonstances matérielles sans lesquelles les phénomènes observés n’auraient pu exister ?

Page 555: UN REFERENTIEL, POUR QUOI FAIRE

555

On retrouve ici la méthode des variations proposée par la phénoménologie (pages 57 et 58),

qui met ainsi en valeur les facteurs essentiels des transformations sociales.

Les travaux d’A. Léon (1983) introduisent une conception différente, et

complémentaire, en s’appuyant sur la notion de « fonction ». Quelles sont les raisons

évoquées, à différentes époques, par ceux qui ont participé à ces actions ? Il définit pour cela

son corpus en référence aux personnes qui ont été des acteurs importants de ces mouvements,

et il interroge les écrits les plus significatifs pour identifier les arguments qui reviennent de

façon récurrente. Si on prospecte ainsi en amont des grandes organisations qui se sont

fédérées à la fin du Second Empire et sous la Troisième République, il est possible de

retrouver l’action des libéraux de la « société pour l’instruction élémentaire » qui fonde, dès

1815, le « Journal de l’éducation » qui devient « Journal de l’éducation populaire » en 1842.

« La Société ouvre des cours normaux pour les instituteurs, introduit la gymnastique et la musique dans les programmes scolaires et participe à la loi Guizot (…) elle suscite la création de cours d’adultes, d’écoles du dimanche, de cours dans les régiments et dans les prisons, de bibliothèques populaires, etc. » (A. Léon ; 1983 : 45).

Lors de l’accession des libéraux au pouvoir, à la suite de l’insurrection de 1830, est aussi

fondée l’Association Polytechnique. A. Comte fait partie du premier bureau. En mars 1848,

une scission conduit à la création de l’Association Philotechnique. Ces associations proposent

« une formation d’un niveau supérieur à celui des cours d’adultes » (idem : 47). L’Association

Philotechnique accentue le caractère pratique et professionnel de l’enseignement. Les

premiers statuts de cette association exposent les objectifs des promoteurs :

« L’association a pour objet de donner aux ouvriers adultes une instruction appropriée à leurs besoins et d’en faire par là des citoyens utiles à eux-mêmes et à leur pays » (Idem : 47).

Ainsi, à partir des différents écrits et des interventions publiques que l’auteur a pu recenser,

celui-ci discerne quelques « fonctions » de l’éducation populaire :

- Pour les milieux libéraux, dont certains ont participé aux gouvernements de l’époque (F.

Guizot, V. Duruy), les fonctions sont surtout sociales et politiques. Dans le premier cas, il

s’agit de prévenir les « fléaux sociaux » que sont le « désœuvrement et ses conséquences,

l’alcoolisme, le vagabondage, la délinquance » (idem : 88). Par ailleurs, l’instruction

permet la diffusion de manuels à caractère sanitaire ou moral. Dans le second, l’éducation

populaire favorise la rencontre et la réconciliation des classes. Dans les cours, les patrons

côtoient les milieux populaires. Pour les ouvriers les plus qualifiés, c’est un moyen de

promotion et de reconnaissance par le patronat local.

Page 556: UN REFERENTIEL, POUR QUOI FAIRE

556

- Mais les courants socialistes et les ouvriers s’approprient aussi les revendications d’une

éducation pour tous, qui favorise la libération des travailleurs. A. Léon s’appuie, pour

l’argumenter, sur les prises de position des leaders qui ont acquis de la notoriété au sein

des organisations ouvrières. Il recense ainsi trois nouvelles fonctions : le développement

des facultés164 des ouvriers, tout au long de leur vie, et de leur dignité ; l’alternance entre

l’école et le monde du travail ; enfin un droit au loisir qui permet d’avoir du temps pour se

cultiver. Mais le discours de la classe ouvrière se démarque du caractère moralisant et

social de la pensée libérale sur l’éducation populaire (idem : 147-152) et cette divergence

de positionnement a certainement éloigné les ouvriers de ces mouvements, à l’exception

des moments forts lors des mobilisations sociales, comme le furent celle de la fin du

Second Empire ou la période des universités populaires.

- Par ailleurs, une des problématiques récurrentes est l’adaptation des formes

d’enseignement aux ouvriers qui n’ont souvent que des bases rudimentaires de lecture et

d’écriture, et des niveaux d’apprentissage très différenciés. Lors de la réforme de

l’enseignement primaire par F. Guizot, la méthode des « Frères des écoles chrétiennes »

s’est imposée, surtout en raison du découpage par classe de niveau, au détriment de

l’enseignement mutuel. Le cours magistral devient dominant, avec une progression par

niveau de qualification. Les associations polytechnique et philotechnique, et les cours

d’adultes en général, se moulent dans ces méthodes d’enseignement. Mais, pour élever le

taux de participation des ouvriers, les organisateurs se confrontent progressivement à des

questions pédagogiques. Cette réflexion redouble, bien entendu, à partir du moment où se

développe la lutte d’influence entre les courants laïques et catholiques, d’autant que les

institutions publiques et certains organisations « neutres » sont aussi perçues comme une

concurrence. Diverses méthodes voient le jour à cette époque : l’alternance d’études

scolaires ou professionnelles avec des « séances récréatives », l’enseignement centré sur

les professions des élèves, le débat comme processus éducatif ou la participation des

travailleurs à la gestion des universités populaires :

« Dans les cercles d’études du Sillon, l’initiative laissée au jeune ouvrier, la part active qu’il prend à la préparation des réunions, à l’exposé ou à la réfutation des objections, sont jugés « absolument essentielles ». Il en va de même pour la fondation universitaire de Belleville où les auditeurs sont préparés à intervenir pendant les cours, grâce aux notes et aux indications bibliographiques qui leur sont préalablement remises par le professeur » (A. Léon ; 1983 : 133).

164 On parlerait aujourd’hui de « compétences ».

Page 557: UN REFERENTIEL, POUR QUOI FAIRE

557

La difficulté « d’obtenir une assiduité sérieuse de gens qui ont passé toute la journée aux

champs et qui rentrent le soir fatigués » (un inspecteur en 1895) est de plus en plus mise en

évidence. « On n’enseigne pas des ouvriers qui finissent tard leur travail comme on enseigne

des jeunes gens obligés de venir en classe » (C. Guiyesse) – (Citations reprises par A. Léon ;

1983 : 129 et 135). Ainsi se développent de « nouvelles attitudes pédagogiques : le souci

d’expliquer, de démontrer, l’emporte sur celui d’imposer et de prescrire » (Idem : 128). Les

conférences populaires apparaissent alors comme un moyen « d’amorcer » l’action éducative

auprès des travailleurs. Des outils pédagogiques sont mis en place par le Ministère de

l’instruction publique : liste de sujets de conférences avec ouvrages de référence, livres

élémentaires et vues à projeter. La « lanterne à projections » vient donc compléter le

dispositif. Mais l’apparition du cinéma et de la TSF se substituent à ces méthodes, et tue

progressivement les conférences au sortir de la première guerre mondiale. Le cinéma devient

lui-même objet de promotion au sein des associations d’éducation populaire : une fédération

de ciné clubs est créée en 1928 (G. Poujol ; 1989 : 19, 20). Ainsi, avec la lutte d’influence que

se livrent les milieux laïques et catholiques, apparaît une nouvelle fonction de l’éducation

populaire : la réflexion pédagogique et la mise au point de méthodes adaptées aux travailleurs

et aux néophytes. Elle prend son essor à l’issue de la seconde guerre mondiale avec les stages

de formation et « l’entraînement mental », proposé par l’équipe de Peuple et Culture.

Deux concepts ouvrent donc des perspectives pour analyser la formation des systèmes

de référence de l’éducation populaire : 1° celui de « fonction » des actions sociales que

s’approprient de nombreux acteurs : elle consiste à analyser les mobiles de ceux-ci, en rapport

avec les modes d’action et d’organisation mis en œuvre. Ce concept n’englobe pas seulement

l’étude des conceptions des acteurs à l’origine des mouvements, mais aussi de ceux qui

s’inscrivent dans ces actions et se les réapproprient. L’analyse des rapports entre les

différentes composantes d’un mouvement permet de saisir les enjeux au sein de ces nouveaux

modes d’organisation, et d’interpréter la façon dont ceux-ci ont évolué au fil du temps. Ce

concept de fonction sera exploité lors de la seconde expérience pour analyser

l’articulation entre les mobiles plus ou moins explicites des acteurs et les modalités de

l’action. 2° Le second concept est celui de « conjoncture » : il consiste à dégager les

conditions sociales qui sont indispensables pour que certains modes d’organisation soient

adoptés par un grand nombre de personnes et qu’ils puissent se généraliser à l’ensemble de la

société. La méthode des variations est alors adéquate pour discerner les facteurs essentiels de

ces transformations. Qu’est ce qui a permis à certaines pratiques innovantes, tout d’abord

d’exister, puis de se généraliser auprès d’un grand nombre d’acteurs qui les ont reproduites ?

Page 558: UN REFERENTIEL, POUR QUOI FAIRE

558

Le concept de « conjoncture » exprime l’idée d’une conjonction entre les différents facteurs

qui ont conduit à la transformation des pratiques sociales. Mais la « conjoncture » n’est pas la

« fonction », même si, par ailleurs, les deux phénomènes s’articulent pour générer l’expansion

d’un mouvement social. La « fonction » relève de l’argumentaire rationnel des acteurs qui

justifient la mise en œuvre des actions, alors que la « conjoncture » est l’ensemble des

conditions socio-économiques et socioculturelles qui ont rendu possible la généralisation des

actions, aussi bien que des argumentaires qui les accompagnent. Cette différenciation est

importante pour notre propos. Si les argumentaires, qui justifient les actions, ne sont pas les

facteurs qui favorisent leur expansion sociale, quelle est alors leur fonction ? On touche ici

directement à la question des référentiels et de leur articulation avec des pratiques sociales qui

se sont instituées à une époque et sont reproduites de nos jours, sans même que les acteurs

aient conscience des raisons qui ont conduit à cette institutionnalisation - à l’exception des

historiens, bien entendu. Les référentiels ne gardent-ils pas ainsi la trace des mobiles des

fondateurs ? Si tel est le cas, les mobiles de l’action sociale ne se maintiennent pas en fonction

des conjonctures, qui évoluent au fil des siècles, mais en raison des multiples fonctions que

l’histoire (ou plus exactement la reproduction institutionnelle) a conservées. Celles-ci,

déconnectées des conditions sociales qui en furent à l’origine, s’expriment alors sous forme

idéalisées, voire mythifiées. Cette mythification se traduit, en particulier, par une référence

aux pères fondateurs : pour l’éducation populaire, c’est A.C. de Condorcet (on parle plus

fréquemment, dans les milieux concernés, de « rapport Condorcet »), J. Macé, A. de Mun ou

M. Sangnier. Mais l’historien nous rappelle que les réalités sociales sont toujours plus

complexes : le rapport Condorcet n’est pas isolé des réflexions de son époque, l’éducation

populaire est bien antérieure à la création de la Ligue de l’Enseignement, l’UCJG (Union

Chrétienne de Jeunes Gens) a précédé l’ACJF de vingt ans, le développement du Sillon est

contemporain du puissant mouvement des universités populaires. Les fondateurs n’ont pas

créé, ils ont plutôt bénéficié de conjonctures favorables, à un moment où les conceptions

sociales étaient suffisamment élaborées pour être réceptives à leurs argumentaires. Il n’en

demeure pas moins que les acteurs sociaux se rattachent à ces mythes et à ces idéaux, qui ont

une fonction pour « donner du sens aux actions », en d’autres termes pour les inscrire dans

des systèmes de référence cohérents. La référence n’est plus alors la source objective de

l’action, mais la fonction dans sa forme idéalisée et mythifiée. Les complexes contradictions

de l’éducation populaire sont, à ce titre, pertinentes pour analyser ces phénomènes

d’idéalisation et de mythification, certainement indispensables à la cohérence structurelle de

nos sociétés modernes. L’étude de ce milieu nous permettra d’approfondir cette hypothèse.

Page 559: UN REFERENTIEL, POUR QUOI FAIRE

559

2) Le milieu professionnel de l’animation :

2-1) L’essor de la professionnalisation :

Les initiatives des pionniers auraient-elles pu conduire au développement d’un secteur

professionnel si certaines conditions sociales et matérielles n’avaient pas été remplies ? Un

ensemble important de facteurs ont conduit à l’essor de cette profession. Il n’est pas simple de

tous les identifier, ni de faire ressortir les plus essentiels ; leur recherche, dans un premier

temps du moins, est de ce fait parcellaire, mais il est toujours possible de poser le cadre de

l’analyse. L’éducation populaire, d’impulsion libérale à l’origine, prend de l’ampleur à la fin

du XIXème siècle, à l’instar tous les mouvements fédéraux associatifs. Au fur et à mesure que

les rangs grossissent, des relations s’instaurent avec le mouvement ouvrier, mais il faut

attendre la fin de la seconde guerre mondiale, pour que la classe ouvrière investisse de façon

conséquente l’éducation populaire. Les données sociologiques des professionnels de

l’animation (G. Poujol, 1989 : 152,153 ; F. Lebon, 2009 : 89 - 91) montrent bien que, de nos

jours encore, l’éducation populaire remplit une fonction importante d’ascenseur social. Un

premier facteur semble avoir été déterminant, c’est la libération du temps libre à partir du

Front Populaire : semaine de 40 heures, congés payés. L’incidence sur le développement des

auberges de jeunesse a été immédiatement perceptible. Sur les colonies de vacances ou sur les

maisons de jeunes et de la culture, elle ne le sera qu’après la guerre. L’éducation permanente

s’amplifie aussi, surtout à partir des années soixante, par réaction au totalitarisme (cf.

l’initiative de Peuple et Culture), mais aussi en raison des nouveaux comportements sociaux

que favorise le temps libre. La Ligue inscrit cet objectif dans son titre en 1966. Mais ce seul

facteur n’expliquerait qu’en partie la physionomie actuelle du secteur professionnel. A cette

époque, un effort important d’équipements socioéducatifs est aussi mis en œuvre par les

pouvoirs publics. Certainement est-il favorisé par le plan Marshall. Il est renouvelé à la fin

des années soixante et au début des années soixante-dix avec l’opération des mille clubs, dont

le chiffre à la fin de l’opération approche les 3000, mis à disposition de municipalités. G.

Poujol liste ce parc d’équipements à la fin des années 1980 qui, outre les milles clubs,

comprend 2000 foyers ruraux, 700 foyers de jeunes travailleurs, 363 auberges de jeunesse,

1200 centres sociaux, 1500 MJC réparties dans les deux fédérations, sans compter maisons

pour tous et maisons de quartier qui ne sont pas affiliées à des fédérations nationales.

Page 560: UN REFERENTIEL, POUR QUOI FAIRE

560

Mais les équipements socioéducatifs ne sont pas tous permanents : outre les colonies de

vacances, qui ne sont pas évoquées dans cet inventaire, l’auteur relève 13 000 centres de

loisirs sans hébergement, 1220 foyers socio-éducatifs et 600 centres d’animation sur les lieux

de vacances. (G. Poujol ; 1989 : 15). On observe donc, dès l’origine de la

professionnalisation, au moins deux facteurs165 divergents : 1) la gestion des équipements

socioéducatifs avec du personnel permanent sur l’année. Ce noyau stable a été

progressivement secondé par des vacataires, sur certaines activités spécialisées (artistiques,

culturelles, sportives) ; 2) des activités occasionnelles, en particulier les colonies de vacances,

les centres de loisirs sans hébergement ou les centres d’animations estivaux, avec un

personnel occasionnel qui a souvent un autre statut : instituteur, étudiant, employé ou ouvrier,

etc. L’indemnité est souvent, dans ce cas, un complément de revenu. Paradoxalement, c’est

surtout dans ce second secteur d’activités que la formation et les diplômes ont été mis en

place, dès 1946. Au sein du premier secteur, permanent, la promotion s’est faite, à l’origine

du moins, par une cooptation de militants au sein du mouvement associatif.

D’autres facteurs entrent aussi en ligne de compte pour expliquer l’émergence de la

profession. G. Poujol (1983 : 80-94), qui reprend sur ce point la classification des rapports

préparatoires au VIème plan, distingue les animateurs socioculturels des animateurs culturels et

des animateurs sociaux. Les premiers s’investissent pour populariser et diffuser les activités

culturelles : on les retrouve surtout dans le spectacle vivant, théâtre et chanson, mais aussi

dans le cinéma, l’audiovisuel et les expositions. Les musées, de nos jours, font aussi appel à

des animateurs pour attirer la clientèle, en particulier le public scolaire. Les seconds

s’implantent surtout dans les foyers de jeunes travailleurs ou de personnes âgées, mais aussi

dans les instituts de rééducation. Enfin F. Lebon souligne un paradoxe entre l’animation

volontaire et l’animation professionnelle, qui a été vecteur d’un fort taux de

professionnalisation.

« Alors que se développent le salariat féminin et les emplois dans le secteur de la garde et de l’éducation des enfants, la création du BAFA coïncide avec la reconnaissance et la multiplication des centres de loisirs sans hébergement (CLSH). Avec les inventions du centre de loisirs (1970), puis du BAFA (1973), le type de qualification attendue du personnel des centres de loisirs est formellement semblable à celui du personnel des anciennes colonies de vacances. L’espace d’obligation du brevet s’étend et la « professionnalisation » dans les centres de loisirs prend de l’ampleur » (F. Lebon ; 2009 : 18)

165 Le concept de « facteur » est ici employé au sens de composante d’une « conjoncture ». Il ne s’agit donc pas d’un facteur au sens de l’analyse factorielle (P. Cibois ; 1983), même si par ailleurs la logique de conjonction des données observées est du même ordre. Mais la recherche des facteurs ici proposée est fondée sur la méthode des variations. En revanche, les méthodes quantitatives peuvent être complémentaires en infirmant ou confirmant les résultats de la démarche phénoménologique et analytique de l’historien.

Page 561: UN REFERENTIEL, POUR QUOI FAIRE

561

On peut estimer à plus du quart des 110 à 120 000 animateurs166 ces professionnels qui

encadrent de nos jours, de façon permanente, les accueils de loisirs - dénommés « centres

aérés » en 1960 et « centres de loisirs sans hébergement » en 1970167. Alors que le BAFA a

été repensé pour l’activité occasionnelle, en 1973, à partir de l’ancien diplôme d’état de

moniteur créé en 1946 (cf. historique ci-dessous), il est de nos jours le seul à être

indispensable pour exercer certaines fonctions. De ce fait, il est le seul dénominateur commun

en termes de qualification. C’est donc les modalités de validation de ce diplôme qui ont été

mises à l’étude dans l’expérience N° 1 (chapitre 12) pour analyser ce qui est en jeu dans l’acte

de validation, au niveau micro-structurel : entre un formateur et un stagiaire, ou au niveau de

l’évaluation certificative, entre l’examinateur et le candidat à la fonction.

La seconde expérience (chapitre 13), en revanche, a plutôt été centrée sur les enjeux

sociaux de l’évaluation, pour un des secteurs qui constituent la mosaïque de ce milieu

professionnel. L’approche a été plus globale et sociologique. Dans les années 1980, une

nouvelle fonction a été génératrice d’emploi au sein des mouvements associatifs de

l’éducation à l’environnement. Les pouvoirs publics ont pris conscience des enjeux socio-

économiques, dans les années à venir, autour de cette problématique et ils investissent auprès

de ces nouveaux mouvements pour sensibiliser la population, voire la préparer à des mesures

règlementaires qui s’avèreront inévitables. Faut-il alors parler d’éducation populaire ? La

question mérite d’être posée car la démarche n’est plus tout à fait la même que celle des

grandes mobilisations du XIXème et début XXème siècles. Cependant le modèle professionnel

reste celui de l’animation : il est étroitement en lien avec la planification de projets politiques

sur le long terme, pour construire de nouveaux rapports sociaux. Cette logique correspond aux

mêmes modes de communication sociale que l’éducation populaire, mais aussi que

l’éducation à la santé et de l’éducation culturelle. L’étude sociologique des processus au sein

de ce réseau d’animateurs répond donc bien à notre préoccupation : situer les pratiques

d’évaluation dans les systèmes sociaux au sein desquels elles acquièrent du sens168.

166 La grande majorité de la fonction publique territoriale, qui a 13 000 emplois dans la filière animation, auquel il convient de rattacher une partie du secteur associatif : 1/4 des 12 000 entreprises de la branche animation ont un domaine d’activités dans « l’éducation scolaire et périscolaire », d’après l’enquête conduite en 2005 par le CPNEF (Commission paritaire nationale emploi formation). 167 Arrêtés du 19 mai 1960 et du 1er juin 1970 168 La notion de « sens » s’entend ici selon la signification qui en a été construite au ch. 6 & 4, ch. 8 & 4, ch. 9 et ch. 10 & 1 et 3. Le sens apparaît ainsi comme la construction d’un système de référence commun, pour des acteurs qui agissent dans des contextes similaires, selon des modes d’actions structurés autour des mêmes façons de faire, des mêmes représentations sociales.

Page 562: UN REFERENTIEL, POUR QUOI FAIRE

562

La construction très empirique de ce milieu professionnel se traduit aujourd’hui par

« des emplois segmentés : autour d’un cœur de salariés stables, de nombreux emplois

précarisés » (N. Favarque, 2008 : 51). Cela explique la grande « variabilité des trajectoires

d’entrée dans l’animation professionnelle » (J. Camus ; 2008 : 41). L’animation

« occasionnelle » serait, pour certains, un tremplin vers l’animation « professionnelle »,

profitant surtout à « ceux qui présentent une origine sociale modeste » (idem : 37). Ainsi que

le souligne cet auteur, « cette manière sans doute trop positive de situer, l’un par rapport à

l’autre, les secteurs « occasionnels » et ceux « professionnels » pose la question des

« modalités du processus de sélection » (idem : 38). A partir d’observations ethnographiques,

il a mis en valeur les processus qui conduisent les jeunes animateurs (trices) à s’inscrire dans

les modes de fonctionnement implicites du milieu professionnel :

« Principe de hiérarchisation des agents, l’« expérience » s’acquiert par l’intériorisation des manières de faire spécifiques à l’animation et par la reconnaissance de cette intériorisation par les pairs. Elle permet la régulation (et bien souvent l’autorégulation) des positions des animateurs par l’attribution de tâches elles mêmes hiérarchisées et tend à structurer le discours des agents en les amenant progressivement à considérer leur activité avec « sérieux » » (J Camus ; 2008 : 39).

Des façons de faire, de parler, des modes de communication, des positionnements et des rites

qui sont codés, et qui déterminent le « rôle social » de l’animateur, au sens défini par E.

Goffman. Ces représentations structurent les interactions entre individus et elles ont une

fonction ergonomique pour les relations au sein du groupe : la communication n’est possible

que si les « conditions de félicité » sont remplies pour que les interlocuteurs interprètent de

façon adéquate leurs façons de faire et de parler (E. Goffman, 1981). On fait l’hypothèse

qu’elles s’inscrivent aussi dans les jeux de reconnaissance sociale de ce groupe à l’encontre

des partenaires sociaux. Ce sera l’objet de l’expérience N° 2 (ch. 13). Les membres du groupe

se reconnaissent dans ces rituels qui les identifient et caractérisent leurs missions, ils se font

ainsi reconnaître par les autres membres de la société. L’expérience N° 1 (ch. 12) vient en

complément d’une telle approche ethnographique : la sélection ne s’opère pas seulement à

travers les représentations sociales, sur le terrain, mais aussi s’exprime implicitement dans les

échanges de conceptions169. L’analyse plus poussée des critères des examinateurs, en tant que

constructions de l’argumentaire, nous permettra d’observer la façon dont les échanges

langagiers s’articulent avec ses représentations du « rôle social ».

169 Sur la différence et l’articulation entre conception et représentation sociale (pages 273 à 285).

Page 563: UN REFERENTIEL, POUR QUOI FAIRE

563

La reconnaissance des candidats comme des pairs par les collègues professionnels est

le propre de nos systèmes de qualification contemporains, l’évolution moderne des

corporations de métiers de l’Ancien régime. Dans le milieu de l’animation, cette

reconnaissance repose sur un paradoxe mis en valeur par F. Lebon. Le seul diplôme qui

sanctionne cette reconnaissance est le BAFA, pour plus de la moitié des curricula

professionnels, alors que, depuis 1986, son rôle de diplôme occasionnel a été bien défini par

le ministère de tutelle. Mais ce diplôme a été institué à l’époque des arrêtés Parodi-Croizat, au

moment où se sont instituées les conventions collectives, en particulier celles de la fonction

publique aménagée (pages 268 et 269), alors que les diplômes professionnels et la convention

collective de l’animation socioculturelle se sont construits à l’époque des conventions à

critères classants, auxquelles se rattachent les différentes filières de l’animation. L’expérience

N° 3 (chapitre 14) nous apportera des éléments d’information complémentaires. Les

conceptions des métiers de l’animation, telle qu’elles sont exposées dans le RNCP (répertoire

national des certifications professionnelle), y sont comparés à celles des métiers de la fonction

publique aménagée (éducateur spécialisé, infirmier, assistant de service social,

psychomotricien, ergothérapeute) avec, pour hypothèse, qu’elles s’inscrivent dans la même

logique (analyse grammaticale) et dans les mêmes champs sémantiques (analyse de contenu).

Pourtant les branches de l’animation sont, en termes de conventions collectives, rattachées à

celles des critères classants qui ont été mis en place pour s’adapter aux besoins et au

développement de l’industrie moderne (industries chimiques, pharmaceutiques,

agroalimentaires, génie thermique). Ce phénomène confirme le poids de la conjoncture dans

la façon dont les diplômes acquièrent une reconnaissance sociale. La fonction intervient

beaucoup plus dans la formation des conceptions et des argumentaires qui justifient les

modalités de la certification (critères), mais la conjoncture semble plus prégnante sur la façon

dont les diplômes sont gérés et intégrés dans les rapports sociaux de production. Comment la

fonction et la conjoncture s’articulent-elles pour générer des pratiques plus ou moins

conformes à certains modèles, ou pour normaliser les modes d’actions en rapport avec

certaines représentations sociales ?

Les procédures d’évaluation sont un champ d’observation intéressant dans la mesure

où elles sont normalisées, du moins en intention. Les textes officiels, voire certains travaux de

commissions, permettent de dégager les principales fonctions à partir des conceptions des

acteurs à l’origine de celles-ci. Les conjonctures apportent des informations complémentaires

sur la dynamique sociale, en particulier sur les contraintes socio-économiques et les

contingences socioculturelles qui ont été des facteurs de construction du champ professionnel.

Page 564: UN REFERENTIEL, POUR QUOI FAIRE

564

Il est ainsi possible d’inférer certaines représentations sociales implicites qui dominent le

champ. Les modalités de ces procédures peuvent être recherchées, soit historiquement à partir

d’archives ou de presse spécialisée, soit sociologiquement en interrogeant les acteurs sur leurs

modes d’action et leurs interprétations, sur les difficultés rencontrées et leurs adaptations, sur

leurs motivations individuelles et leurs critères. La perspective proposée est donc d’analyser

la façon dont les conceptions fonctionnelles des acteurs sont ajustées aux circonstances

conjoncturelles par ceux qui s’approprient ces systèmes de référence (référentiels). Cette

orientation a été amorcée au cours de l’expérience N° 2 (chapitre 13). L’objectif est de la

poursuivre au travers de l’expérience N° 3 (chapitre 14) qui en restera à une phase

intermédiaire : pour l’instant, seule l’analyse des conceptions du métier a été conduite.

Après le contexte professionnel, il convient maintenant de brosser l’historique des

différents diplômes de l’animation. La professionnalisation s’accompagne effectivement

d’une reconnaissance à travers des diplômes qui sont, de ce fait, l’expression de ces enjeux.

2-2) Les diplômes de l’animation :

Si les premières colonies de vacances pour mineurs remontent à la seconde moitié du

XIX ème, le premier décret-loi apparaît en juin 1938170. Ce décret-loi règlemente l’ouverture

des hébergements collectifs de mineurs qui « doivent préalablement en faire la déclaration au

préfet ». Mais il dépasse largement le domaine des colonies et des camps de vacances,

puisqu’il concerne tous les équipements qui accueillent et hébergent des mineurs en dehors du

domicile familial. La formation du personnel d’encadrement des colonies apparaît à la même

époque, les premiers stages pour les moniteurs sont mis sur pied en 1937. Ces phénomènes

traduisent certainement les préoccupations d’une époque qui s’interroge de plus en plus sur

les conditions d’accueil des mineurs. A l’issue de la seconde guerre mondiale, le

développement des colonies de vacances est conséquent, certainement induit par les congés

payés qui offrent aux classes laborieuses un nouvel accès aux loisirs. Par ailleurs, les pouvoirs

publics favorisent cet essor par une politique volontariste, en particulier en participant au

financement des séjours.

170 La règlementation dans ce domaine d’activité, n’apparaît pas avec ce décret-loi mais, pour notre objet d’étude, il n’est guère utile de remonter plus loin dans le temps.

Page 565: UN REFERENTIEL, POUR QUOI FAIRE

565

C’est par circulaire, à l’issue de la guerre mondiale, que l’Education nationale institue

« les conditions à remplir pour obtenir les diplômes d’état de moniteurs et de directeurs de

colonies de vacances » (29 mars 1946). C’est peu après cette initiative que certains jeux

institutionnels entre ministères surgissent, en particulier avec le « transfert d’attribution du

ministère de la santé publique et de la population, au ministère de l’éducation nationale »

(décret du 15 janvier 1947). La circulaire du 7 juillet 1951 en exprime nettement les enjeux.

Une différence est ainsi introduite entre les hébergements à caractère « sanitaire », qui restent

sous le contrôle du ministère de la santé, et les « colonies de vacances », « œuvres

d’institutions organisant, hors du domicile familial, en régime d’internat et sous la direction

d’un personnel qualifié, le séjour temporaire d’enfants sains 171 » (arrêté du 14 avril 1949),

qui passent sous la tutelle du « secrétariat d’état à l’enseignement technique, à la jeunesse et

aux sports » (délégation d’attribution par décret du 14 septembre 1948). Les premiers arrêtés

d’application sur ces colonies sont écrits à partir de 1949 : le 14 avril pour ce qui concerne les

conditions de déclaration, d’encadrement, ainsi que les contrôles et sanctions, le 11 mai 1949

pour les conditions d’hébergement, d’hygiène, ainsi que pour l’organisation sanitaire. L’arrêté

sur les diplômes des directeurs et moniteurs précède de quelques mois cette règlementation (5

février 1949). Ils se décomposent en trois parties : un stage de formation, un stage en colonie

et un examen écrit. Le décret, lui, sortira le 6 janvier 1954. La mise en place des diplômes

(1946) anticipe donc les jeux de reconnaissance sociale qui se construisent entre 1947 et

1949, mais leur institutionnalisation ne se réalise qu’à la fin de ce processus. On peut donc

formuler l’hypothèse que les diplômes remplissent une fonction d’identification et de

reconnaissance pour les milieux professionnels.

Le décret du 8 février 1973 institue des brevets d’aptitude aux fonctions d’animateur

(BAFA) et de directeur (BAFD), qui se substituent aux diplômes d’état. Les examens

disparaissent au profit de « sessions de perfectionnement » et, dans le cadre du BAFD, une

seconde expérience pratique « dont le compte-rendu permettra d’établir un bilan de

l’ensemble de la formation du candidat ». A l’examen écrit des diplômes traditionnels est

donc substituée l’analyse de la pratique et l’auto-évaluation de la formation. Une différence

s’établit ainsi entre les brevets, ouvrant l’accès à l’exercice d’activités occasionnelles (BAFA,

BAFD)172 et les diplômes professionnels. Les titres de « diplôme d’état » et de « brevet

d’état » sont réservés pour qualifier la reconnaissance de compétences professionnelles.

171 Souligné par moi. 172 C’est le décret du 17 mars 1986 qui institue vraiment cette différence, en précisant que BAFA et BAFD « sont destinés à permettre d’encadrer, à titre non professionnel, de façon occasionnelle, des enfants et des adolescents en centres de vacances et des loisirs ».

Page 566: UN REFERENTIEL, POUR QUOI FAIRE

566

Le Diplôme d’Etat aux Fonctions d’Animation (DEFA) est mis en place conjointement par le

Ministère de la santé et de la famille et le Ministre de la jeunesse, des sports et des loisirs le

28 juin 1979 ; le BEATEP (Brevet d’Etat d’Animateur Technicien de l’Education Populaire),

qui ne concerne que le ministère de la jeunesse et des sports, sanctionne « la capacité à utiliser

dans le cadre d’une pratique professionnelle de l’animation » certaines « spécialités » de

l’éducation populaire (Décret du 14 mars 1986). Ces deux diplômes n’ont donc pas émergé de

la même dynamique que les BAFA et BAFD. La construction du DEFA s’inscrit plus dans le

souci de qualifier des cadres de l’éducation populaire, à l’instar du DECEP, « Diplôme d’Etat

de Conseiller de l’Education Populaire » (arrêté du 9 septembre 1964), puis surtout du

CAPASE « Certificat d’Aptitude à la Promotion des Activités Socio-Educatives et à

l’exercice des professions socio-éducatives » (arrêté du 5 février 1970). L’alternance et la

validation modulaire (par unité de formation) caractérisent ces diplômes professionnels, qui se

différencient en cela des diplômes traditionnels de l’enseignement supérieur. Le DECEP « a

été créé pour répondre aux besoins en personnel de l’administration elle-même », mais il est

vite « devenu un diplôme ouvert » pour « aider à la définition de la carrière d’éducateur

populaire » (G. Poujol ; 1989 : 110). Il se caractérisait par deux épreuves et un stage pratique,

avec production de mémoire entre les deux épreuves : la production d’un compte rendu

d’expérience est une modalité qui se généralisera par la suite à tous les diplômes de

l’animation. Le B.A.S.E. (Brevet d’Aptitude à l’Animation Socio-Educative) a été créé à la

même époque que le CAPASE, dont il était une condition d’accès. Il était accessible à toute

personne ayant 19 ans et 2 ans au moins d’activités socio-éducatives attestées par les

organisateurs, celle-ci pouvant être bénévole du moment qu’elle était régulière. Une

commission départementale rendait alors visite au candidat sur le lieu activité. Une première

phase d’observation de la pratique était suivie d’un entretien. Le BASE n’étant plus

obligatoire avec les nouveaux diplômes du DEFA et du BEATEP, il est tombé en désuétude.

Mais la procédure de validation préfigure celle qui sera adoptée pour les UF technique et

pédagogique du BEATEP. Enfin le BAPAAT (Brevet d’Aptitude Professionnelle d’Assistant

Animateur Technicien), diplôme de niveau V, est crée en 1993, qui

« atteste d’une qualification professionnelle pour l’encadrement, l’animation et l’accompagnement des activités physiques et sportives et des activités socioculturelles. Il constitue le premier des niveaux de qualification professionnelle dans les filières préparant aux métiers relevant des secteurs de la jeunesse et des sports » (article 1 du décret du 12 janvier 1993).

Il est suivi, deux ans plus tard, par le DEDPAD (Diplôme d’Etat de Directeur de Projet

d’Animation et de Développement), de niveau II :

Page 567: UN REFERENTIEL, POUR QUOI FAIRE

567

« Il atteste d’une qualification professionnelle pour la conception, la mise en œuvre et la gestion de politiques d’animation et de développement conduites avec ou à partir des structures sportives sociales ou culturelles » (article 1 du décret du 9 mai 1995).

A partir de l’année 1995, l’animation professionnelle se voit donc dotée une filière complète

de formation, du niveau V au niveau II. Seul le niveau I fait défaut, contrairement au sport qui

possède un BEES 3ème degré, reconnu pour ses fonctions d’expertise et de recherche.

Parallèlement à ces diplômes gérés par le Secrétariat de la jeunesse et des sports, à la

rentrée universitaire de 1968, le Ministère de l’éducation nationale crée, à la suite d’un

« travail interministériel pour définir un tronc commun de formation pour les travailleurs

sociaux » (idem), le DUT carrières sociales, option animateur socioculturel, dans six IUT173 :

Bordeaux, Grenoble, Lille, Paris, Rennes et Tours. Le DUT permet l’accession au cycle de

formation DEFA en étant dispensé des 5 UF de formation théorique, les postulants n’ayant

plus qu’à réaliser les 9 mois de stage pratique en activité, à temps plein, suivi de la soutenance

du mémoire. Par la suite, les universités créeront aussi trois licences professionnelles, deux à

Paris et une à Aix en Provence. Enfin un réseau interuniversitaire et associatif met en place le

DHEPS (Diplôme des Hautes Etudes des Pratiques Sociales) en 1984. Parallèlement, l’INEP

(Institut National de l’Education Populaire) qui dépend du ministère de la jeunesse et des

sports, créé le DESA (Diplôme d’Etude Supérieur à l’Animation), « qui est préparé

conjointement avec le DHEPS ». L’université de Lille III, en 1988, se lance dans le DESA, en

partenariat avec le CREPS du Nord (G. Poujol ; 1989 : 130-134).

Les années 2000 marquent un nouveau tournant. A la fin du siècle, le Ministère de la

jeunesse et des sports, dirigé par M.G. Buffet, décide de repenser « l’architecture actuelle des

formations et des diplômes ». Il met en place, en septembre 1999, une CPC (Commission

Professionnelle Consultative), avec deux sous-CPC, « animation » et « sport », qui se

coordonnent. Un GMN « Groupe Méthodologique National », constitué par la DEF (Direction

Emploi Formation) du ministère, regroupe des fonctionnaires du ministère : de la DEF, mais

aussi des services déconcentrés (DRDJS), des CREPS, de l’INJEP et de l’INSEP. S. Martin

(2003 : 57-60) analyse, à partir des documents officiels - en particulier les rapports des

commissions - les mobiles174 à l’origine de la démarche. Il dégage ainsi les principales

orientations de la « refonte » de ce « schéma général des formations » :

173 Le décret de création des IUT date du 7 janvier 1966 et leur création effective du décret du 30 août 1966, deux ans avant les options carrières sociales. 174 La notion de « mobile » relève de la « fonction » par opposition à celle de « facteur » qui fait partie de la définition des conjonctures.

Page 568: UN REFERENTIEL, POUR QUOI FAIRE

568

- l’éducation permanente : formation initiale, formation professionnelle continue, mais

aussi valorisation des acquis de l’expérience, professionnelle ou bénévole ;

- la question de l’emploi : l’adéquation des qualifications aux métiers, la construction d’une

filière complète et « l’amélioration de la flexibilité du dispositif de qualification » ;

- la reconnaissance des compétences et des qualifications autour de trois principes :

compétences plutôt que savoirs, prise en compte des expériences antérieures,

diversification des parcours individuels de formation.

Cinq objectifs sont ainsi affichés :

- « favoriser le développement de l’éducation populaire et du sport » : analyse de la

demande sociale émergente, encadrement de qualité, mise à disposition d’outils de

formation adaptés ;

- « favoriser le développement de l’emploi » ;

- « faciliter les évolutions et la mobilité professionnelle » ;

- « améliorer l’articulation des qualifications » avec les autres formations construites en

France, mais aussi en Europe ;

- « démocratiser l’accès aux formations ».

Au niveau des facteurs, quelques éléments du contexte précisent les conditions dans

lesquelles s’intègre cette démarche. La codification a été imposée à tous les secteurs

professionnels en ce début de XXIème siècle. Dans le champ de notre terrain

d’expérimentation, l’animation, le code de référence est celui « de l’action sociale et des

familles », auquel est rattaché l’activité des accueils de mineurs : les séjours (ex – centres de

vacances et colonies de vacances) et les accueils de loisirs (ex – centres de loisirs dans

hébergement et centres aérés), mais aussi les activités de scoutisme et les séjours spécifiques,

sportifs, culturels, linguistiques, et les chantiers de jeunes. Dans ce champ professionnel, les

diplômes du BAFA et du BAFD sont les seules contraintes de l’exercice professionnel, alors

que dans celui du sport, depuis la loi de 1984 et, aujourd’hui, le code du sport, nul ne peut

enseigner contre rémunération sans avoir un BEES. Par ailleurs, la création de la CPC et la

mise en place des Référentiels s’inscrivent dans la logique du RNCP (Répertoire National des

Certifications Professionnelles), produit de la politique volontariste de l’Union Européenne

pour homogénéiser les diplômes entre les pays membres. Les nouveaux modèles de la

compétence, d’une part (pages 251 à 259), des Référentiels professionnels de l’enseignement

technique, d’autre part (pages 303 et 304), déterminent la forme qui est donné à ces « fiches »

du RNCP.

Page 569: UN REFERENTIEL, POUR QUOI FAIRE

569

Les services de l’Etat, accompagné par les représentants des employeurs et des

syndicats au sein de la CPC, se sont donc efforcés de remodeler le schéma des formations. Le

BEATEP, de niveau IV, cède la place au BPJEPS (Brevet Professionnel de la Jeunesse, de

l’Education Populaire et du Sport) en avril 2002175. Ce dernier se décompose en 10 UC : 4 UC

transversales (utiliser les moyens de communication adaptés aux situations de la vie

professionnelle ; prendre en compte les caractéristiques des publics pour préparer une action

éducative ; préparer un projet ainsi que son évaluation ; participer au fonctionnement de la

structure et à la gestion de l’activité) et 5 UC de spécialité (préparer une action d’animation ;

animer, encadrer, accompagner un groupe dans le cadre d’un projet ; mobiliser les

connaissances nécessaires à la conduite des activités professionnelles ; conduire une action

éducative ; maîtriser les outils ou techniques de la spécialité). La dernière UC s’intitule

« adaptation à l’emploi ». Dans le cadre du BPJEPS loisirs tout public (LTP), elle permet

d’encadrer des séjours et des accueils de loisirs. Le BPJEPS a pour objectif de favoriser les

ponts entre les métiers du sport et ceux de l’animation, en différenciant UC transversales,

pour tous les métiers, et les UC de spécialité. Par ailleurs, à partir du moment où le BPJEPS

est acquis, la spécialisation dans une nouvelle activité ne justifie que de l’acquisition d’une ou

de quelques UC : par exemple, l’UC 10 pour encadrer des séjours et des accueils de loisirs

pour les BPJEPS autres que « LTP ». Dans le même esprit, le DEFA, de niveau III, cède la

place au DEJEPS (Diplôme d’Etat de la Jeunesse, de l’Education Populaire et du Sport) en

novembre 2006. Le DESJEPS (diplôme supérieur) est créé à la même date pour remplacer le

DEDPAD :

« Il atteste l’acquisition d’une qualification dans l’exercice d’une activité professionnelle d’expertise technique et de direction à finalité éducative dans les domaines d’activités physiques, sportives, socio-éducatives ou culturelles » (article 1 du décret).

Les deux diplômes sont calqués sur le même modèle avec 4 unités capitalisables, deux

« transversales, qu’elle que soit la spécialité » (UC 1 et 2), une de « la spécialité » (UC 3) et

une « de mention » (UC 4).

- Dans le cas du DESJEPS de l’animation : UC1 : « construire la stratégie d’une

organisation de secteur » ; UC2 : « gérer les ressources humaines et financières de

l’organisation du secteur » ; UC3 : « diriger un projet de développement » ; UC4 :

« organiser la sécurité dans le champ d’activités ».

175 Le décret est promulgué le 31 août 2001, mais les arrêtés d’application sont du 18 avril 2002 et du 5 août 2002 pour la première spécialité : « technique de l’information et de la communication ». Suivront ensuite les spécialités « loisirs tout public » et « activités physiques pour tous » (24 février 2003), « animation culturelle » (23 juillet 2004) et « animation sociale » (13 décembre 2005).

Page 570: UN REFERENTIEL, POUR QUOI FAIRE

570

- Pour le DEJEPS de l’animation : UC1 : « concevoir un projet d’action » ; UC2 :

« coordonner la mise en œuvre d’un projet d’action » ; UC3 : « conduire des démarches

pédagogiques dans une perspective socio-éducative » ; UC4 : « animer en sécurité dans le

champ d’activités ».

L’article 16 précise les procédures de validation : « une évaluation des compétences dans une

ou plusieurs situations d’activités » pour les UC 3 et 4, « la production d’un document écrit

personnel retraçant une expérience » pour les UC 1 et 2. Il est précisé que « le processus de

certification doit permettre l’évaluation distincte de chaque unité capitalisable ». Au niveau

procédural, ont donc été repris les deux modes d’évaluation qui se sont mis en place à

l’origine de la professionnalisation avec le BASE (évaluation en situation) et le DECEP

(évaluation à partir d’un écrit). Ces deux modes se retrouvent ainsi dans tous les diplômes de

ce secteur professionnel, quelque soit le niveau de qualification. Certes les exigences ne sont

pas les mêmes en fonction du diplôme.

La construction de l’édifice règlementaire laisse ainsi transparaître certaines dynamiques

sociales, qui conduisent à l’institutionnalisation des rapports au sein de la profession. Les

diplômes professionnels (DEFA, BEATEP puis BAPAAT, BPJEPS, DEJEPS et DESJEPS)

n’apparaissent pas relever de la même logique que celle des BAFA et BAFD, mais d’une

nouvelle dynamique qui s’est substituée à partir des années 60. Or, si ces diplômes ont ouvert

des portes dans des secteurs d’activité où certaines compétences, en particulier de direction et

de coordination, ont été recherchées (direction d’équipements, santé, fonction publique),

globalement ce sont le BAFA et le BAFD qui structurent toujours le secteur d’activité le plus

étendu auprès des publics, celui des accueils de loisir. La création d’un diplôme n’est donc

pas seulement le résultat d’un décret ou d’un arrêté. Il se généralise quand il correspond à de

nouvelles pratiques sociales, ainsi que ce fut le cas des colonies de vacances et des centres

aérés à l’issue de la guerre. Les conceptions fonctionnelles qui sont privilégiées au cours de

son institutionnalisation sont liées aux préoccupations de leur époque d’émergence : ainsi

l’intégration de la notion de « projet », dans la règlementation des centres de loisirs sans

hébergement en 1984176, exprime des conceptions qui se sont diffusées dans les années 1970

et qui ont par la suite modélisé les formations de l’animation. Mais il en est de même des

procédures de validation : les modes traditionnels du D.E. de moniteur et de directeur (et, en

partie, du DECEP) étaient inspirés des pratiques en vigueur dans l’éducation nationale.

176 L’arrêté du 20 mars 1984 sur les CLSH introduit l’obligation du « projet éducatif » (article 12) et des « projets pédagogiques » (article 13). Certainement l’institution de tutelle a-t-elle voulu tenir compte de l’avis du conseil de la jeunesse, de l’éducation populaire et des sports. Mais cela ne traduit-il pas aussi l’évolution au sein du milieu socioprofessionnel, en particulier dans le secteur des CLSH ?

Page 571: UN REFERENTIEL, POUR QUOI FAIRE

571

A partir des années 1960, ils cèdent la place à de nouvelles procédures et conceptions de

l’évaluation : en particulier le DECEP innove le compte rendu d’expérience et le BASE,

l’évaluation en situation avec un entretien. Ces deux types de procédures, modes de

fonctionnement du milieu professionnel à une époque donnée, se sont généralisés par la suite.

Une nouvelle hypothèse précise donc la place des référentiels dans la construction d’un

milieu professionnel : la fonction des formations ne serait-elle pas de diffuser les modes de

communication et les conceptions qui se sont instituées dans le milieu professionnel ?

L’évaluation au cours des épreuves participe à la pérennisation de ces modes de

fonctionnement, soit à travers les pratiques « pour se préparer à l’examen » (tel le compte

rendu d’expérience, par exemple), soit en vérifiant que certaines conceptions fondamentales

sont acquises, ou du moins comprises (les visites sur le terrain avec discussion a postériori,

par exemple). Cette hypothèse sera approfondie de différentes façons à travers les diverses

expériences. Lors de la première (ch. 12), on étudie l’expression de ces enjeux sociaux au

cours de la communication entre le candidat et l’examinateur : l’expérience porte sur la notion

de « rôle social » et la façon dont le futur animateur se l’approprie. La deuxième (ch. 13), ce

sont les enjeux au sein d’un réseau d’animateurs qui sont le support de l’enquête : les jeux de

reconnaissance sociale et le rôle de la formation professionnelle qui sont mis en valeur. La

troisième (ch. 14), à partir de l’étude des textes officiels, a pour but de généraliser ces

premières conclusions. On n’exposera ici que la première phase, une analyse des conceptions

du métier telle qu’elles sont proposées par les fiches du RNCP.

3) Une approche systémique :

Si l’étude des fonctions d’un dispositif ou d’un système peut s’envisager à partir de

l’analyse du discours des acteurs, la recherche des facteurs conjoncturels est toujours plus

complexe dans la mesure où ceux-ci sont en général pluriels et imbriqués les uns dans les

autres. A partir des fonctions, il est certes possible de relever certains facteurs qui font

obstacle aux processus mis en place, voire qui « pervertissent » les systèmes. Mais on se situe,

dans ce cas, uniquement en négatif des mobiles des acteurs (principe de la dialectique), sans

jamais avoir une vision globale. Il est donc possible, aussi, de se fonder sur les principes de la

systémique pour discerner certains processus globaux. Il ne s’agit pas ici de plaquer un

modèle sur la réalité, mais seulement d’interroger certains fonctionnements au regard des

contraintes organiques du système. C’est l’étude que l’on se propose de conduire ci-dessous.

Page 572: UN REFERENTIEL, POUR QUOI FAIRE

572

3-1) La croissance du milieu professionnel et ses régulations :

Les recherches sur l’évaluation ont fait maintes fois référence à l’approche

systémique, en particulier les conceptions de L. Allal. Cet auteur considère le moment

d’évaluation comme une sorte de feed-back lors des apprentissages, qui génère un espace de

réflexion et de re-médiation. Cette approche a été présentée (ch. 2) et l’objet n’est pas ici d’y

revenir. Mais elle reste centrée sur l’apprentissage de l’élève, alors que l’évaluation a bien

d’autres fonctions, ne fut-ce que celle de sélectionner les personnes faisant partie du corps

professionnel, ce qui est le propre d’un diplôme. Une vision plus globale apparaît alors

souhaitable pour éviter de se borner aux seules représentations sociales de l’Education

nationale, où l’évaluation a une fonction pédagogique indéniable, mais bien particulière à un

processus spécifique entre un enseignant et ses élèves. L’évaluation est un acte qui s’inscrit

dans un système plus large que le simple triangle didactique.

L’observation de la « physionomie » du « corps » professionnel nous permet d’avoir

une autre approche. Penser système, c’est aussi penser la vie complexe d’un organe vivant, ce

qui constitue la puissance mais aussi les limites de l’approche systémique. Chaque corps

professionnel est un organe qui cherche à affirmer sa position légitime au sein de la société

moderne. E. Durkheim (1930/2007) a mis en valeur les moteurs sociologiques qui conduisent

à un développement de la division du travail au sein de celle-ci et à l’équilibre dynamique qui

en résulte. Mais la lutte pour affirmer sa place ne se fait pas sans difficulté, sans heurt et sans

réaction des autres corps de la société avec lesquels il convient de partager le « gâteau de la

richesse sociale ». Cette fonction de l’évaluation, la reconnaissance sociale de la profession,

est mise en valeur dans l’expérience N° 2 (ch. 13), y compris dans les formes qu’elle induit en

termes de modalités d’évaluation. Mais les évaluations n’ont pas uniquement cette fonction de

régulation de l’activité du milieu professionnel. Les réflexions des sciences de l’éducation sur

la fonction de l’évaluation (pages 116 à 122) ont mis en valeur au moins deux autres

fonctions, la fonction formative que les travaux de L. Allal et A. Jorro ont approfondi, et la

fonction certificative, qui consiste à sélectionner les candidats en fonction des places

disponibles. Dans ce dernier cas, les formes de l’évaluation ne sont pas seulement induites par

la fonction, mais aussi par les conjonctures, c'est-à-dire les différents facteurs qui favorisent

l’expansion du milieu professionnel et légitiment sa revendication sociale à une rémunération

pour ce travail. La création, l’évolution et la modification des diplômes et, plus largement, de

tous les seuils d’entrée, sont étroitement liées à la place reconnue à la profession, dans

l’organisation des rapports de production et de rémunération (du « marché du travail »).

Page 573: UN REFERENTIEL, POUR QUOI FAIRE

573

L’observation des rapports entre ce marché du travail et la création des diplômes est donc à

même de nous apporter des informations complémentaires sur ces fonctions implicites de

sélection remplies par les diplômes, et sur la façon dont celles-ci s’articulent avec la

conjoncture.

La question des effectifs de l’animation est assez complexe, la principale difficulté

étant d’identifier les animateurs. Au regard de la littérature sur la question, plusieurs raisons

peuvent être invoquées : faut-il y inclure les éducateurs sportifs ? Faut-il prendre en compte

les animateurs occasionnels, pour qui la source de revenus reste accessoire, ou les vacataires

qui s’identifient à d’autres professions, en particulier les artistes ? Par ailleurs, à quelles

conventions collectives rattacher la profession, celle de l’animation, qui a vu le jour en 1988,

du tourisme social et familial (1979), des centres sociaux (1983) ? Il n’y a pas, au sein de

celles-ci, que des animateurs, et certains d’entre eux se trouvent dans d’autres conventions.

L’enquête conduite en 2005 par le CPNEF (Centre Public National Emploi Formation) parle,

pour la « branche animation », de 12 000 entreprises, 138 000 contrats signés correspondant à

54 000 ETP (équivalents plein temps). Les animateurs représentent 80% du volume total des

emplois. A cela, il convient de rajouter les 13 000 emplois de la filière animation de la

fonction publique territoriale. Faut-il y rajouter les trois cadres d’emplois du sport investis sur

les territoires (conseillers, éducateurs et opérateurs), soit 25 000 emplois ? Afin d’avoir des

données assez unifiées sur lesquelles se fonder, F. Lebon (2009 : 43) propose d’adopter la

position de L. Boltanski lorsqu’il étudie la formation du groupe social des cadres : « la

solution consiste à prendre au sérieux les individus qui se réclament de l’appartenance à la

catégorie ». Il s’appuie ainsi sur les enquêtes du recensement, dont il croise les données avec

les enquêtes emploi de l’INSEE : « les deux enquêtes présentent une même tendance à

l’explosion des effectifs » (idem : 44). Mais ce qui nous interpelle ici, c’est la courbe

asymptotique qui s’en dégage, avec une forte croissance de 1975, date à laquelle on dénombre

moins de 20 000 animateurs, jusqu’en l’an 2000, où la courbe se stabilise autour de 110 000.

F. Lebon (2009 : 46) Tableau N° 01

Page 574: UN REFERENTIEL, POUR QUOI FAIRE

574

Cette croissance est identique à celle du modèle de l’équifinalité de la systémique (page 28) :

les théories de L. Von Bertalanffy sur ce phénomène apparaissent donc une piste de réflexion

pour analyser la formation des nouveaux corps professionnels au sein de notre société. Une

forte demande se fait jour, elle est suivie d’un important développement en termes d’effectifs,

avec un phénomène de stabilisation lorsque les nouveaux besoins sont remplis. L. Boltanski a

modélisé, en 1982, cette « construction des collectifs » et F. Lebon se l’approprie pour nous

présenter la formation du milieu de l’animation :

« Dans les années 1960, un groupe d’hommes, sociologues et militants associatifs, réunis dans des instances publiques ou parapubliques, exercent un travail de redéfinition et de représentation. Les portes paroles de cette « pensée d’Etat » universalisent ainsi les propriétés locales qui caractérisent le groupe et les investissent dans un nom générique : les « animateurs ». Dans un deuxième temps, à compter des années 1970, ce « noyau originel » qui provoque un processus d’objectivation et d’institutionnalisation, joue le rôle d’un pôle d’attraction et attire à lui des agents et des groupes disparates (des femmes travaillant dans les garderies et les patronages, plus récemment dans les maisons de retraite, etc.) aux caractéristiques différentes mais qui se reconnaissent néanmoins dans la représentation officielle de l’ « animateur » » (F. Lebon ; 2009 : 23, 24).

Les professionnels de divers secteurs d’activité s’approprient ainsi les conceptions de ces

pionniers, les objectivent par rapport à leur réalité quotidienne et les ancrent dans leurs

préoccupations de professionnels (S. Moscovici ; pages 231 à 233). Les représentations

sociales se forment ainsi et se développent, à partir des conceptions fondatrices. Le BPJEPS

garde le concept d’éducation populaire dans son titre, mais, dans sa forme, est-il toujours en

phase avec les idéaux des pionniers des années cinquante / soixante ? (cf. S. Martin ; 2003).

Les professionnels s’approprient ces conceptions en fonction de leur champ respectif, les

administrations se les réapproprient aussi en fonction de leur position de tutelle, avec les

enjeux propres à leur position d’agent de l’Etat : coordination, mais aussi ajustement aux

autres corps, adaptation aux partenaires institutionnels, aux contraintes internationales.

Si on observe la courbe des « titres délivrés pour les colonies de vacances et les

centres de loisirs » (idem : 32) (diplôme de moniteur jusqu’en 1973, puis BAFA), on

s’aperçoit d’un phénomène similaire, mais en deux temps :

F. Lebon (2009 : 32) Tableau N° XX

Page 575: UN REFERENTIEL, POUR QUOI FAIRE

575

La première croissance qui se stabilise dans les années soixante correspond à un essor des

colonies de vacances après la seconde guerre mondiale, avec un tassement à partir du moment

où les pouvoirs publics se désinvestissent en matière d’aide. Une nouvelle progression et un

second pallier ont été induits par l’évolution de la règlementation des centres de loisirs sans

hébergement, en particulier l’arrêté du 20 mars 1984 qui précise, en son article 14, non

seulement le nombre d’animateurs diplômés ou en formation, mais aussi le ratio entre

animateurs et enfants177. La courbe se fixe au-delà des 50 000 à partir des années 2000. Par

rapport à ces dynamiques de développement et de reconnaissance des milieux

socioprofessionnels, quelle est la place des diplômes ? Quand apparaissent-ils au cours de la

formation du corps professionnel ?

3-2) La fonction implicite des diplômes en tant que système de régulation :

On peut discerner trois grandes étapes dans la formation des diplômes de l’animation.

On étudiera, de façon différenciée, les deux types de processus de professionnalisation, qui

correspondent à des dynamiques sociales différentes et à des formes de reconnaissance

sociale, dont on a déjà abordé les paradoxes. Tout d’abord, la professionnalisation des années

soixante. Les premiers diplômes sont ceux des pionniers, le DECEP, le BASE et le CAPASE.

Ils fixent des modalités des évaluations qui perdureront : mémoire, visite et entretien, unités

capitalisables. C’est une phase de conceptualisation, souligné par F. Lebon, qui commence à

se structurer dès la fin de la seconde guerre mondiale, avec les travaux de Peuple et Culture, et

qui trouve une écoute auprès des institutions, avec la création du Haut commissariat de la

jeunesse et des sports de Maurice Herzog. Les fonctions sont certes définies par les pionniers,

ainsi que les modalités d’origine des épreuves, mais le diplôme (DECEP puis CAPASE) ne

prend son essor qu’en raison de la conjoncture, étudiée ci-dessus, et d’une demande croissante

des directeurs d’équipements : la formation des directeurs de MJC est mise en place dès

1959, en collaboration avec l’INEP (L. Besse ; 2010 : 214). Ces premières initiatives offrent

des perspectives à tout un champ de pratiques professionnelles qui se reconnaissent dans la

conception du métier, et qui se fédèrent, au sein des mouvements d’éducation populaire, mais

aussi dans d’autres champs : par exemple, l’animation en gérontologie et les autres secteurs

de l’animation sociale. Une seconde vague de diplômes apparaît pour structurer ces synergies.

177 Ce cadrage de l’administration commence avec l’arrêté du 17 mai 1977 (article 7), mais les mesures sont beaucoup plus souples, tant en termes de ratio (un animateur pour 18 enfants au lieu de 12) que de dérogations (article 17). Par ailleurs, l’augmentation conséquente du corps de conseillers techniques et pédagogiques pendant les années quatre vingt a certainement accru la présence de l’administration sur le terrain.

Page 576: UN REFERENTIEL, POUR QUOI FAIRE

576

Le DEFA, en particulier, est mis en place avec le Ministère de la santé en raison du lobbying

exercé par les professionnels de l’animation sociale, auprès de leurs instances dirigeantes. Le

BEATEP correspond plus à la dynamique et aux besoins des associations de l’éducation

populaire. C’est le diplôme qui parvient à décoller le plus rapidement (cf. « diplômes de

l’animation délivrés » ; F. Lebon ; 2009 : 39). La troisième phase provient en haut de la

courbe de croissance, lorsque la profession s’installe, quand elle a conquis l’espace de la

reconnaissance sociale. C’est l’effort de rationalisation dans lequel s’est engagé le ministère

dans les années 2000. Dès lors, ce sont les professionnels qui poussent leurs directions à les

inscrire dans des parcours de formation, pour acquérir de la reconnaissance professionnelle.

Mais, si les modalités pratiques sont toujours celles qui ont été définies à l’origine,

l’organisation globale des parcours de formation et les conceptions générales du métier sont

adaptées aux nouvelles conditions imposées par la conjoncture de l’époque. Pour le BAFA, la

croissance est sensiblement la même. Entre le D.E. de moniteur à l’origine, et la BAFA en

1973, nous retrouvons les trois phases, à la différence près que le décret de 1954 se situe

moins dans une phase de convergence des différentes synergies que dans une phase de

délimitation des sphères de compétence entre l’Education nationale et le Ministère de la santé,

jeux de positionnement entre hauts fonctionnaires qui ne se résoudront qu’à la fin de la

décennie avec les répartitions des tutelles ministérielles. La seconde vague de croissance a été

induite par le paradoxe que nous avons évoqué ci-dessus, qui ne peut être analysé qu’en

comprenant les différentes phases d’institutionnalisation du secteur professionnel, sous peine

de graves contre-sens à l’instar du rapport de J. Bertsch (2008), remis aux ministres de

l’enseignement supérieur et de la recherche, de la santé et de la jeunesse et des sports.

Ce phénomène d’institutionnalisation des diplômes est-il typique de l’animation

socioculturelle ? Cela n’est pas certain, mais, avant toute généralisation, des études sont à

conduire profession par profession. Si, par exemple, on suit l’institutionnalisation progressive

du corps des instituteurs et la formation des écoles normales, le même phénomène peut être

mis en valeur : 1° les pionniers du 18ème siècle, parmi les milieux protestants ; 2° le rapport

Condorcet et la première école normale dans leur fonction identitaire sous la Révolution ; 3°

la seconde phase de cadrage avec le ministère de F. Guizot qui fédère les diverses énergies ;

4° l’institutionnalisation, qui se met définitivement en place avec les lois promulguées à

l’époque de J. Ferry, dans une conjoncture conflictuelle entre laïques et catholiques. Certes les

institutions sont sujettes à l’évolution, au fur et à mesure des transformations de la société,

mais l’affirmation d’un corps professionnel passe par une phase de reconnaissance sociale, au

cours de laquelle les diplômes et les formations professionnelles ont une fonction importante.

Page 577: UN REFERENTIEL, POUR QUOI FAIRE

577

Si les conceptions des pionniers sont à l’origine de l’organisation fonctionnelle des formations

et des modalités de la certification à l’issue de celles-ci, les modalités de sélection, en

revanche, évoluent au gré des conjonctures et des possibilités d’absorption des candidats dans

le milieu professionnel. Les diplômes sont donc le produit complexe de cette articulation entre

le marché du travail et le dynamisme des acteurs. C’est cette hypothèse de travail qui oriente

la troisième recherche (ch. 14). On n’en présentera que la première phase, l’analyse

conceptuelle des métiers, qui sera complétée ultérieurement par une étude des modalités de

certification et une histoire des formations. Le référentiel réellement en œuvre lors des

examens est le complexe mélange de ces diverses influences.

Pour revenir à notre champ d’investigation, il n’est pas certain que les diplômes du

Ministère de la jeunesse et des sports aient acquis leur statut définitif. Le BPJEPS, en

particulier, ne satisfait ni les milieux sportifs, ni les milieux de l’animation. L’analyse de S.

Martin présente, de façon synthétique, la contradiction entre les modèles utilisés par le

« schéma des formations » et la profession d’animateur :

« On est, dès lors amené à penser que la logique compétence, articulant les apprentissages sur des savoirs avant tout de type procéduraux qui ne favorisent pas à eux seuls la compréhension de la globalité des situations de travail, contribue largement à enfermer les candidats à ces formations dans un rapport de sujétion vis-à-vis de ces mêmes situations » (2003 : 145). « Les éléments d’analyse de ce cinquième chapitre nous renvoient à la question suivante sur l’action de l’éducateur populaire : peut-elle n’être mesurée que par ses résultats, c'est-à-dire au sens de la logique compétence, par la modification attendue des comportements et des attitudes destinataire de son action » (idem : 162).

Le concept de compétence tel qu’il a été défini au cours de cette thèse ne se réduit pas à

l’aspect procédural, qui est ici critiqué par l’auteur. Celui-là n’est qu’une des quatre

composantes de la compétence, telle qu’elle a été définie (page 259) : la compétence est aussi

mobilisation de ressources, processus cognitifs pour coordonner les activités, discerner les

ressources et analyser le contexte, et, enfin, d’après la conception de J. Leplat, un système de

référence et de communication commun à un groupe socioprofessionnel. Mais la formulation

des compétences à acquérir, pour obtenir le BP JEPS, est fortement orientée vers les aspects

procéduraux, ainsi que le souligne S. Martin. Par ailleurs le contexte dans lequel s’impose ce

Référentiel, en raison de l’absence de formation initiale des acteurs, risque d’accroître

l’impact de cette dérive procédurale. Dans un milieu professionnel où les employeurs sont

aussi les formateurs, il est à craindre que les contraintes conjoncturelles ne poussent guère

vers une formation qui privilégierait les capacités cognitives et le recul analytique sur le

système de référence commun, c'est-à-dire le référentiel réel.

Page 578: UN REFERENTIEL, POUR QUOI FAIRE

578

L’insatisfaction du milieu sportif semble, en revanche, d’un autre ordre. La filière,

avant la réforme, comprenait des diplômes, depuis le niveau V avec le BAPAAT adapté au

statut d’assistant animateur qui seconde le brevet d’Etat, jusqu’au niveau I avec le BEES 3ème

degré, correspondant à des fonctions d’expertise et de recherche. En revanche, le BEES 1er

degré, considéré de niveau IV, occupait aussi l’espace du niveau III inexistant, d’où une

inquiétude chez les éducateurs sportifs, dans certaines fédérations, de voir les BEES

dévalorisés au niveau des BPJEPS. C’est donc sur fond de concurrence entre les deux

cultures, avec souvent des incompréhensions voire des malentendus, que se construit

péniblement la filière : les « critères de réussite » des sportifs ont-ils le même sens que les

« critères » beaucoup plus globaux de l’éducation populaire ? Mais c’est surtout le paradoxe

majeur entre les deux phases de construction des diplômes de l’éducation populaire qui rend

le plus bancal le système : un BAFA, dont la détention est obligatoire dans les accueils de

loisirs, et des diplômes professionnels qui s’inscrivent dans une convention collective à

critères classants. Si le BAPAAT a plus ou moins du sens dans le milieu sportif pour certains

sports où la demande d’assistant est conséquente, c’est le BAFA qui assume de fait cette

position dans la filière de l’animation. Par ailleurs les diplômes fédéraux remplissent encore

souvent la fonction de diplômes occasionnels. Avec les CQP, tout cela ne fait que brouiller

encore plus les pistes : la logique des CQP est-elle en phase avec la conception de la fonction

publique aménagée ?

Si toutes ces contradictions laissent penser que le schéma des formations de feu le

Ministère de la jeunesse et des sports est loin de s’être stabilisé, il n’en demeure pas moins

qu’une étape a été franchie, en raison même de la conjoncture qui a conduit à une

reconnaissance du milieu professionnel. Certes les emplois sont encore bien trop souvent

occasionnels, les situations encore souvent instables, mais, au fur et à mesure que le milieu

professionnel s’institue, les formes de la sélection et de la certification se précisent. Les

référentiels réels se structurent, sous forme de représentations sociales et de conceptions, en

intégrant à la fois les aspects fonctionnels qui définissent la profession, à la fois les aspects

conjoncturels qui ont conduit à sa reconnaissance sociale.

Page 579: UN REFERENTIEL, POUR QUOI FAIRE

579

4) L’éducation populaire entre pratiques et théories :

Différencier les notions de « fonction » et de « conjoncture » a été, ci-dessus, une

façon d’appréhender l’articulation entre l’histoire et la sociologie, pour l’adapter à notre

problématique. On s’inspire ici de l’approche de l’Idéaltype de M. Weber (1921/1995 : 35 à

39), à la différence près que la fonction n’est pas produite par le chercheur, comme l’Idéaltype

qui fait appel à sa connaissance des processus du sens commun (voir aussi à ce sujet A.

Schutz), mais elle résulte de l’analyse de la conception des acteurs. Le chercheur analyse les

conceptions idéalisées qui motivent les actions (fonctions) pour discerner progressivement les

conditions objectives qui ont induit le développement des mouvements sociaux

(conjonctures). L’Idéal n’est pas conçu, à l’instar de la pensée de G.W.F. Hegel (1816-1827),

comme le moteur de l’action sociale, mais comme une conception communément admise par

tous les membres d’un collectif, qui communique du sens à ces actions collectives. Pourquoi

les actions sont-elles mises en œuvre ? A quoi servent-elles ? Ces conceptions idéalisées se

confrontent alors à des contraintes objectives : les choses ne se passent jamais exactement

selon la rationalité préconçue. Ce décalage permet d’interroger les réalités sociales, le réel-

obstacle qui conduit à des réajustements, mais aussi le réel-fondamental qui est implicitement

à l’origine de l’action sans que les acteurs en aient une conscience globale, faute d’un

détachement suffisant de la situation hic et nunc. L’approche systémique induit des pistes de

recherches de cet implicite, en favorisant le recul (homologies et différences avec d’autres

fonctionnements organiques), la globalisation (repositionnement du système au sein des

autres systèmes) et une conscience intuitive des interactions (aperception des relations entre

les éléments du système à partir de leurs fonctions respectives).

Le concept de « l’éducation populaire » est né à une époque où l’instruction du peuple

était un véritable enjeu politique et social. Certes les conceptions n’étaient pas toujours très

congruentes : entre la lutte d’influence contre les croyances religieuses engagée par les

associations polytechnique et philotechnique, la prévention contre les fléaux sociaux et

l’éducation morale et sanitaire des libéraux, et la revendication à la dignité à la promotion

sociale et au temps libre pour s’instruire des socialistes, le fossé pouvait parfois être

important. Mais la conjoncture a favorisé une convergence des intérêts et des dynamiques :

- La nouvelle organisation de l’Etat républicain a créé les conditions institutionnelles de

l’instruction publique élémentaire, au niveau communal, mais aussi au niveau national (cf.

la politique de F. Guizot).

Page 580: UN REFERENTIEL, POUR QUOI FAIRE

580

- Les besoins économiques de l’industrie moderne ont entraîné le développement de

l’enseignement technique et scientifique (cf. la politique de V. Duruy).

- Enfin les nouveaux moyens de communication et la progression de l’instruction ont

permis l’essor des grands mouvements sociaux de la fin du XIXème siècle.

A partir du moment où l’instruction est une affaire d’Etat et où elle devient obligatoire, laïque

et gratuite, y a-t-il encore une place pour les mouvements d’éducation populaire ?

Paradoxalement, alors qu’on aurait pu s’attendre à leur déclin, c’est à partir de ce moment là

qu’ils prennent vraiment leur envol : la lutte idéologique entre les catholiques et les laïques va

s’intensifier pour occuper le hors-temps scolaire, des enfants mais aussi des adultes. Par

ailleurs, initiés à l’instruction élémentaire, les milieux populaires, à cette époque

essentiellement ouvriers et paysans, vont être de plus en plus demandeurs de formations

complémentaires, à la fois pour des raisons de dignité et de reconnaissance, mais aussi de

promotion sociale. La concurrence a eu alors au moins un côté positif : les mouvements ont

redoublé de créativité pour attirer les masses laborieuses ou pour capter le public enfant.

Quand une initiative a bien fonctionné chez le concurrent, elle est vite reprise par son

adversaire. L’éducation populaire a ainsi engrangé toute une réflexion pédagogique pour

intéresser le public, le faire participer, le motiver et pour adapter l’éducation à ses spécificités.

Toutes ces pratiques, qui se sont instituées au fil des décennies, constituent un patrimoine

commun de l’éducation populaire, un ensemble de représentations sociales qui servent de

cadres de référence à tous les acteurs. Ainsi l’éducation populaire, dans l’acception où nous

l’utilisons aujourd’hui en France, s’est définie en creux, tout d’abord dans le hors-temps

scolaire à la fin du XIXème siècle. Puis, lorsque la politique culturelle s’est instituée dans les

années soixante et la formation professionnelle dans les années soixante dix, l’éducation

populaire qui, pendant des décennies, a promu ces nouvelles formes de socialisation (théâtre,

ciné-clubs, conte) ou ses revendications, s’est à nouveau redéfinie en creux, en orientant ses

efforts vers les publics populaires, dit maintenant « en difficulté » ou « prioritaires » :

insertion professionnelle, politique culturelle dans les quartiers. Son patrimoine historique lui

a permis de répondre de façon plus adaptée aux besoins de ces publics que ses concurrents. La

professionnalisation des animateurs va donc s’orienter, ces dernières décennies, vers ces

nouveaux espaces : le hors-temps scolaire du public enfant et jeune bien entendu, mais aussi

les actions culturelles et d’insertion vers le public des quartiers populaires.

Page 581: UN REFERENTIEL, POUR QUOI FAIRE

581

Mais ce qui intéresse surtout notre propos, au-delà de l’ensemble des jeux de

concurrence et des péripéties institutionnelles, c’est l’articulation qui s’établit

progressivement entre ce patrimoine collectif de pratiques pédagogiques, pour capter le public

et s’adapter à lui, et les conceptions du milieu professionnel. Les concepts que ce dernier

utilise n’ont de sens qu’en référence à ces pratiques qui se sont instituées au fil des décennies.

Un jeune postulant animateur a besoin de les découvrir pour se faire reconnaître. Si l’on se

réfère aux analyses de J. Camus (2008 : 37-41 ; page 558), l’apprentissage se fait

progressivement, sur le tas, avec les pairs. On peut donc faire l’hypothèse que la formation

professionnelle favorise l’apprentissage de ces pratiques et que les diplômes sanctionnent

ceux qui les ont acquis ou non-acquis au terme d’une période probatoire, soit sous forme de

stage, soit au cours de formations alternant pratiques et théories. Cette hypothèse a guidé

l’interprétation au cours de l’expérience N° 2 (ch. 13). Mais, si cette interprétation

traditionnelle du diplôme est corroborée par nos observations, elle se heurte aussi à un

paradoxe : si nous observons la croissance des effectifs professionnels et les dates de création

des diplômes, nous constatons que ceux-ci sont créés au tout début de la courbe de croissance

et non une fois la profession bien établie, du moins pour la première vague de certifications.

Certes les pratiques auxquelles il est fait référence sont antérieures à cette création (par

exemple, l’encadrement des colonies de vacances avant les diplômes d’état de moniteur et de

directeur en 1946, ou l’animation professionnelle avant le CAPASE, le DEFA et le BEATEP,

de 1970 à 1986), mais le diplôme précède la forte professionnalisation du secteur d’activité.

Le diplôme n’est donc pas qu’un simple outil de sélection à l’entrée du champ professionnel,

il est aussi un outil de reconnaissance sociale de la profession. Ainsi que le souligne le modèle

de L. Boltanski, repris par F. Lebon (2009 : 23), les diplômes déterminent une représentation

officielle autour de laquelle diverses professions aux caractéristiques différentes, mais

néanmoins assez proches, au niveau de leur raison sociale et de leurs pratiques, se

reconnaissent et s’identifient. Les diplômes ont donc une fonction de fédération du champ

professionnel. Et les Référentiels participent certainement de cette dynamique, du moins est-

ce une hypothèse alternative que l’on approfondira dans les chapitres suivants, en parallèle de

l’hypothèse traditionnelle qui privilégie leur fonction de sélection. Les Référentiels auraient

alors une fonction prescriptive pour les acteurs, ils conceptualisent ce rôle social de la

profession. Plus on se distancie de la simple interaction individuelle (expérience N° 1, ch. 12)

pour prendre en compte les fonctionnements du groupe (expérience N°2, ch. 13) ou les enjeux

macro-sociaux (expérience N° 3, ch. 14), plus ces jeux de reconnaissance auprès des pairs

seront étudiés et analysés.

Page 582: UN REFERENTIEL, POUR QUOI FAIRE

582

Chapitre 12 : Expérience N° 1

L’évaluation de productions écrites de stagiaires par des professionnels

1) Objectif et hypothèse de l’expérience :

Le protocole de cette première expérience s’inscrit dans la logique des recherches de

la docimologie : faire produire des stagiaires en situation de formation, puis communiquer

leur production à des examinateurs et comparer les réponses de ces derniers. Mais la demande

formulée à l’encontre des ceux-ci est sensiblement différente de la tradition docimologique.

On n’a pas demandé à ces 22 examinateurs d’attribuer une note, mais seulement d’identifier

dans le groupe un(e) stagiaire professionnel(le) depuis quelques années et un(e) stagiaire dont

le stage a été jugé « insatisfaisant » par les formateurs. Les réponses sont statistiquement très

congruentes (cf. & 1-2). Faut-il en déduire que cette façon d’approcher l’expérience remet en

cause les résultats obtenus précédemment par la docimologie, qui avait plutôt mis en valeur

les divergences entre correcteurs ? Les conclusions ne sont pas si simples. Effectivement P.

Merle (1998) met aussi en valeur, à travers les expériences qu’il cite, que ces écarts de

notation ne transforment pas des prestations « faibles » en « bonnes » ni vice versa. Mais il

existe un alea assez conséquent, au moment de noter l’appréciation, qui se cristallise sur les

notes moyennes en raison des enjeux autour de la moyenne. En fait si, au cours de notre

expérience, il y avait eu notation, il est fort probable que des écarts seraient apparus, ne fut-ce

qu’en raison des divergences entre les examinateurs qui ont privilégié tel ou tel stagiaire :

pourtant jamais un des quatre stagiaires du groupe des « professionnels » ne s’est retrouvé

dans le groupe des « insatisfaisants », ni vice versa. Il ressort de cette expérience

qu’effectivement, il existe des divergences entre les correcteurs : on a cherché à les mettre en

valeur en faisant ressortir les principaux critères, c'est-à-dire les arguments pour justifier le

choix ; en revanche, il existe aussi des congruences fortes pour choisir les « bonnes » ou

« mauvaises » prestations. On peut d’ailleurs se demander si les systèmes d’évaluation que

nous connaissons de nos jours existeraient encore sans ce minimum de convergence dans les

jugements.

Page 583: UN REFERENTIEL, POUR QUOI FAIRE

583

2) La présentation de l’expérience :

2-1) Le protocole :

Tout au début d’un stage BAFA178, dans un contexte ordinaire de la pratique

professionnelle, il a été demandé à des stagiaires de décrire leur représentation de

l’animateur : « quel est, pour vous, le rôle de l’animateur ? ». Parmi eux, une stagiaire avait

deux ans d’expérience professionnelle ; une autre a éprouvé des difficultés et a vu son stage

non validé. On qualifiera ici les réponses écrites par les stagiaires de « lettres ». On a

communiqué ces onze productions à des directeurs de centres, professionnels de l’animation

ou formateurs : nous les appellerons « examinateurs » (22 personnes). Le but était d’analyser

leur perception intuitive de ces prestations langagières : quel est le sens que confère

l’interlocuteur expérimenté à l’expression de ces représentations, proposées par de jeunes

stagiaires animateurs ? Il était demandé à ces professionnels d’identifier le « stagiaire

professionnel » et celui dont le « stage est insatisfaisant ». Afin d’éviter d’introduire certains

biais, les écrits ont tous été dactylographiés et les fautes d’orthographe corrigées. Seule la

syntaxe a été préservée telle qu’elle. Par ailleurs aucune indication sur les candidats n’a été

évoquée, en particulier sur le sexe et l’âge.

Les écrits des stagiaires sur le rôle de l’animateur

Lettre N° 1 : L’animateur Il encadre avec le sourire, dans la joie et la bonne humeur. Il prévoit les activités à l’avance, pour pouvoir sécuriser le terrain. Son devoir est d’adapter l’activité avec l’âge des enfants et qu’ils puissent tous y participer. Il doit être avant tout responsable et sérieux. Lettre N° 2 : L’animateur - doit aimer le contact avec les enfants - doit être attentif - est présent pour écouter, « aider » les enfants à s’épanouir - a pour but de mener à bien un projet - doit faire preuve de tolérance et de compréhension - doit le respect aux enfants et au personnel - doit sécuriser les enfants - doit respecter les règles de vie et les faire accepter, mais surtout les faire comprendre aux enfants 178 Le BAFA est une formation d’animateurs occasionnels, pour les vacances scolaires ou les accueils de loisirs (voir ch. 11). Le public est souvent composé de jeunes de 17 ou 18 ans, la plupart du temps sans expérience professionnelle, qui découvre l’animation. Ce fut le cas sur ce stage où il y avait cependant une stagiaire de 24 ans, professionnelle.

Page 584: UN REFERENTIEL, POUR QUOI FAIRE

584

Lettre N° 3 : Un animateur peut organiser des sorties qui sont difficiles ou pas L’animateur est responsable du bon déroulement du transport, il est chef de convoi. Un bon animateur maintient la sécurité des enfants. Un animateur est là pour respecter les uns ou les autres en cas de mauvaise entente. Lettre N° 4 : L’animateur est une personne qui propose des jeux, des activités sur différents thèmes aux enfants, dans un but ludique, mais aussi éducatif. Il doit savoir capter l’attention de tous les enfants, y compris les plus turbulents, les amuser, trouver des animations adaptées aux différentes tranches d’âge. Il permet aux enfants de se confronter à la vie sociale, et d’apprendre à respecter son environnement, ses camarades par le jeu. Lettre N° 5 : Un animateur est une personne responsable qui aime travailler avec les enfants (repas, douche…). Il doit s’occuper du planning et des enfants. Un animateur doit montrer l’exemple et donc toujours être de bonne humeur, souriant, veiller à ce qu’il n’y ait pas de problème. Il est là, avant tout, pour aider les enfants à s’épanouir. L’animateur est une personne à qui on peut parler, se confier, pour toute sorte de problèmes. Aux yeux des enfants, il doit être sympathique, amusant, pour faire oublier le stress de la vie quotidienne. Lettre N° 6 : L’animateur est là pour, dans la mesure de ses moyens et du temps qui lui est accordé, aider le jeune à s’accomplir. Au travers d’activités culturelles, sportives et / ou ludiques, il cherche d’abord à créer un contact et un rapport de confiance avec le jeune, favorisant un esprit de groupe, une intégration du jeune dans l’activité, mais en tant qu’individu accepté pour ce qu’il est. L’activité peut lui apporter des connaissances, des savoir-faire, du plaisir, mais reste un support à des objectifs (socialisation, épanouissement personnel) plus « profonds ». L’animateur veille à la conception de l’activité (adaptée à l’âge, aux attentes des jeunes et à ses objectifs), à son organisation et à son bon déroulement. Il est aussi garant de la sécurité des jeunes. Lettre N° 7 : L’animateur - doit être capable d’animer un groupe d’enfants en proposant des activités appropriées par rapport à l’âge, la

structure - doit pouvoir faire face à toutes les réactions des enfants, et savoir gérer la situation en cas de problème - doit avoir une bonne aptitude à la vie en collectivité, et doit également pouvoir apporter ces notions de vie

commune à un groupe d’enfants - doit savoir faire preuve d’un peu d’autorité pour imposer certaines règles de vie à un groupe d’enfants en

vacances - doit être capable de faire preuve d’un peu de psychologie face aux enfants - doit être inventif et intéressé, pour pouvoir animer des camps et occuper les enfants. Lettre N° 8 : L’animateur doit être intéressé par les enfants, il doit s’en occuper, les écouter, les divertir. Pour les divertir, l’animateur doit être muni de nombreuses idées, que ce soit manuelles ou bien autres, par exemple sous forme de jeux. Il doit aussi les encadrer de façon très sérieusement. Il doit également être attentif sur chaque enfant, aussi bien de jour que de nuit. Je pense que la base de l’animateur, c’est les enfants. Si on n’aime pas les enfants, faut pas faire animateur. Lettre N° 10 : Pour moi, l’animateur doit tout d’abord occuper les enfants, les intéresser, tout en les éduquant, c'est-à-dire leur rappeler certaines règles de la vie en groupe et leur apprendre certaines choses. L’animateur doit préparer de nombreuses activités. De plus, il doit être capable de faire face à certaines situations plus ou moins difficiles. Il doit montrer ce qu’est le respect et doit essayer de faire son possible pour que tout se passe bien. Les activités qu’il prépare doivent être à la fois plaisantes pour les enfants et éducatives.

Page 585: UN REFERENTIEL, POUR QUOI FAIRE

585

Lettre N° 11 : L’animateur doit pouvoir divertir et s’occuper des enfants. Il doit aussi les écouter, il en est responsable. L’animateur est quelqu’un qui déborde d’idées, qui doit sans cesse faire de son mieux pour que les enfants passent un bon séjour. Mais il ne doit pas être seulement cela, il doit aussi apprendre aux enfants (pour ceux qui ne le savent pas) le respect des autres, la vie en communauté, la tolérance. Il ne doit pas faire leur éducation, bien sûr, mais juste leur donner un aperçu, juste essayer. Mais l’animateur doit tout d’abord, je crois, aimer énormément les enfants, sinon je crois qu’il ne peut pas être un bon animateur. Lettre N° 12 : L’animateur doit être capable d’appréhender les enfants, savoir gérer les situations, tout en ayant le sens de l’organisation, et donner un sens lucratif aux différents activités. La fonction de l’animateur, au delà de donner aux enfants l’esprit de vie en communauté et du partage, est aussi d’amener les enfants à être actifs, créatifs et volontaires. Je ne pense pas que le rôle de l’animateur se limite à faire le gendarme et occuper les journées de l’enfant (avec des jeux), mais aussi à le stimuler avec des loisirs distrayants, mais autant que possible « éducatifs », pour que les enfants s’amusent pendant leur séjour, mais en retiennent aussi un côté pratique, utile. L’animateur doit rester maître du groupe et doit permettre qu’il y ait un vrai échange pour qu’enfants et animateurs apprennent les uns des autres. Je pense qu’il faut, pour cela, beaucoup d’attention, de motivation (et de patience…).

2-2) L’analyse des données quantitatives :

a) Les résultats :

Bien que les réponses divergent, elles se concentrent toutes, sans exception, sur quatre

lettres pour qualifier la production « professionnelle » (lettres N° 2, 6, 7 et 12) et sur quatre

autres pour qualifier celle jugée « insatisfaisante » (lettres N° 3, 5, 8 et 11). Quand ils

hésitaient, les enquêtés donnaient deux ou trois réponses ; cependant jamais un choix

« insatisfaisant » n’a recoupé un choix « professionnel ». La stagiaire professionnelle (N°6) a

été majoritairement identifiée : 14 personnes sur 22 interrogées l’ont citée. Pour déterminer la

prestation « professionnelle », il n’y a eu que quatre doubles réponses, dont deux en deuxième

choix, c’est à dire seulement deux hésitations. En revanche, il y a eu 39 réponses pour choisir

le candidat « insatisfaisant », soit 17 réponses en sus du premier choix. Deux lettres se

disputent le rejet, la N° 3 et la N° 8 (14 et 13 réponses). La stagiaire concernée était la N° 3.

Peut être est-il plus difficile, dans les représentations, d’identifier les capacités d’un stagiaire

à se former que les compétences d’un professionnel. Par ailleurs, la seconde personne

évoquée (lettre N° 8) a éprouvé des difficultés pendant le stage : une autre équipe de

formateurs l’aurait peut-être sanctionnée. Ainsi, à partir de six à dix lignes écrites, des

professionnels de l’animation ont jugé les prestations de stagiaires « animateurs » et, sans

jamais les avoir rencontrés, ont répondu dans le même sens qu’une équipe de trois formateurs

qui les ont suivis, observés et évalués pendant huit jours. L’organisation syntaxique du

langage semble donc bien avoir une signification, dans ce milieu professionnel, qui privilégie

certaines représentations du « rôle de l’animateur ».

Page 586: UN REFERENTIEL, POUR QUOI FAIRE

586

b) L’analyse statistique de ces résultats :

Ces résultats ont besoin d’être relativisés au regard des traitements statistiques, voire

comparés à d’autres travaux pour qu’il soit possible d’en titre des conclusions, au moins à

titre provisoire en l’attente de travaux complémentaires. Dans un premier temps, observons un

tableau synthétique de ces résultats.

Lettres N° 1 2 3 4 5 6 7 8 10 11 12 Choix positifs 0 5 0 0 0 14 3 0 0 0 4 26 Choix négatifs 0 0 14 0 7 0 0 13 0 5 0 39

Un résultat aléatoire distribuerait de façon équiprobable le choix sur toutes les lettres,

c'est-à-dire autour d’une valeur moyenne, M = 26 réponses / 11 possibilités = 2,36 pour les

choix de la stagiaire professionnelle, ou M = 39 réponses / 11 possibilités = 3,55 pour la

stagiaire qui a eu le stage insatisfaisant. Par conséquent, quand le nombre de réponses est

proche de cette valeur moyenne (3 ou 4 réponses dans le premier cas ou 5 réponses dans le

second cas), nous sommes un peu trop près de celle-ci et il est difficile de savoir si ce choix

n’est pas simplement aléatoire. En revanche, lorsque les écarts sont importants, ce choix ne

peut plus être considéré comme tel. Pour calculer le taux de signification, on a utilisé la

méthode de la « comparaison d’une moyenne à une norme » ou un « standard », dont les

principes sont expliqués et argumentés par G. Langouet et J.C. Porlier (1981 : 77-80). L’écart

réduit est calculé selon la formule : ε = M-M0 / σ/√N. Nous obtenons les

Lettres jugées « professionnelles » 2 6 7 12

M-M0 / σ/√N 2,04 8,98 0,49 1,26

Probabilité de h0 d’après la loi normale 0,04 <0,000 000 001 0,62 0,21

Taux de signification à 95% Très Significatif N.S. N.S.

Lettres jugées « insatisfaisantes » 3 5 8 5

M0-M / σ/√N 6,32 2,09 5,72 0,88

Probabilité de h0 d’après la loi normale 0,000 000 001 0,04 0,000 000 01 0,38

Taux de signification Très Significatif à 95% Très Significatif N.S. Tableau

On a appliqué la loi normale pour calculer le taux de signification. La pondération

avec la loi de Student n’apporte que de faibles corrections (0,05 au lieu de 0,04 pour la lettre

N°2 en choix positif et la lettre N°5 en choix négatif, pris en compte pour le « taux de

signification »). Les effectifs sont tout de même faibles et l’expérience aurait mérité d’être

élargie, pour travailler sur une norme équiprobable autour d’au moins 5 unités, (minima

recommandé par les statisticiens), soit une diffusion au moins auprès de 55 personnes (11x5).

Page 587: UN REFERENTIEL, POUR QUOI FAIRE

587

Pour des raisons techniques, cela n’a pu se faire lors de la première passation et le protocole

n’a pas été repris par la suite. Mais c’est surtout une autre raison qui a limité la taille de

l’échantillon : on a privilégié l’analyse qualitative. Dans ce cas, il s’agit de trouver un juste

équilibre entre la part quantitative minimale et la complexité du décodage qualitatif. Il a donc

semblé, dans un premier temps, préférable de se limiter à un échantillon moyen, quitte à

parfaire le protocole et à le vérifier plus tard sur un échantillon plus conséquent, lorsque les

bases de l’analyse qualitative seront posées. Les résultats sont assez significatifs, pour les

trois lettres qui ont été le plus souvent citées : la N° 6 pour le choix positif et les N° 3 et 8

pour les choix négatifs. Par ailleurs certains choix pourraient être regroupés, par exemple ceux

qui se sont portés sur les lettres N° 2 et N° 7, voire la N°12, en raison de leur façon commune

d’appréhender le matériel langagier. Ils deviennent alors plus significatifs. Ces résultats

confirment donc qu’il existe une réelle convergence au moment de l’évaluation.

2-3) L’analyse du discours des examinateurs et des productions des stagiaires :

Dans un premier temps, on observera donc, à partir des méthodes de l’analyse des

discours, la structure des lettres qui sont communiquées aux examinateurs. Puis, dans un

second temps, on analysera les appréciations des examinateurs sous l’angle de l’analyse des

contenus, à la fois l’analyse sémantique à partir des oppositions entre lexèmes et des

cooccurrences, puis syntaxique à partir de l’analyse des prédicats.

a) L’analyse de la structure syntaxique des lettres des stagiaires :

- Les lettres N° 2 et 7 sont énumératives, organisées autour de la modalisation du

« devoir », ce qui leur confère un style structuré. Sous cette forme, sont énumérées les

principales capacités (« doit être capable de »), les savoirs faire, mais aussi certaines

qualités : « être inventif », « être attentif ». Ce sont donc essentiellement les « devoirs » de

l’animateur qui sont listés de façon assez normalisée, « devoir faire » et « devoir être »,

parfois des « devoir » modalisés avec un substantif ou des verbes modaux (aimer) ou

(pouvoir). La lettre N°2 ne déroge que deux fois à ce type de structure (« a pour but » et

« est présent »), mais cette dernière pourrait fort bien s’intégrer dans le schéma du devoir.

- La lettre N° 6 est argumentative : elle utilise une grande variété de joncteurs (prépositions,

conjonctions) pour exprimer son raisonnement : joncteurs de but (« pour »), de condition

(« dans la mesure »), de comparaison (« en tant que »), d’opposition (« mais »).

Page 588: UN REFERENTIEL, POUR QUOI FAIRE

588

Elle intègre, dans son discours, des enchâssements successifs (il cherche d’abord…

favorisant un esprit de groupe, une intégration du jeune), qui montrent une progression

méthodologique par rapport à des objectifs cités (« socialisation, épanouissement ») et des

moyens mis en œuvre. Il y a « une mise en évidence d’une approche progressive,

expression des enrichissements à apporter dans l’animation sur plusieurs niveaux (savoir,

savoir faire…) ».

- La lettre N° 12 est aussi structurée, comme la 2 et la 7, autour de la modalisation du

« devoir », mais cette forme est beaucoup moins exclusive. Par deux fois, la stagiaire

s’implique par un ancrage dans la situation (je) et une forme modalisée : « je ne pense

pas…, je pense… ». Non seulement elle fait une part importante aux enfants (cités 7 fois

dont une par anaphore), mais surtout elle est la seule où l’ « enfant » est placé en position

d’ « actant » (2 fois) et non plus seulement d’ « acté » (au sens défini par Ghiglione –

1998), c'est-à-dire de « sujet acteur » vs « objet subissant l’action ».

b) L’analyse sémantique des arguments des examinateurs :

Il a été demandé aux examinateurs de justifier leur choix. Deux analyses apparaissent

alors possibles, la première sur la dimension sémantique, la seconde sur la dimension

syntaxique. La première met en valeur les raisons invoquées par les examinateurs. Mais une

quantification des unités langagières est toujours sujette à controverse : il a donc semblé

préférable d’étudier les principaux univers sémantiques, c'est-à-dire les lexèmes qui

différencient vraiment les appréciations, et la cohérence que ces unités entretiennent entre

elles ou avec certaines propositions typiques qui leur donnent de la signification. Analysons

les arguments qui dominent la justification du choix de la prestation « professionnelle ».

Justification du choix des lettres

N° 2 5

- Déclinaison logique - Il invoque la notion de sécurité, responsabilité, le bon déroulement du projet, dans son esprit,

il est structuré - J’aime bien aussi, réflexion (en 2ème position) - Très synthétique, clair à la fois dans sa tête et sur le papier. Il est déjà dans la perspective de

direction : il emploie le terme de projet, règles de vie, tolérance, contact, épanouissement - Notion de devoir, connaît ses devoirs, a fait le tour, cadre bien.

N° 6 14 - Emploie des termes précis et pro - Déclinaison logique - A compris et adopté les aspects techniques du métier, le vocabulaire est soigné, l’enfant

apparaît en tant qu’acteur - Responsable et mature sur son rôle d’animateur - Il parle d’objectifs, d’esprit d’équipe, intégration conception d’activités et sécurité

Page 589: UN REFERENTIEL, POUR QUOI FAIRE

589

- Vision très réfléchie, mise en évidence d’une approche progressive, expression des enrichissements à apporter dans l’animation sur plusieurs niveaux (savoir, savoir faire…), très claire, vocabulaire « politiquement » correct

- Intégration, objectifs, gestion, organisation, sécurité, beaucoup de points sont traités - Professionnel - Il se fixe des objectifs, rappelle la notion de responsabilité, et évolue dans le cadre qu’il

connaît avec un langage approprié - Le professionnel - Maîtrise les objectifs visés, les moyens et les actions comme un professionnel - Cela va de soi, il y a une réflexion poussée en termes de socialisation, d’épanouissement

personnel… également sur la conception de l’animation - Termes professionnels, objectifs fixés, moyens annoncés - Elle relativise, elle a un idéal de son métier, elle connaît les réalités, elle parle d’objectifs

N° 7 3 - C’est structuré, veille à la sécurité, bonnes aptitudes, résume l’ensemble des qualités d’un bon animateur

- Capable de structurer sa pensée, utilise un vocabulaire approprié et cohérent ; les idées qui ressortent montrent que la personne connaît déjà le milieu de l’animation

- La majorité des points sont notés : animation, tranches d’âge, gestion des conflits, vie collective…

N° 12 4 - Très scolaire (en 2ème position) - Animateur expérimenté, qui répond aux besoins de l’enfant, il y a une réflexion sur la

pédagogie - Très pro, construit, donner l’aspect de responsabilisation aux enfants, « créatifs et

volontaires » - Très pertinente, se positionne bien

Il s’agit d’observer, dans ces formes d’expression, la façon dont les examinateurs s’expriment

sur le discours produit par les stagiaires, ou sur les stagiaires eux mêmes. Pour l’analyse

sémantique, on observe les termes caractéristiques de chaque lettre, mais surtout la façon dont

ces termes s’articulent entre eux. Certains d’entre eux sont généraux, ils se retrouvent pour

toutes les lettres : « responsabilité, sécurité, etc. ». Ils constituent le pot commun reconnu par

tous : un animateur a ces qualités essentielles. D’autres qualifient le style (« vocabulaire

soigné, langage approprié, etc. »), exprimant les contraintes de la situation d’interaction :

comment juger un écrit ? Cependant on notera qu’un certain nombre de termes ne sont

évoqués que pour certaines lettres ; ils sont suffisamment significatifs pour expliquer les

différences de choix entre, d’une part, la lettre N° 6 et, d’autre part, les lettres N° 2 et 7 :

- La notion d’ « objectifs » revient de façon récurrente dans les choix de la lettre N° 6. Nous

pouvons ajouter les « enrichissements à apporter » et « la réflexion en termes de

socialisation et d’épanouissement », deux syntagmes qui précisent cette notion. Le

signification de celle-ci est renforcée par la cooccurrence avec des termes comme

« moyens » (2 fois), « intégration » (2 fois), « conception » (2 fois). L’ensemble de ces

notions évoquent « une approche progressive », une « réflexion poussée » ou une « vision

très réfléchie ». Par ailleurs le terme « professionnel » est employé 5 fois / 14 réponses

(contre ¼ pour la lettre N°12 et pas du tout pour les autres). Il est employé 2 fois sous la

forme d’un prédicat nominal, qui renvoie au caractère sentencieux du jugement.

Page 590: UN REFERENTIEL, POUR QUOI FAIRE

590

- La notion de « structure » (3 fois) est, en revanche, la plus fréquemment évoquée pour

justifier le choix des lettres N° 2 et 7. La cooccurrence avec certaines notions précise la

signification de ce choix : « très synthétique », « emploie le terme de projet », « règles de

vie », elle « a fait le tour », la « majorité des points sont notés ». Derrière cette notion de

structure, il y a donc bien l’idée que le candidat « connaît ses devoirs », du moins

« l’ensemble des qualités d’un bon animateur ».

- Sur le choix de la lettre N° 12, seul le terme de « pédagogie » (1 fois) est caractéristique :

la faiblesse de l’échantillon nous conduit ici à des réserves sur un traitement éventuel.

c) L’analyse syntaxique des appréciations produites par les examinateurs :

Le style des réponses des examinateurs est très télégraphique, sous forme de brefs

énoncés. Mais, en raison des présuppositions induites par le contexte de l’interaction

(évaluation de prestations écrites de stagiaires), nous pouvons rétablir sans ambigüité, à

quelques exceptions près, la structure syntaxique des phrases. Par exemple : « clair dans sa

tête et sur le papier », c’est du stagiaire dont on parle. L’analyse prédicative permet de définir,

pour chaque proposition, les formes syntaxiques privilégiées. Les grands principes de

l’analyse prédicative ont été posés dans la partie méthodologique (ch. 10, &. 2-1). Certains

choix de classification seront l’occasion d’apporter un complément de réflexion sur cette

notion de prédicat.

Dans le tableau de synthèse (ci-dessous), chaque proposition a donc été réduite à son

prédicat. Les codages utilisés sont précisés pour chaque forme prédicative, lors de leur

présentation. On a mis entre parenthèses, dans le tableau, les propositions subordonnées ou

relatives qui déterminent les prédicats verbaux ou substantifs qui les précèdent.

Nous avons essentiellement :

1° des prédicats verbaux, de type factifs (F), déclaratifs (Fd) ou statifs (St) :

- Les « déclaratifs » (Fd) expriment une action du stagiaire dans la situation d’interaction :

il « invoque, parle, rappelle, relativise, répond ». Ils font donc directement référence à la

situation d’énonciation (une production écrite), dans laquelle le stagiaire s’inscrit. Ils

traduisent donc ses « dire ».

- Les factifs (F) expriment, ici, une action de l’animateur, les « faire » de l’animateur en

situation professionnelle : les « faire » dont il convient de parler. Quand un examinateur

écrit « veille à la sécurité », il suppose l’acte accompli par le professionnel qui s’exprime

sur ce sujet, il ne l’observe pas en situation réelle. Il juge le « faire » à partir du « dire ».

Page 591: UN REFERENTIEL, POUR QUOI FAIRE

591

Les « factifs » font référence à l’action des stagiaires, mais par rapport à des schémas-type

attendus, qui, de ce fait, sont inférés à partir de l’expression : « il cadre », « il adopte des

aspects techniques », « il maîtrise objectifs, moyens », « il veille à la sécurité ».

- Les « statifs » (St) font référence à des propriétés des stagiaires, inférées à partir de

l’expression : « elle a un idéal », « il est dans la perspective de direction »179. Le verbe

« connaître » a, en raison du contexte des énoncés, été inclus dans cette classe des

« statifs » (St ©). Ce verbe a la même structure que les verbes modaux (« avoir la

connaissance »), mais ce n’est pas un verbe modalisateur dans la mesure où, en français,

on utilise le verbe « savoir » pour cette fonction. Le verbe « connaître » insiste sur le

caractère objectif des connaissances, exprimé par le complément d’objet direct : « il

connaît le milieu », « connaît ses devoirs », etc. Il exprime une propriété du sujet –

stagiaire. On a inclus, dans cette catégorie, le prédicat substantif « aptitudes », en raison

de l’implicite induit par le cotexte : « il a de bonnes aptitudes ». Cette proposition remplit

ici les mêmes fonctions que les statifs (cf. ci-dessous).

- N.B. : Les verbes statifs s’inscrivent à la suite d’une succession d’énoncés, parfois dans

des propositions subordonnées (2 fois pour « connaître »), ce qui met en valeur leur

inférence à partir des propositions précédentes. Cette inférence (chrono-) logique n’est

donc pas du même ordre que celle induite par les verbes factifs. Pour ces derniers,

l’inférence est construite à partir du rapport de référence avec la situation d’énonciation :

1 - les stagiaires ont été mis en situation de s’exprimer sur leur « représentation du rôle de

l’animateur » ; 2 - le cadre de collecte des lettres et cette consigne ont été expliqués aux

examinateurs ; 3 - ceux-ci infèrent donc un certain nombre de schémas-type de l’activité

d’un animateur professionnel, à partir de l’expression des stagiaires - du moins celle qui

est censée être la professionnelle. Les factifs expriment ces schémas-type qui sont de

l’ordre de la représentation : « veiller à la sécurité », « maîtriser objectifs et moyens ».

2° des prédicats substantifs (S), soit des prédicats sentencieux, réponse à la consigne sans

argument (« le professionnel ») (S), soit des éléments des lettres, invoqués pour fonder

l’argumentaire (« notion de devoir », « intégration, objectifs, gestion… ») (Set), soit de para-

lexèmes (substantifs avec complément de nom), avec ou sans la locution « il y a » : « mise en

évidence d’une approche progressive », « expression des enrichissements », « réflexion en

termes de socialisation, épanouissement », « réflexion sur la pédagogie » (Spl). Ils expriment,

dans ce cas, des raisonnements avec des enchâssements plus complexes.

179 La forme « il est dans… » met en valeur le prédicat statif « être » de la proposition, par rapport à la fonction de copule : « il est quelque chose ».

Page 592: UN REFERENTIEL, POUR QUOI FAIRE

592

3° des prédicats attributs, sous forme d’adjectifs (Aa) :

- soit présentés sans substantifs (caractère sentencieux de l’évaluation) ; ils sont alors le

plus souvent placés en position de thème : en raison du contexte (situation de jugement),

ils font référence à une qualité de l’acteur-stagiaire ou de la production globale ;

- soit avec la copule « être », il assume alors une fonction de synthèse générique : « il est

structuré », « c’est structuré » ;

- soit sous forme de phrase nominale (déclinaison logique, vocabulaire soigné, vision

réfléchie, vocabulaire correct, termes professionnels) : il qualifie dans ce cas, le plus

souvent, des actions observées dans l’expression du stagiaire ; une seule fois le stagiaire

lui même (animateur expérimenté).

On exprimera ce rapport référentiel avec ce symbole : (->) ; c'est-à-dire (Aa -> act) pour

l’action ou (Aa -> stag) pour le stagiaire ou sa production jugée globalement (y compris

« animateur expérimenté »).

On obtient ainsi une structure formelle des arguments qui justifient les choix.

Structure formelle des critères

Lettres Structures formelles Ancrage thématique

N°2 Aa -> act. Fd ; Aa -> stag. Aa -> stag. ; Aa -> stag. ; St ; F Set ; St © ; F ; F

Aa -> act. - Argument unique Fd Aa -> stag. S

N° 6 F Aa -> act. F ; Aa -> act. ; S Aa -> stag. Fd Aa -> act. ; Spl ; Spl ; Aa -> stag. ; Aa -> act. Set ; F S F Fd F (+St ©) S F Spl Aa -> act. (X3) F ; St ; St © ; Fd

Fd - Argument unique Aa -> act. - Argument unique F Aa -> stag - Argument unique Argument unique Aa -> act. - Argument unique Set Sc - Argument unique F Sc - Argument unique F - Argument unique Set - Argument unique Aa -> act. Fd

N° 7 Aa -> stag. ; F ; St ; Fd Aa -> stag. ; F ; F (+St ©) Fd

Aa -> stag. Aa -> stag Fd - Argument unique

N° 12 Aa-> stag. (+Fd) ; Spl Aa-> stag. ; Aa-> stag. ; F Aa-> stag. ; F

Aa-> stag. Aa-> stag. Aa-> stag.

Page 593: UN REFERENTIEL, POUR QUOI FAIRE

593

Quelques discussions permettront de justifier les choix dans le classement des

prédicats qui est ici proposé, mais elles ont surtout pour intérêt de préciser certains enjeux de

l’analyse. Chaque hésitation renvoie effectivement, pour être clarifiée, au contexte particulier

de la situation d’énonciation qui devient alors plus précis.

- Il est possible d’hésiter face à des verbes factifs comme « employer » ou « utiliser », dans

des expressions telles que « emploie le terme » ou « utilise le vocabulaire », syntagmes

qui font aussi référence à une situation d’interaction langagière. Cependant il y a une

différence entre « il invoque le terme », qui fait référence à la situation de l’énonciation

(déclaratif), et « il emploie le terme », qui fait référence au « faire » habituel de

l’animateur en situation : s’il l’emploie ici, il l’emploie aussi dans son travail (factif).

- Les deux énoncés « la majorité des points sont notés » (critère pour la lettre N°7) et

« beaucoup de points sont traités » (critère pour la lettre N° 6) sont sémantiquement très

proches. Les deux prédicats sont considérés comme les formes passives des deux verbes

factifs : « sont notés » et « sont traités » par le stagiaire (supposition en raison du contexte

de référence). Cependant, pour la lettre N°7, les différents points sont déclinés à la suite

de l’argument qui est ainsi étayé, alors que, pour la lettre N° 6, les points sont d’abord

exposés et l’argument arrive ensuite. L’effet de sens n’est pas le même. Dans la lettre N°6,

l’argument arrive comme une synthèse des différents prédicats nominaux qui sont posés

comme thème. D’ailleurs « noter » est un verbe déclaratif : les différents points « notés »

ne sont que des précisions qui signifient le prédicat ; alors que « traiter » est un factif : les

différents substantifs qui sont présentés sous forme de thème correspondent à un schéma-

type qui est inscrit dans le métier. Cette différence renforce la distinction entre les deux

effets de sens et confortent l’analyse du point précédent : factifs et déclaratifs ne

remplissent pas la même fonction.

- Les attributs – adjectifs, accompagnés de substantifs, qui qualifient les actions (Aa -> act),

sont proches sémantiquement des prédicats – substantifs, qui font référence à celles-ci

(Spl) : par exemple, entre « vision très réfléchie » et « il y a une réflexion poussée ». Mais,

dans le premier cas, le substantif est qualifié par l’attribut (relation de signification) avant

de faire référence à l’acte du stagiaire (sa « vision ») dans le second cas, le substantif fait

référence à l’action (« réflexion ») et c’est la situation, le cadre de référence, qui en fait

une propriété implicite de l’action du stagiaire. Dans le premier cas, la signification

précède la référence, précise le terme (« vision ») avant de s’inscrire dans le contexte ;

dans le second cas, c’est la référence qui induit le sens de la signification (« réflexion sur

la pédagogie » ou « poussée en termes de socialisation, d’épanouissement personnel »).

Page 594: UN REFERENTIEL, POUR QUOI FAIRE

594

Mais le phénomène décrit est le même puisqu’il s’agit des mêmes lexèmes. Par

conséquent il n’est pas toujours aisé de différencier, dans certaines propositions, si le

prédicat est un attribut (Aa -> act) ou un substantif (Spl). Par exemple, dans l’énoncé de

trois propositions « termes professionnels, objectifs fixés, moyens annoncés », la forme de

la première ne fait pas de doute, c’est « professionnels » le prédicat (Aa -> act), mais les

deux suivantes laissent la porte ouverte à deux types de prédication différents : « termes

professionnels, objectifs, moyens » vs « termes professionnels, fixés, annoncés ». Dans le

premier cas, on insiste plus sur les relations référentielles qui viennent préciser la notion

de « professionnels » : « objectifs » et « moyens » sont des « termes professionnels ».

Dans le second cas, ce sont les relations de signification qui déterminent cette notion, sur

le modèle de la définition : être « professionnel », c’est « fixer », « annoncer ». Ces deux

modes d’interprétation de l’argument cohabitent dans cette microstructure formée de trois

propositions.

- Les para-lexèmes sont construits sous forme d’enchâssement de substantifs qui expriment

une structure plus complexe : le premier substantif fait référence à une action par rapport à

la situation de communication (mise en évidence, expression, réflexion), le second fait

référence à ce qui est ainsi exprimé (approche progressive, enrichissements, sur la

conception, sur la pédagogie). Pour comprendre ce processus, il est intéressant d’analyser

la proposition : « il y a une réflexion poussée en termes de socialisation,

d’épanouissement personnel… également sur la conception de l’animateur ». Nous avons

la même structure que les autres para-lexèmes : « il y a réflexion sur la conception de

l’animateur ». Mais au milieu se sont glissés des termes repris dans la lettre (Set). On

aperçoit ainsi la structure cognitive du raisonnement qui s’est mis en place : certains

éléments du texte sont conservés (« socialisation, épanouissement ») (Set), mais ils sont

aussi désignés par des termes plus génériques : soit un prédicat substantif qui signifie ces

formes d’expression (mise en évidence, expression, réflexion) avec un complément du

nom qui manifeste une compétence, du moins un savoir faire (approche progressive,

enrichissements à apporter, conception, pédagogie), soit une prédicat attributif (Aa -> act)

qui qualifie ces formes d’expression (déclinaison, vision, vocabulaire). Ces trois formes

syntaxiques (Set, Spl, Aa -> act) font donc partie d’un processus d’objectivation (au sens

de S. Moscovici). Ce sont donc les éléments langagiers qui sont sollicités pour exprimer la

représentation de la situation.

Page 595: UN REFERENTIEL, POUR QUOI FAIRE

595

- Mais les constructions représentatives n’emploient pas toujours ce chemin objectif. Elles

s’appuient aussi sur des processus plus subjectifs. « Objectif » et « subjectif » renvoient

ici à des formes de discours et non à des connotations génériques : « objectif » caractérise

une signification d’un substantif par d’autres substantifs (Spl) ou une prédication

attributive d’un objet (Aa -> act), alors que « subjectif » désigne une prédication

attributive du sujet (« il est…. », « il a … »). La démarche subjective est donc portée par

les verbes statifs, « avoir », « être », et toutes les formes dérivées que l’on a identifiées,

mais aussi, en raison du contexte spécifique de l’énonciation, par les adjectifs qui sont

posés de façon sentencieuse, sans relation de signification avec un substantif :

« synthétique, clair, responsable et mature, très pro, très pertinente ». Ces formes

prédicatives font implicitement référence au sujet-acteur, c'est-à-dire au sujet producteur

de la lettre.

- On s’aperçoit donc que, dans ce contexte, certaines formes syntaxiques génèrent les

mêmes sémèmes (effets de sens). On en a discerné au moins deux catégories : les para-

lexèmes (Spl) et les attributs des substantifs qui font référence à la situation d’énonciation

(Aa->act) ; les verbes statifs (St) et les attributs qui font référence au sujet-acteur (Aa ->

stag). Les ambiguïtés, qui ont été pointées ci-dessus, sont levées à partir du moment où les

formes syntaxiques controversées font partie de la même catégorie de sémèmes, formant

ainsi un même système de référenciation, bien que les processus cognitifs (articulation

signification / référence) soient sensiblement différents. Ainsi, dans le cas de l’énoncé

« termes professionnels, objectifs fixés, moyens annoncés » et de ces deux modes

d’interprétation (le premier privilégiant la relation référentielle : « termes professionnels

d’objectifs et de moyens » (Spl/Set) ; le second privilégiant les significations attributives :

« termes professionnels, fixés, annoncés » (Aa -> act)), l’un et l’autre font partie du même

type de sémème dans ce contexte. Mais d’un point de vue empirique, c’est l’inverse qui se

produit : l’analyse débute par l’identification intuitive du sémème commun (vision

réfléchie / réflexion poussée), puis vient l’analyse de la différence entre les deux

processus cognitifs et la sélection des catégories pertinentes en fonction du contexte. Ce

sont donc les hésitations et les ambigüités qui induisent la formation des catégories de

sémèmes. Cette construction est souvent intuitive et générique : on perçoit la subjectivité

(au sens défini ci-dessus) d’une part, la référence à la situation d’énonciation d’autre part,

sans forcément entrer dans l’analyse pointue des processus logiques.

Page 596: UN REFERENTIEL, POUR QUOI FAIRE

596

- Les verbes déclaratifs s’inscrivent aussi dans une démarche d’intégration d’unités du

langage piochées dans les lettres : « il invoque la notion de sécurité, il parle d’objectifs, il

rappelle la notion de responsabilité, il résume l’ensemble des qualités, il répond aux

besoins de l’enfant ». Nous avons là une autre forme syntaxique qui fait référence à la

situation d’énonciation et, de ce fait, à la représentation de cette situation. En revanche les

verbes factifs ne s’inscrivent ni dans cette approche objective de la situation, ni dans une

approche subjective du sujet-acteur, mais dans une approche fonctionnelle de ce que font

les animateurs : « il emploie des termes pro, il cadre, il fait le tour, il adopte les aspects

techniques, il traite certains points, il se fixe des objectifs, il évolue dans un cadre, il

maîtrise les objectifs, il relativise, il utilise un vocabulaire approprié, il donne de la

responsabilité aux enfants, il se positionne bien ». Ces faire représentent donc des

schémas-type de la profession, des fonctions remplies par tout animateur, du moins pour

les examinateurs, donc des capacités à faire qui sont attendues. Ils sont inférés à partir des

dires des stagiaires. Ils sont aussi de l’ordre de la représentation, mais plutôt du « rôle

social ». C’est pourquoi on a intégré dans cette dernière catégorie tous les sémèmes

substantifs sentencieux (« professionnel ») ou ceux qui font référence à une représentation

de l’action avec les autres partenaires (« l’enfant apparaît en tant qu’acteur »).

- On constate, au fur et à mesure que l’on avance dans l’analyse, que ce n’est pas tant la

forme syntaxique qui détermine le prédicat de la proposition, que le contexte et le cotexte.

La différence entre les actions identifiées à partir des formes de l’interaction et celles

inférées à partir de schémas-type apparait ici fondamentale pour analyser les arguments

utilisés lors des situations d’évaluation (critères) : les processus cognitifs sont différents.

Dans le premier cas, l’examinateur se fonde sur les éléments d’observation (représentation

de l’interaction) ; dans le second, il se réfère à des schémas-type de la profession

(représentation du rôle). Ces processus sont complémentaires et s’articulent entre eux,

ainsi que l’illustrent la plupart des arguments. Mais l’analyse prédicative a l’intérêt de

montrer les points sur lesquels l’acteur met l’accent. L’opposition adjectifs / substantifs /

verbes est donc moins pertinente, pour notre propos, que cette distribution en trois

catégories : représentation de la subjectivité, représentation de la situation, représentation

du rôle de l’animateur.

Page 597: UN REFERENTIEL, POUR QUOI FAIRE

597

C’est à partir de cette répartition en trois catégories d’effets de sens (c'est-à-dire d’articulation

entre la signification et la référenciation) qu’ont été étudiés les différents processus

argumentatifs (critères) qui nous sont proposés par les examinateurs.

On obtient les tableaux ci-dessous.

Lettres Aa -

>stag -> act S Spl Set S

autre St dont St(C) F Fd

6 9 2 7 7 3 1 3 3 2 7 3 29

2, 7, 12 10 9 1 2 1 1 0 4 2 8 4 28

Soit une répartition des différents modes de représentation sollicités :

A la lecture de ce tableau, on voit une tendance se dessiner : les examinateurs qui ont

choisi la lettre N°6 ont privilégié les éléments observables dans la situation d’interaction, telle

qu’elle est présentée au cours de l’expérience et qu’ils se la représentent. En revanche ceux

qui ont choisi les autres lettres ont privilégié un choix subjectif, la représentation qu’ils ont du

stagiaire et de sa production. Mais, ici aussi, le faible effectif nous invite à quelques

modérations dans la conclusion. Le Khi 2 du tableau ci-dessus est de 0,047, par conséquent

significatif au taux de 95%, mais, si on applique la pondération de Yates aux trois données en

dessous de 10, il est moins significatif (0,07). On fera tout de même remarquer que le choix

de la représentation subjective par les examinateurs qui n’ont pas choisi la stagiaire réellement

professionnelle est suffisamment significatif pour en tirer des conclusions.

subjectif autres

L6 5 24

29 L2712 13 15 28

18 39 57 avec pondération test khi deux 0,018 0,023

Lettres subjectif situation rôle 6 5 14 10 29

2, 7 et 12 13 7 8 28

Page 598: UN REFERENTIEL, POUR QUOI FAIRE

598

Les discussions qui ont eu lieu entre les examinateurs à l’issue du protocole ont

conduit vers cette piste, qui s’est vérifiée empiriquement : le choix qui s’est porté sur d’autres

stagiaires a été moins influencé par des données objectives que par une aperception globale de

la production, certains examinateurs ayant préféré l’aspect plus structuré et moins

argumentatif des productions N° 2, 7 et 12. Une autre donnée apporte une hypothèse

complémentaire pour expliquer ces divergences. Si nous observons le tableau de la « structure

formelle des critères », nous constatons que les arguments uniques se concentrent sur la lettre

N°6 (9/14), alors qu’ils sont plus rares sur les autres productions (2/10). L’argument unique

met en valeur le caractère sentencieux, souvent peu argumenté, de l’acte d’évaluation. Il s’agit

plutôt de la norme que de l’exception : les arguments pour les représentations insatisfaisantes

(ci-dessous) sont aussi sentencieux. Les pratiques quotidiennes (par exemple, bulletins

scolaires) confortent cette idée. Par conséquent on peut penser que les arguments ont été plus

étayés sur les lettres N° 2, 7 et 12, que la norme. Les examinateurs qui ont choisi ces

prestations ont certainement ressenti le besoin d’argumenter un peu plus pour se démarquer

de la lettre N° 6. Il s’agit donc bien d’un choix différent qui est argumenté - donc de critères

divergents. Là encore, l’échantillon est trop faible pour aller dans des conclusions plus

poussée. Si le Khi 2 est significatif (0,03), la pondération sur toutes les données le remet en

question (0,22). Mais surtout on peut faire l’hypothèse qu’avec un échantillon plus

conséquent, la lettre N° 12 se démarquerait des lettres N° 2 et 7, car son style est différent et

les arguments subjectifs des examinateurs s’y concentrent (50% des arguments).

d) Résultats de l’analyse qualitative :

Les arguments prédicatifs qui ont trait à la représentation de la situation sont les plus

représentées : 21 arguments contre 18. Par ailleurs de nombreux arguments factifs, qui font

référence à la représentation du métier, intègrent des substantifs, comme complément d’objet,

qui font référence à la situation d’interaction. Ce rapport entre le « faire de l’animateur » (F)

et les objets langagiers de ce faire (termes, notion, vocabulaire) souligne la façon dont les

compétences linguistiques sont déduites schématiquement des observations relevées

(« emploie le terme », « utilise un vocabulaire »). Ceci est en cohérence avec la situation

d’interaction (évaluation d’une représentation écrite), mais aussi de l’enquête : les

examinateurs font l’effort de justifier leur choix à partir des éléments du discours. Les

représentations subjectives dominent les choix des lettres N° 2, 7 et 12 (7 fois sur 10), alors

que ce sont les représentations de la situation qui justifient le choix de la lettre N° 6.

Page 599: UN REFERENTIEL, POUR QUOI FAIRE

599

Les résultats de l’analyse syntaxique confirment ainsi l’impression qui s’est dégagée de

l’analyse sémantique : les choix des lettres N° 2, 7 et 12 ont été réalisés beaucoup plus en

fonction de qualités subjectives recherchées par les examinateurs (structure, esprit

synthétique, ensemble des qualités d’un bon animateur) qu’en fonction de la recherche

d’éléments objectifs dans le texte (par ex. « objectifs, moyens, intégration, socialisation »)

pour répondre à la consigne. Les réponses pour justifier les choix ont été alors plus

argumentées. Globalement les critères formulés par les examinateurs pour justifier leur

décision correspondent à l’organisation syntaxique des représentations langagières des

stagiaires qu’ils ont choisies, et l’analyse sémantique et syntaxique de leurs arguments est un

moyen de discerner leurs principaux critères. On discerne au moins deux grandes catégories :

- ceux qui privilégient la démarche de projet (objectifs / moyens / conception) avec un

discours argumenté, qui reflète une « réflexion » du candidat ;

- ceux qui privilégient les principaux « devoirs » ou « qualités » avec un discours

synthétique et structuré, qui reflètent les « qualités subjectives » de l’animateur.

Ces critères influencent les choix au moment de la prise de décision. Certainement il y aurait

eu un écart dans les notations si les productions avaient été notées.

2-4) L’analyse des arguments sur les représentations jugées insatisfaisantes :

Les arguments qui ont conduit à sélectionner la représentation jugée insatisfaisante

seront analysés avec un objectif sensiblement différent, celui de catégoriser les différents

critères qui conduisent les professionnels à sanctionner leurs stagiaires (stage de formation ou

pratique). Cette orientation est induite par le mode de validation du BAFA, qui n’est pas un

diplôme fondé sur une appréciation de compétences : seules les sanctions insatisfaisantes ont

une valeur certificative, tout cursus sans sanction est jugé valide, sauf intervention du jury ou

du directeur départemental (souvent par délégation l’inspecteur) au regard d’appréciations

trop négatives. Il semble donc pertinent, pour une recherche qui souhaite s’inscrire dans les

préoccupations professionnelles (cf. chapitre 1), d’avoir une analyse des différents processus

cognitifs mis en œuvre, tels qu’ils transparaissent du moins dans la formulation des

appréciations par les examinateurs : faire l’analyse des compétences et des représentations

sollicitées par ces derniers au moment du jugement, à partir de leurs performances

langagières. Observons dans un premier temps les différentes appréciations.

Page 600: UN REFERENTIEL, POUR QUOI FAIRE

600

Justification des lettres pour les représentations du stage insatisfaisant

N° 3 14 - Inconnaissance du milieu, du public, manque de motivation - Aucune mention de projet et de pédagogie, ne prend pas en compte les besoins et les

demandes de l’enfant - N’a pas compris son rôle - « Chef de convoi » me choque - Très porté sur l’aspect réglementaire - Pas terrible - Très limité, mais il parle de respect - Nul - Il n’est pas forcément utile d’être animateur pour organiser des sorties ; il n’est pas

seulement responsable des transports, il doit veiller à la sécurité - Chef de convoi, difficile ou pas, c’est n’importe quoi - Chef de convoi m’a beaucoup fait rire ; un animateur n’est pas quelqu’un qui a le

permis - Vide et creux, les indices sont confus et limités - Niveau d’éducation et d’instruction sûrement très bas, n’a pas compris le rôle de

l’animateur, n’a pas beaucoup d’idées et se focalise sur quelques points de détails : convoi, bagarre.

- Pas de raisons que les sorties soient difficiles, chef de convoi n’est pas le terme adapté, ce n’est pas qu’en cas de mauvaise entente ; les termes ne sont pas adaptés, très limité.

N° 5 7 - Activisme, quel est son rôle - Idem 3 et 8, ne connaît pas les outils - Je ne sais pas « EXPLIQUER » le pourquoi - C’est le seul à ne pas parler de respect, ego trop important - Pauvre - Pas de participation active, nounou - Se prend pour Marie Thérèse, se place en assistante sociale, on ne sait pas bien ce

qu’il est capable de faire, est-il épanoui lui-même ? N° 8 13 - C’est du style « j’aime les enfants »

- Club Med - Il néglige les activités, son objectif, c’est l’enfant et non son épanouissement - Aimer, attentif jour et nuit, les convictions font un peu peur - Divertir sans but éducatif et pédagogique me gêne - Réfugie ses appréhensions dans le fait d’aimer les enfants : ceci ne suffit pas à être

animateur. Il faut être conscient du rôle à tenir, de ses responsabilités. - Les notions principales à l’animation ne sont pas traitées - Il n’y a pas d’objectif autre que de garder les enfants - Un animateur de boîte de nuit peut le faire - Pas de discours en termes de projet - Divertir les enfants n’est pas un objectif, très sérieusement et attentif sur chaque

enfant me semble impossible - Limite, mais on va dire que ça passe ! Et encore ! - Définition très limité du rôle de l’animateur

N°11 5 - Stage insatisfaisant - Sans commentaire - « Intéressé par les enfants », « s’en occuper », « les divertir », mots qui me gênent car

ne vont pas bien loin - le pas bon - Aimer les enfants ne suffit pas, limite démagogique

Tout d’abord on notera l’importance des arguments uniques mais, à la différence des

critères sur la représentation professionnelle, les résultats sont inversés : la lettre réellement

insatisfaisante en a le moins. Avec une réserve tout de même : la différence n’est pas

suffisamment significative pour en tirer des conclusions (Khi 2 = 0,146 sans pondération).

Page 601: UN REFERENTIEL, POUR QUOI FAIRE

601

On constate en revanche que les taux de réponses uniques sur les trois lettres N° 5, N° 8 et N°

11 (60%) est proche de celui de la lettre N° 6 (64%), ce qui conforte l’hypothèse du caractère

assez sentencieux de ces évaluations.

On a repris les mêmes codages que pour les critères sur les représentations de la

stagiaire professionnelle. Il est ainsi possible de comparer les processus entre les deux types

d’appréciation : remplissent-ils la même fonction, le cas échéant sous la forme négative ?

S’inscrivent-ils dans des fonctions différentes ? De nouvelles fonctions apparaissent-elles ?

L’analyse de ces dernières est alors d’autant plus pertinente.

Structure formelle des critères

N° 3 14 Spl ; Spl Spl ; F F F -> exa Aa -> stag Aa -> stag Aa -> stag ; Fd Aa -> stag Locution (St/F); S ; Mf Set ; Aa-> stag F-> exa ; Locution (St) Aa-> stag ; Aa-> act Aa-> stag ; F ; St ; F Locution (Set); Set ; Locution (Set) ; Aa -> act ; Aa -> stag

N° 5 7 S ; S St © M -> exa Locution (Fd) ; Aa -> stag Aa -> stag Aa -> act, Aa -> stag F ; F ; M -> exa ; Aa -> stag ; Aa - > stag

-

N° 8 13 S S F ; S ou locution (S/S) F -> exa, S ; F F ; Locution (St) ; Mst F Locution (S/ F) Mf Spl S ; M - > exa, Aa -> act Aa -> stag ; Locution Aa -> act

-

N°11 5 Aa -> stag S Set ; F -> exa ; Aa-> act Aa -> stag Locution (M), Aa -> stag

-

Page 602: UN REFERENTIEL, POUR QUOI FAIRE

602

Nous avons donc :

- une grande quantité d’attributs sous forme d’adjectifs uniques, posés de façon

sentencieuse (Aa). Ils ont la même fonction syntaxique et référentielle que lors de

l’appréciation de la représentation jugée « professionnelle » : il qualifie le plus souvent le

stagiaire ou sa production globale (Aa -> stag), parfois les termes qu’il a employé au cours

de l’interaction (Aa -> act). Le changement est donc ici surtout sémantique : les adjectifs

choisis ont une forte connotation négative : « nul, limité, pauvre, pas bon… »

- Les statifs (St) remplissent, eux-aussi, la même fonction, mais la forme négative

(ne…pas) permet d’inverser la proposition : « n’a pas d’idées, ne connaît pas… »

- Ce renversement par la négation est du même ordre pour les factifs (F), qui sont utilisés

pour signifier les faire attendus : « ne prend pas en compte, n’a pas compris, ne sont pas

traitées… ». Mais on a aussi un certain nombre de verbes factifs qui expriment des faire

inadaptés : « se focalise, néglige, se prend pour, se place en, réfugie ses

appréhensions… ». Les deux mécanismes ci-dessus (négation ou lexèmes à connotation

négative) se répartissent donc pour exprimer certains schémas-types des examinateurs à

travers ces « faire » : la plupart de ces verbes remplissent ainsi la même fonction que pour

l’identification de la stagiaire professionnelle.

- Mais certains factifs ont une autre fonction : ils signifient une action exercée par la

prestation sur les examinateurs : « me choque, me gêne ». L’ancrage référentiel s’opère

alors à travers le pronom personnel « me ». Cette implication de l’examinateur s’exprime

aussi à travers certaines modalisations qui traduisent une incertitude : « me semble », « je

ne sais pas expliquer », « on ne sait pas bien ». On les notera : « F ou M -> exa ».

- Les prédicats substantifs (S) deviennent plus nombreux : ils expriment le plus souvent ici

des concepts qui signifient des modèles à connotation négative : « activisme, c’est du style

club Med… ». Une proposition comme « son objectif, c’est l’enfant et non son

épanouissement » illustre bien cette dichotomie entre des schémas-type opposés. Le

modèle « épanouissement » de l’examinateur (cf. paragraphe précédent) s’affronte à la

proposition du stagiaire : « c’est l’enfant ».

- Les para-lexèmes (Spl) expriment la plupart du temps le défaut d’un de ces modèles

attendus : « inconnaissance du public, manque de motivation, aucune mention de projet,

pas de discours en termes de projet ». Ils ont donc une autre fonction que pour les

représentations du paragraphe précédent.

Page 603: UN REFERENTIEL, POUR QUOI FAIRE

603

- La notion de modèle s’exprime aussi, occasionnellement, à travers des modalisations

verbales sur ce que doit faire ou être l’animateur : « doit veiller à la sécurité », « il faut

être conscient », « un animateur (…) peut le faire ».

- Cette confrontation entre les modèles des examinateurs et des stagiaires est aussi mise en

valeur par certaines locutions, qui font leur apparition dans ce contexte : « il n’est pas

forcément utile de … pour… ; pas de raison que… ; ce n’est pas que… ; un animateur

n’est pas quelqu’un qui… ; ce n’est pas qu’en cas… ; c’est le seul à ne pas… ; c’est … et

non …. ; il n’y a pas de … autre que … ; ceci ne suffit pas ».

Ces locutions ont diverses structures :

o soit une structure comparative entre deux prédicats : « il n’est pas utile de (X) pour

(Y) » ou « il n’y a pas (X) autre que (Y) ». A chaque fois, il est sous entendu que (X)

ne se limite pas à (Y). Elles sont notées : « locution (X/Y) »

o soit une structure qui exprime l’insuffisance : « ce n’est pas seulement (Y) » ou « (Y)

ne suffit pas ». Par rapport à la situation précédente, (X) est implicite : il est induit, par

le contexte quand les propositions sont en position thématique, par le cotexte

précédant quand elles sont en seconde position.

Ces locutions constituent une structure nouvelle par rapport à l’identification de la production

professionnelle : l’étude des contradictions autour de cette forme apparaît donc révélatrice des

enjeux de la situation.

On obtient ainsi un premier tableau synthétique des structures prédicatives des arguments :

Lettres Adj. ->

stag -> act Subst. S Spl Set Verbes St F

F-> exa Fd Locutions

3 10 8 2 6 1 3 2 9 1 5 2 1 4 29 8 3 1 2 6 4 1 1 7 1 5 1 0 3 19

5 et 11 10 8 2 4 3 0 1 4 1 2 1 0 2 20 68

Là encore les hésitations à classer certaines formes syntaxiques sont un guide pour étudier les

structures référentielles typiques du contexte.

Page 604: UN REFERENTIEL, POUR QUOI FAIRE

604

- Certains énoncés à modélisation négative (ne…pas) sont proches, dans leur forme

logique, des locutions : « il n’est pas seulement responsable des transports » ou encore

« divertir les enfants n’est pas un objectif ». Faut-il alors les considérer comme une

prédication attributive, sous forme substantive (« responsable des transports »,

« objectif ») (S) ou comme une forme locutoire ? Il en est de même de l’énoncé « son

objectif, c’est l’enfant et non son épanouissement », composé de plusieurs substantifs,

organisés autour d’une structure locutoire (« c’est… et non… »), qui est du type « c’est

l’enfant » (Y) n’est pas suffisant comme « objectif » par rapport à son « épanouissement »

(X). Cette ambivalence met en valeur la fonction des locutions dans ce contexte : elles

expriment les limites de certains modèles proposés par les stagiaires (Y) par rapport aux

conceptions des examinateurs (X). On regroupera donc ces deux formes prédicatives

(locutions et substantifs), dans la mesure où elles ont la même fonction par rapport à la

situation d’énonciation : montrer la limite des propositions du stagiaire.

- Les para-lexèmes ne se différencient guère ici des substantifs, dans la mesure où ils ne

font qu’exprimer un manque ou une négation. On peut donc eux-aussi les regrouper.

- Les lexèmes à connotation négative n’adoptent pas uniquement la forme substantive, mais

aussi la forme verbale (factifs). Les substantifs signifient des modèles-types (archétypes

ou clichés), les verbes factifs des « façons de faire ». Mais tous ces signifiants ont un point

commun au regard de la situation d’évaluation, ils dénoncent des schémas-types

considérés inadaptés ou « trop limités », formes d’expression d’une représentation du rôle.

- Pour les modalisations verbales, de façon générale, le prédicat est le verbe modalisé180 et

non le verbe modal, même si celui-ci introduit une dimension de plus sur le sujet du verbe.

Par conséquent les modalisations des verbes factifs signifient aussi des schémas-types qui

servent de référence aux examinateurs : « il doit veiller », « il peut le faire » (rôles).

Ce rapprochement avec la catégorie précédente est mis en valeur par l’ambiguïté d’un

énoncé comme « un animateur de boîte de nuit peut le faire ». La modalisation n’a du sens

qu’en référence au prédicat substantif « animateur de boîte de nuit » qui qualifie un

modèle à connotation négative, qui pourrait, lui, exister seul, sans modifier le sens. Les

modalisations de verbes factifs expriment, dans ce contexte, des processus similaires aux

locutions : il y a comparaison implicite des faire du stagiaire avec une norme X (« doit

veiller ») ou avec des modèles jugés trop réducteurs (Y « peut le faire »).

Page 605: UN REFERENTIEL, POUR QUOI FAIRE

605

- Fallait-il, en termes d’analyse prédicative, dissocier la locution du (ou des) prédicat(s)

inclus dans celle-ci. Cette possibilité a été analysée, mais on constate : 1° c’est bien dans

la locution que se trouve le prédicat : « pas utile », « pas de raison », « pas quelqu’un »,

« le seul », « ne suffit pas » ; 2° c’est essentiellement cet effet de sens qui intéresse

l’analyse, à savoir le jugement qui est porté sur le modèle, la forme de celui-ci importe

moins. Les locutions mettent ainsi en valeur ce qui est en jeu au cours de la situation

d’interaction, le jugement d’évaluation par comparaison entre un être ou un faire proposés

par un stagiaire (proposition) et un être ou un faire conçus par l’examinateur (conception).

L’examinateur infère la représentation du stagiaire, c'est-à-dire ses schémas-types, à partir

de son expression, du choix des lexèmes et des structures syntaxiques. Les propositions du

stagiaire sont déterminées par ces choix, mais l’inférence des représentations est

construite par l’examinateur. De même, quand nous analysons les appréciations proposées

par les examinateurs, nous n’avons pas accès à leurs conceptions globales, mais seulement

à la façon dont ils s’adaptent à la situation d’évaluation : les structures de raisonnement

qu’ils privilégient dans ce contexte.

- Les factifs et les modalisations, qui font référence à l’examinateur à travers les ancrages

déictiques « me » ou « on » (M ou F -> exa), n’ont pas la même fonction. Les

modalisations verbales traduisent une modalité de jugement (on ne sait pas, me semble),

alors que les factifs, dont la forme est plus objective, expriment l’effet du texte sur

l’examinateur, la réaction affective de ce dernier : « me choque, me gêne ». Mais ces deux

formes convergent pour montrer l’embarras ou l’implication de certains examinateurs par

rapport à cette situation de jugement. Leur nombre n’est pas négligeable par rapport à la

situation précédente (8/0). L’enjeu semble plus important, dans la mesure où le « stage

insatisfaisant », en situation réelle, a une valeur perlocutoire : il se traduit par la sanction,

et celle-ci est lourde de conséquences.

- Les verbes modaux (« M-> exa ») permettent d’observer la position de l’examinateur (son

attitude modale) ; les propositions prédicatives qui suivent sont l’objet sur lequel porte ce

positionnement. Ce sont ces dernières qui apportent le plus d’informations pour analyser

les processus de référence : « on ne sait pas bien ce qu’il est capable de faire » ou

« sérieusement et attentif sur chaque enfant me semble impossible »181. On a donc

conservé les deux types d’informations dans le codage (« M-> exa, Aa -> stag » ou « M->

exa, Aa -> act »), mais seule la proposition prédicative a été traitée lors de l’analyse.

180 Ce sont donc eux qui sont pris en compte lors du codage => Mf = F ou Mst = St. 181 « est impossible » est modalisé par le verbe sembler.

Page 606: UN REFERENTIEL, POUR QUOI FAIRE

606

- Les verbes factifs qui induisent une réaction affective de l’examinateur (F -> exa) sont

tous déterminés par des substantifs (sujets de l’action) qui font référence à l’énonciation

du stagiaire (« mots qui me gênent », « « chef de convoi » me choque » ou « m’a

beaucoup fait rire », « divertir sans but (…) me gêne »). Ces formes prédicatives font donc

référence à la représentation de la situation explicitée par les examinateurs.

On retrouve ainsi les trois catégories de représentations de l’analyse précédente (stagiaire

professionnel(le)), construites par les examinateurs à partir des productions écrites :

représentation de la subjectivité, représentation de la situation, représentation du rôle de

l’animateur. Les effets de sens produits par l’analyse des appréciations des examinateurs

permettent ainsi de différencier trois types de processus argumentatifs (critères). Bien plus

que la distribution entre adjectifs, substantifs et verbes, on privilégiera une répartition de ces

arguments en fonction des types de représentations sur lesquelles se sont construits les

processus de la référence :

- subjectivité : Aa -> stag + St,

- situation : Aa -> act + Set + F -> exa + Fd,

- rôle : S + Spl + F + Locutions.

On obtient ainsi le tableau suivant :

subjectif situation rôle 3 9 7 13 29 8 2 4 13 19

5 et 11 9 4 7 20 20 15 33 68

Nous constatons que les appréciations sur la lettre N° 8 se démarquent des autres par une

faible inscription dans la subjectivité et une référence plus forte des arguments sur le rôle.

subjectif situation rôle

L8 2 4 13

19 L3511 18 11 20 49

20 15 33 68

Pondération sur une cellule test khi deux 0,069 0,092

Page 607: UN REFERENTIEL, POUR QUOI FAIRE

607

Le Khi 2 global n’est pas suffisamment significatif, en raison de la colonne médiane

(« situation ») dont les valeurs sont proches de la moyenne. C’est d’ailleurs la raison pour

laquelle on n’a fait porter la pondération de Yates que sur une cellule (L8/subjectif) et non sur

la suivante (L8/situation). Mais, dès qu’on regroupe les variables, on s’aperçoit que les

différences deviennent significatives.

subjectif autres

L8 2 17

19 L3511 18 31 49

20 48 68 avec pondération sur une cellule test khi deux 0,033 0,047

rôle autres

L8 13 6

19 L3511 20 29 49

33 35 68

avec pondération de Yates sur une cellule test khi deux 0,041 0,051

subjectif rôle

L8 2 13

15 L3511 18 20 38

20 33 53

avec pondération de Yates

sur une cellule test khi deux 0,021 0,030

Il ressort donc que les appréciations sur la lettre N° 8 critiquent bien moins la stagiaire ou sa

production globale que sa représentation du rôle de l’animateur : son « style : j’aime les

enfants », « club Med » ou « divertir sans but éducatif et pédagogique ». D’ailleurs ces

résultats tirés de l’analyse prédicative sont renforcés par l’étude sémantique des prédicats qui

n’entrent pas dans les arguments retenus pour signifier le rôle de l’animateur.

Page 608: UN REFERENTIEL, POUR QUOI FAIRE

608

- Par exemple, les deux appréciations subjectives sont : « limite, mais on va dire que ça

passe » (Aa -> stag), une « limite » qui est donc limite et qui aurait donc pu ne pas être

retenue (position qui a d’ailleurs été celle des formateurs au cours du stage) ; mais,

surtout, « il faut être conscient du rôle à tenir, de ses responsabilités » (St) : si la forme

syntaxique est de l’ordre de la subjectivité (« il (ou elle) n’est pas conscient(e)… »), la

critique porte sur la « conscience du rôle ».

- En ce qui concerne les arguments qui font référence à la situation de communication, l’un

d’entre eux est : « définition très limitée du rôle ». Dans le cas de l’argument qui reprend

un élément du discours emprunté à la production du stagiaire (« divertir … me gêne »),

l’examinateur rajoute « sans but éducatif et pédagogique » ; il fait donc référence à

certains schémas-types de l’exercice professionnel.

Ainsi, la plupart des arguments qui s’inscrivent dans la subjectivité ou dans la situation

d’énonciation le font, en général, en insistant sur la notion de rôle.

Il ressort donc que les critères, qui ont conduit à la sélection des productions jugées

« insatisfaisantes », reposent sur deux types d’arguments qui ne sont pas du même ordre :

- les uns concernent une appréciation globale de la prestation : « termes (…) pas adaptés »,

« focalisation sur quelques points de détails », « indices confus », « mots qui gênent » ; et,

par inférence, un jugement global sur le (la) stagiaire et sur son positionnement dans la

communication : « niveau d’éducation et d’instruction sûrement très bas », « ego trop

important », « nounou » ;

- les autres concernent les schémas-types qui font partie du rôle de l’animateur, tel qu’il est

conçu par les examinateurs : « pas de mention de projet et de pédagogie », « ne prend pas

en compte les besoins de l’enfant », « néglige les activités », « n’a pas d’objectifs autre

que garder les enfants » ; et, par inférence, une appréciation sur les compétences du (de la)

stagiaire : « méconnaissance du public et du milieu », « n’a pas compris son rôle », « les

principales notions ne sont pas traitées ».

Ces deux types de critères s’élaborent à partir d’éléments collectés dans la production écrite,

soit de termes tout à fait inadaptés (« chef de convoi »), soit de conceptions trop réduites, peu

développées (« divertir, aimer les enfants »). Ils sont relativement équilibrés entre eux, si l’on

compare les trois lettres N° 3, N° 5 et N° 11. La lettre N° 8 est intéressante, elle fait ressortir

le second critère, fortement privilégié dans les jugements portés sur elle.

Page 609: UN REFERENTIEL, POUR QUOI FAIRE

609

Les arguments « aimer les enfants ne suffit pas » et « divertir sans but éducatif »

reviennent dans les deux lettres N° 8 et N° 11, pour expliquer leur rejet : « cela ne suffit pas

pour être animateur », « les convictions font peur », un tel investissement « semble

impossible ». L’observation du style syntaxique commun à ces deux lettres apporte donc

quelques éléments complémentaires pour chercher à décoder ce qui est en jeu au cours de la

communication. Elles se caractérisent toutes les deux par leurs adverbes (ou locutions

adverbiales) d’intensité, sans aucune construction argumentative : « très sérieusement, aussi

bien de jour que de nuit, sans cesse, énormément ». Les adverbes d’affirmation (« aussi,

également »), eux aussi sans argumentaire, renforcent cette intensité de l’investissement. Au

regard de la condition de félicité, dans ce contexte d’interaction entre un examinateur et un

candidat, cette surenchère est inquiétante (« les convictions font peur ») ou du moins elle

induit un effet d’irréalisme face aux contraintes (« ne suffit pas, semble impossible »). La sur-

modalisation introduit le doute : l’amour des enfants a-t-il besoin d’être modalisé par le

« devoir » ou par les adverbes d’intensité et d’affirmation ? D’autant que ce surinvestissement

affectif se fait au détriment de certaines modalités jugées importantes par les examinateurs, de

certains devoirs essentiels (« Les notions principales de l’animation ne sont pas traitées »).

Derrière ces rejets se dessine certainement toute une réflexion sur les relations entre l’adulte

et les enfants, dans le cadre de l’exercice du métier.

Ainsi nous obtenons plusieurs types d’arguments qui structurent le critère fondé sur la

conception du rôle de l’animateur :

1 – Des « faires » qui ne sont pas présents = ce que ne fait pas le candidat ou ce dont il ne

parle pas182 : « manque de…, aucune notion de …, ne prend pas en compte…, n’a pas

compris…, n’a pas beaucoup de…, sans but éducatif, les termes ne sont pas adaptés, le seul à

ne pas parler de…, pas de discours en terme de…, pas de … ».

2 – Des limites de la conception proposée, c'est-à-dire l’utilisation de concepts hors contexte

(« chef de convoi ») ou de concepts peu étayés par d’autres concepts (« divertir ») : « ce n’est

pas que…, il n’est pas seulement…, ce n’est pas (seulement) quelqu’un qui…, se focalise sur

quelques points de détails, il n’y a pas d’objectifs autre que…, définition limitée de …, ne

suffit pas…, mots qui ne vont pas bien loin ».

3 – Des comparaisons à des modèles négatifs : « club Med, boîte de nuit, Marie Thérèse

assistante sociale ».

182 Nous retrouvons, dans cette catégorie, la forme négative des classes de critères évoquées précédemment = « dire » du candidat, « faire » supposés de l’animateur, « réflexion » perçue dans le discours.

Page 610: UN REFERENTIEL, POUR QUOI FAIRE

610

4 – Quelques réactions face aux excès d’investissement affectif qui inquiètent : « …me

choque, les convictions font un peu peur, attentif sur chaque enfant me semble impossible ».

Nous obtenons ainsi des catégories d’analyse pour observer les critères lors des

jugements de rejet, dans ce milieu professionnel : « faire » manquants ; limites de la

conception ; modèles de référence négatifs ; excès d’investissement affectif.

3) Conclusions sur l’analyse des critères et fonction formatrice de la

recherche :

On conservera, de cette expérience, au moins trois conclusions :

1) Tous les examinateurs n’ont pas le même cheminement logique pour construire les raisons

de leur choix, c'est-à-dire leurs critères. Les critères sont une construction logique, pour

donner du sens aux éléments collectés. Ils reposent sur une articulation entre les processus

de signification au niveau des arguments et ceux de la référence en rapport au contexte.

2) Les examinateurs n’ont pas toujours la même conception de la tâche d’évaluation, même

avec une consigne identique.

3) La situation d’évaluation est peu propice à une réflexion de l’examinateur sur sa

démarche : réponses sentencieuses, arguments uniques, modèles à connotation négative,

faible réflexivité sur la construction de ses arguments (ancrage énonciatif).

La recherche a offert des informations sur les exigences attendues au sein des

productions écrites de stagiaires. Peuvent-elles être transposées pour étudier les critères, lors

des évaluations de rapports d’expérience ou de mémoires de stage pratique, qui sont souvent

sollicités dans les milieux des travailleurs sociaux ? Au fur et à mesure de ce travail, on a

aussi pris conscience de la multitude des indices qui génèrent de la signification dans

l’interaction entre examinateurs et candidats : indices langagiers certes, mais aussi indices

contextuels qui induisent le sens du langage. L’aperception de ces informations par les

acteurs, au moment de l’interaction, est toujours globale et intuitive. Elle est aussi induite par

la conception du rôle social que les professionnels ont de leur métier. La généralisation de

cette expérience à d’autres milieux sociaux nous permettrait peut-être de discerner si ces deux

modes d’approches sont toujours co-existants. La conception du rôle n’est-elle pas propre au

milieu professionnel ou à des milieux éducatifs qui ont les mêmes finalités et contraintes ?

Page 611: UN REFERENTIEL, POUR QUOI FAIRE

611

On fait l’hypothèse qu’un professionnel a la compétence pour percevoir le sens des

interactions, identifier certains indices et les interpréter en fonction de cette conception du

rôle. Mais les évaluateurs sont, en règle générale, dans un jugement global, subjectif et

souvent empreint de clichés. Ce caractère sentencieux n’est pas tant induit par les processus

cognitifs des examinateurs que par les conditions de l’interaction « évaluation ». L’analyse

des prédicats a permis de dégager les principaux types d’arguments et la façon dont ils se

structurent en référence à la situation, de l’interaction d’une part, de l’exercice professionnel

d’autre part. Dans ce second cas, le discours s’organise pour signifier des modèles qui font

référence à des façons de faire, des clichés et des attitudes, soit valorisés, soit rejetés. Mais, si

la présente expérience a permis d’analyser les processus de référentialisation et de

référenciation, si elle nous interroge sur les conditions de félicité et les présuppositions des

situations d’évaluation, elle n’apporte guère d’informations sur le contexte institutionnel qui

justifie l’existence de ces mécanismes. C’est pour combler cette lacune qu’a été conçue

l’expérience suivante, au sein d’un réseau de professionnels. L’analyse des processus

cognitifs, qui s’expriment à travers les échanges langagiers, est repositionnée dans son

contexte de communication entre partenaires sociaux. On peut faire l’hypothèse que la

conception du « rôle social », qui oriente les professionnels lors de leurs évaluations, n’est pas

un simple fruit de l’arbitraire des acteurs, mais bien une co-construction qui a du sens pour

eux, pour le fonctionnement social de la profession.

Page 612: UN REFERENTIEL, POUR QUOI FAIRE

612

Chapitre 13 Les conceptions de l’évaluation

dans un réseau d’animateurs professionnels

1) Présentation de la recherche :

Cette expérience s’est fixée, comme objectif, d’étudier les pratiques, en matière

d’évaluation, d’un réseau d’ « éducateurs à l’environnement »183. Elle répondait à une

commande d’un partenaire institutionnel, le conseil général de l’Isère. La démarche a été

initiée par un groupe de professionnels, auquel j’ai proposé mes services pour le traitement

des données. Il n’y a pas eu d’intervention au niveau de l’élaboration du questionnaire, sauf

la proposition de rajouter une fiche signalétique élaborée par eux. Il s’agissait, en tant que

chercheur, d’éviter d’influencer les résultats de la recherche, mais aussi de prendre

suffisamment de recul pour analyser l’ensemble de la démarche. La commission du RENE

(Réseau Education Nature Environnement) qui a participé à ce travail fait partie du dispositif

mis en œuvre par les professionnels pour faire reconnaître leur profession et communiquer sur

leurs pratiques. Cette étude sur l’évaluation fait donc partie d’un dispositif d’évaluation,

conçu par les professionnels eux-mêmes. La logique implicite du questionnaire était donc

intéressante pour analyser ces modes de fonctionnement implicites.

La commission « évaluation » est un groupe de professionnels qui s’inscrit donc dans

une démarche institutionnelle, pour répondre à une demande des partenaires. Les animateurs

du réseau se prêtent consciemment aux règles du jeu : il en résulte donc une co-construction

d’un produit conceptuel mis en œuvre conjointement par les interviewers et les interviewés,

en fonction de ce contexte. La structure du questionnaire est le produit de la commission qui

l’a élaboré, la distribution des réponses est le produit des autres animateurs, et elle est induite

par la façon dont ils s’adaptent à la situation d’interview et leur représentation des enjeux

autour de celle-ci.

183 On appelle « éducateur à l’environnement », dans le milieu professionnel des associations de protection de la nature, des animateurs qui préparent et qui encadrent des séances de découverte et de sensibilisation à l’environnement, le plus souvent à destination du public scolaire, mais aussi fréquemment sous forme de séjours ou d’accueils de loisirs. Les séances sont souvent ludiques ou sous forme de promenades, elles peuvent aussi prendre la forme de discussions ou de présentations didactiques avec des moyens audiovisuels ou des tableaux. Les formations professionnelles sont, soit des formations spécialisées (par exemple, éco-interprète), soit des formations de l’animation (BEATEP / BPJEPS, UF du DEFA / UC du DEJEPS).

Page 613: UN REFERENTIEL, POUR QUOI FAIRE

613

Questionnaire sur l’évaluation des pratiques en édu cation à l’environnement des membres du RENE FRAPNA ISERE

Dans le cadre du groupe de travail sur l'évaluation de nos actions d'éducation à l'environnement, nous vous demandons de remplir ce questionnaire consciencieusement et sans vous limiter, dans la mesure du possible, à des réponses trop brèves. En effet, il parait important d'alimenter notre réflexion de vos contributions dans le but de produire une synthèse, base pour un travail d'approfondissement de la notion d'évaluation de nos pratiques. 1-Qu’est-ce que l’évaluation pour vous ? 2-A quoi sert-elle ? 3-Que voulez-vous évaluer ? 4-Avez-vous des critères d'évaluation? Si oui, préc isez. 5-Qui évaluez-vous? 6-Faites-vous l'évaluation avec une autre personne? 7-A quel(s) moment(s) préparez-vous l'évaluation : avant, pendant, après l'animation ? 8-A quel(s) moment(s) faites-vous une évaluation et quel temps lui accordez-vous ? 9-Quelles méthodes et outils mettez vous en œuvre p our pratiquer l’évaluation (brainstorming, questionnaire "à chaud" ou "à froid ", discussions, jeux, productions écrites ou dessinées, etc.) 10- Voyez-vous un ou des facteurs "limitants " à l' exercice de l'évaluation et éventuellement des pistes pour améliorer sa pratiqu e.? 11-Que vous apporte- t’elle en tant qu‘éducateur à l'environnement ? 12-Quel rôle peut-elle jouer pour le métier d’éduca teur à l'environnement ?

Nom (facultatif) : Prénom (facultatif) : Age : Sexe : Avez-vous des enfants? Niveau d'études : Formations : Expérience dans le métier de l'animation et de l'éducation à l'environnement : Votre premier contact avec l'éducation à l'environnement : Lieux d'intervention : Urbain :

• de 5000 à 10000 habitants 0 • de 10000 à 20000 habitants 0 • Grenoble et agglomération hors ZEP et ZUP 0 • Vienne et agglomération hors ZEP et ZUP 0 • ZEP et/ou ZUP 0

Rural 0 Public :

• Cycle I 0 • Cycle II 0 • Cycle III 0 • Collèges 0 • Lycées 0 • Enseignement Supérieur 0 • Famille et/ou adhérents 0 • Autres (précisez) 0

Numérotez de 1 à 8 par ordre prioritaire. Un grand merci de nous avoir accordé quelques instants de votre précieux temps….

Page 614: UN REFERENTIEL, POUR QUOI FAIRE

614

Cette étude s’est décomposée en plusieurs étapes complémentaires et alternatives :

analyse des discours pour discerner les principaux modes de conception, regroupement des

questions à partir des réponses similaires dans plusieurs d’entre elles, analyse des outils

d’évaluation pour apporter quelques informations complémentaires sur leurs modalités et

fonction, tri croisé avec quelques variables de contexte pour dégager les plus significatives

(âge, sexe, expérience, curriculum). La forme de cet exposé ne reflète pas toujours aisément le

parcours sinueux de la recherche empirique, mais son objectif a été de présenter les résultats

de façon méthodique.

2) Présentation de la méthode :

2-1) Le corpus :

Le corpus est constitué par le questionnaire présenté ci-dessus, distribué aux

animateurs du RENE. Un premier traitement automatique a eu lieu sur 11 questionnaires, puis

un second sur 15 questionnaires, 4 nouveaux questionnaires ayant été intégrés, après une

relance au sein du réseau184. Nous n’avons conservé que les résultats de ce second traitement.

N 1 N 2 N 3 Q1 J'ai quelques idées à ce sujet :

Une remise en cause "perpétuellement" de mon travail et le pourquoi de mon travail. Une bonne réflexion sur avant – pendant - après. Un bon moyen pour flatter le contentement de l'animateur Un suivi de mon travail pour contenter mes supérieurs Des outils (fiches…) à remplir machinalement Un effet de mode = évaluations dans tous les sens et chiffres en main Evaluations de l'éducation nationale et de certaines collectivités : à l'évaluation se porte sur un ensemble d'évalués pour en tirer une moyenne de façon à renforcer cette moyenne (par la suite) afin que chaque évalué rentre dans un "moule" Une réflexion commune qui nous poussent vers l'avant = "évaluer/évoluer ensemble" Une réflexion individuelle où chaque personne réalise une critique de son parcours à différents moments.

C’est un outil qui me permet d’apprécier si les objectifs que je m’étais fixés ont été atteints. Il me permet également de pointer mes erreurs et défauts et de les corriger.

Un moyen de vérifier les connaissances acquises en cours d’animation

Q 2 Améliorer le déroulement d'une animation, de la démarche pédagogique adoptée. la qualité de nos interventions Améliorer et adapter les acquisitions transmises au public Analyser les changements personnels, les attitudes, les comportements … des initiés. Ne pas faire fausse route et rester en contact permanent avec le public afin d'éviter les envolés solitaires Définir et redéfinir ou ajuster les paramètres…entre moi (l'intervenant) et l'enseignant. On peut parler de communication. Améliorer les contingences et soucis matériels, de lieux d'animation ou de locaux.

A connaître les attentes des différents partenaires et les envies des enfants et des enseignants.

Voir ci-dessus

Q 3 Idem

Mon travail et mes compétences ainsi que mon rapport avec les autres.

Les connaissances avant, après et pendant l’animation.

184 Cela représente un peu moins des deux tiers des animateurs du réseau, qui était autour de 25 personnes, à cette époque.

Page 615: UN REFERENTIEL, POUR QUOI FAIRE

615

Q 4 Dans le cadre des activités du Murier, nous remettons aux instituteurs un bilan du séjour (une évaluation) qui portent sur :

1. Le déroulement (comment s'est passé votre séjour)? 2. Le projet (dans quelle mesure les objectifs ont-ils été atteints)? 3. La préparation/l'encadrement (comment avez-vous vécu le travail en

équipe)? 4. La démarche (avez-vous pu évaluer certaines acquisitions faites par

les élèves?) 5. La vie collective 6. Quels problèmes avez-vous rencontré? 7. Souhaits - remarques

+ une petite fiche d'évaluation des intervenants sur le séjour (RENE et ONF)

NON

Oui : Logique des réponses Pertinence des réponses Capacité à synthétiser les connaissances acquises pour les mettre en pratique

Q 5 Moi en premier car l'animation est un "champ expérimental" et tout le temps en évolution Le public principalement des enfants L'équipe d'animation (j'essaye) Les enseignants parfois (mais je ne leur dis pas) Les intervenants "spécialités nature" du RENE et l'ONF quand ils viennent au Murier à l'aide de fiches une pour l'instituteur et une pour l'intervenant. Le but étant bien sûr d'améliorer les interventions et principalement le travail en amont (préparation et communication).

Mon travail en tant qu’animateur, les relations avec les différents partenaires et les enfants.

Le cycle 3 en primaire Les collégiens, les lycéens

Q 6 Tout dépend. Si je suis tout avec un groupe durant l'animation je suis tout seul à évaluer. Si je suis avec l’enseignant, je peux évaluer mon animation avec lui. Et plus généralement, les évaluations sous formes de bilans s’effectuent avec les enseignants et l ‘équipe d’animation. ou on évalue principalement l’ensemble du séjour. Et bien sûr avec les responsables (X) du service dont nous dépendons. La ville de St Martin d’Hère se penche aussi sur la question, elle cherche à mettre en place des outils d’évaluation, et d’analyse sur l’ensemble des secteurs (sportifs, culturels, …) afin de mieux adapter les besoins et pour mieux cibler les publics. Et évaluer l’efficacité de nos actions : les points forts, les points faibles pour adapter les objectifs de la politique locale.

Cela m’arrive de la faire avec les enseignants.

Parfois avec les enseignants

Q 7 (voir un peu avant et un peu après, surtout pas ici) Avant. Pendant Q 8 J’ai déjà répondu après.

En fin de chaque animation cela prend en moyenne 15 minutes.

Pendant

Q 9 Sans parler des bilans journaliers et en fin de séjour avec enseignants et animateurs nous pratiquons peu dans l’originalité. Un petit bilan peu approfondi est fait chaque jour avec les enfants, le matin, durant la discussion. Ce n’est pas toujours. Et nous ne pratiquons pas de bilan global en fin de séjour, faute de temps. Nous avons un aperçu pendant la retransmission des projets le dernier jour. Pourtant à chaque séjour, la première porte sur les représentations initiales des enfants sous formes de mots jetés …. On pourrait retravailler à partir de ses données ! Sinon au cours de mes expériences en animation : � Discussion, table ronde, débat sur tout (vie quotidienne, contenu des

animations, j’aime, j’aime pas …) en limitant le temps de parole de chacun pour que tout le monde puisse s’exprimer.

� Avec les maternelles, dessins et sous la forme d’un clown qui rigole ou pas suivant les jours

� Un arbre (une grosse branche) ou chaque enfant suspendait dans les branches un petit mot (ses remarques, ses envies, …)

� Un jeu avec des photos (sur les représentations des enfants) d’ici et d’ailleurs, les enfants devaient classer les photos entre ici et ailleurs (j’explique rapide) ; Aucune réponse ne leur étaient données. En fin de séjour le même jeu était proposé.

� La meilleure évaluation est quand l’enfant revient plusieurs fois dans l’année ou chaque année. Parfois l’animateur est ému quand les enfants se rappellent de chaque détail….

Au Mûrier, nous intervenons sur un CEL où les instituteurs nous demandent d’évaluer les enfants (connaissances, comportements, …). Je pratique l’auto-évaluation en tête à tête. L’enfant s’évalue lui-même. (avant – après - pendant) je le dirige un peu.

Discussions.

Discussions, jeux, travail de groupes

Q 10 1) le temps = les animations à la journée sont peu confortables pour l'évaluation avec les enfants.

2) Les outils à rien si pas de réflexion autour (cibles…) ou s'ils sont mal utilisés.

3) Efficacité de l'évaluation parfois aléatoire suivant le moment donné, le type de public, le contenu, le temps, les objectifs…

4) Evaluation trop limitée du genre "j'aime bien ou j'aime pas" lors d'une discussion (les enfants n'ont pas toujours l'habitude de prendre la prise de parole partagée). Du coup tout le monde dit la même chose. La prise de parole ne s'improvise pas.

Le temps, il faudrait intégrer dans chaque projet un temps pour effectuer l’évaluation.

Nos manques de connaissances sur les techniques d’évaluation

Page 616: UN REFERENTIEL, POUR QUOI FAIRE

616

5) Beaucoup de choses se déroulent sous nos yeux sans pouvoir pour autant être capable de les évaluer. A chaque thème, des apports de connaissances et beaucoup d’apports peu palpables en ce qui concerne les moments d'émerveillement, d'ouverture sur le "monde sensible" de la compréhension des imaginaires…

6) Entre nos objectifs de départ et le déroulement sur le terrain, dés fois ça fait peur. Les enfants pensent qu'à jouer, à courir et pourtant. L'évaluation de l'animateur est un désastre alors que les enfants avaient besoin de ce premier contact avec la nature. Comment peut-on l'évaluer?

7) Parfois trop limitée au groupe. Elle doit aussi prendre en compte chaque individu.

8) Pas facile d'évaluer des comportements, des attitudes envers l'environnement sur un public enfant qui deviendra adulte : que reste il 20 ans plus tard?

Q 11 L'évolution de mes pratiques en Education à l’Environnement et sur les démarches pédagogiques. Il faut tester perpétuellement des outils, des pédagogies, des approches etc. Et j'ai besoin de savoir si mon travail est nécessaire à l'évolution du monde. Nous sommes dans l'éducatif et il est bon de savoir si notre travail est utile, si à la suite de nos actions les gros lieux communs sont tombés, si les attitudes envers l'environnement changent, si l'enfant peut apprendre en s'amusant, si mes actions sont efficaces…. En d'autres termes, j'ai besoin de savoir pour l'évaluation : � Si mes apports cognitifs sont transmis � Si le comportement des enfants évolue � Si l'enfant adopte un raisonnement, une réflexion… Le but n'étant pas d'évaluer seulement un acquis fixé par objectif de départ, mais d'inclure dans une évaluation la compréhension, le raisonnement et la réflexion que l'enfant peut acquérir durant l'animation. Ce qui peut lui être utile dans ses choix d'adulte…

Un moyen de progression dans mon travail et une certaine reconnaissance.

Elle nous permet de vérifier si notre langage, notre méthode d’enseignement sont adaptés au public concerné

Q 12 Elle doit être avant tout une réflexion sur nos pratiques et nous guider dans nos choix d'actions (thèmes,…). Et peut être, aussi, un moyen de l'efficacité de nos actions de manière individuelle et aussi globale. Mais peut-on le faire? Nous sommes avant tout des animateurs. Les évaluations s'intègrent à nos animations, soit, mais sommes nous capables de globaliser toutes nos évaluations pour en tirer des statistiques, à savoir si grâce à nos actions un type de comportement à évaluer à partir de tel moment… Il y a tellement de facteurs extérieurs (communication par exemple). L'évaluation ne doit pas devenir une technique ou un simple outil. Elle doit être comprise aussi par les animateurs et appropriée. A chacun sa méthode d'évaluation à partir du moment où on est capable de se comprendre. C'est pas tout à fait le cas. C'est peut être pour bientôt.

Une meilleure reconnaissance de notre profession.

S’assurer que les connaissances transmises sont acquises afin de sensibiliser les futurs citoyens - consommateurs.

Sign. Nommée 29 - M Enfants : Non Niveau d'études : bac Formations : beatep

Nommée 33 ans - M Enfants : OUI Niv d'ét : Bac+2 Form : BAFA, BE AMM

Anonyme 26- M Enfants : Non Niv d'ét : DUT Form : Mesures physiques

Conn. Exp. : Animation centre de vacances, objection CPIE en Alsace, emploi jeune CPIE Franche Comté et d'autres … 1er : Dans une maison de la nature

Exp. : 10 ans 1er objection FRAPNA 38

Exp. : 1 an 1er : Cm1-cm2 Octobre 2002

Lieux Grenoble et agglomération hors ZEP et ZUP de 5000 à 10000 habitants de 10000 à 20000 habitants Grenoble et agglomération Vienne et agglomération ZEP et/ou ZUP Rural

de 5000 à 10000 habitants de 10000 à 20000 habitants Grenoble et agglomération Vienne et agglomération ZEP et/ou ZUP Rural

Public Cycle II 1 Cycle III 2

Cycle I ; Cycle II 2 Cycle III 1 Collèges 6 Lycées 7 Enseignement Supérieur 8 Famille et/ou adhérents 4 Vacanciers, enfants en diffi (CLIS) 5

Cycle III 1 Collèges 2 Lycées 3

Page 617: UN REFERENTIEL, POUR QUOI FAIRE
Page 618: UN REFERENTIEL, POUR QUOI FAIRE
Page 619: UN REFERENTIEL, POUR QUOI FAIRE
Page 620: UN REFERENTIEL, POUR QUOI FAIRE
Page 621: UN REFERENTIEL, POUR QUOI FAIRE
Page 622: UN REFERENTIEL, POUR QUOI FAIRE
Page 623: UN REFERENTIEL, POUR QUOI FAIRE
Page 624: UN REFERENTIEL, POUR QUOI FAIRE
Page 625: UN REFERENTIEL, POUR QUOI FAIRE
Page 626: UN REFERENTIEL, POUR QUOI FAIRE
Page 627: UN REFERENTIEL, POUR QUOI FAIRE
Page 628: UN REFERENTIEL, POUR QUOI FAIRE
Page 629: UN REFERENTIEL, POUR QUOI FAIRE
Page 630: UN REFERENTIEL, POUR QUOI FAIRE
Page 631: UN REFERENTIEL, POUR QUOI FAIRE
Page 632: UN REFERENTIEL, POUR QUOI FAIRE
Page 633: UN REFERENTIEL, POUR QUOI FAIRE
Page 634: UN REFERENTIEL, POUR QUOI FAIRE
Page 635: UN REFERENTIEL, POUR QUOI FAIRE
Page 636: UN REFERENTIEL, POUR QUOI FAIRE
Page 637: UN REFERENTIEL, POUR QUOI FAIRE
Page 638: UN REFERENTIEL, POUR QUOI FAIRE
Page 639: UN REFERENTIEL, POUR QUOI FAIRE
Page 640: UN REFERENTIEL, POUR QUOI FAIRE
Page 641: UN REFERENTIEL, POUR QUOI FAIRE
Page 642: UN REFERENTIEL, POUR QUOI FAIRE
Page 643: UN REFERENTIEL, POUR QUOI FAIRE
Page 644: UN REFERENTIEL, POUR QUOI FAIRE
Page 645: UN REFERENTIEL, POUR QUOI FAIRE
Page 646: UN REFERENTIEL, POUR QUOI FAIRE
Page 647: UN REFERENTIEL, POUR QUOI FAIRE
Page 648: UN REFERENTIEL, POUR QUOI FAIRE
Page 649: UN REFERENTIEL, POUR QUOI FAIRE
Page 650: UN REFERENTIEL, POUR QUOI FAIRE
Page 651: UN REFERENTIEL, POUR QUOI FAIRE
Page 652: UN REFERENTIEL, POUR QUOI FAIRE
Page 653: UN REFERENTIEL, POUR QUOI FAIRE
Page 654: UN REFERENTIEL, POUR QUOI FAIRE
Page 655: UN REFERENTIEL, POUR QUOI FAIRE
Page 656: UN REFERENTIEL, POUR QUOI FAIRE
Page 657: UN REFERENTIEL, POUR QUOI FAIRE
Page 658: UN REFERENTIEL, POUR QUOI FAIRE
Page 659: UN REFERENTIEL, POUR QUOI FAIRE
Page 660: UN REFERENTIEL, POUR QUOI FAIRE
Page 661: UN REFERENTIEL, POUR QUOI FAIRE
Page 662: UN REFERENTIEL, POUR QUOI FAIRE
Page 663: UN REFERENTIEL, POUR QUOI FAIRE
Page 664: UN REFERENTIEL, POUR QUOI FAIRE
Page 665: UN REFERENTIEL, POUR QUOI FAIRE
Page 666: UN REFERENTIEL, POUR QUOI FAIRE
Page 667: UN REFERENTIEL, POUR QUOI FAIRE
Page 668: UN REFERENTIEL, POUR QUOI FAIRE
Page 669: UN REFERENTIEL, POUR QUOI FAIRE
Page 670: UN REFERENTIEL, POUR QUOI FAIRE
Page 671: UN REFERENTIEL, POUR QUOI FAIRE
Page 672: UN REFERENTIEL, POUR QUOI FAIRE
Page 673: UN REFERENTIEL, POUR QUOI FAIRE
Page 674: UN REFERENTIEL, POUR QUOI FAIRE
Page 675: UN REFERENTIEL, POUR QUOI FAIRE
Page 676: UN REFERENTIEL, POUR QUOI FAIRE
Page 677: UN REFERENTIEL, POUR QUOI FAIRE
Page 678: UN REFERENTIEL, POUR QUOI FAIRE
Page 679: UN REFERENTIEL, POUR QUOI FAIRE
Page 680: UN REFERENTIEL, POUR QUOI FAIRE
Page 681: UN REFERENTIEL, POUR QUOI FAIRE
Page 682: UN REFERENTIEL, POUR QUOI FAIRE
Page 683: UN REFERENTIEL, POUR QUOI FAIRE
Page 684: UN REFERENTIEL, POUR QUOI FAIRE
Page 685: UN REFERENTIEL, POUR QUOI FAIRE
Page 686: UN REFERENTIEL, POUR QUOI FAIRE
Page 687: UN REFERENTIEL, POUR QUOI FAIRE
Page 688: UN REFERENTIEL, POUR QUOI FAIRE
Page 689: UN REFERENTIEL, POUR QUOI FAIRE
Page 690: UN REFERENTIEL, POUR QUOI FAIRE
Page 691: UN REFERENTIEL, POUR QUOI FAIRE
Page 692: UN REFERENTIEL, POUR QUOI FAIRE
Page 693: UN REFERENTIEL, POUR QUOI FAIRE
Page 694: UN REFERENTIEL, POUR QUOI FAIRE
Page 695: UN REFERENTIEL, POUR QUOI FAIRE
Page 696: UN REFERENTIEL, POUR QUOI FAIRE
Page 697: UN REFERENTIEL, POUR QUOI FAIRE
Page 698: UN REFERENTIEL, POUR QUOI FAIRE
Page 699: UN REFERENTIEL, POUR QUOI FAIRE
Page 700: UN REFERENTIEL, POUR QUOI FAIRE
Page 701: UN REFERENTIEL, POUR QUOI FAIRE
Page 702: UN REFERENTIEL, POUR QUOI FAIRE
Page 703: UN REFERENTIEL, POUR QUOI FAIRE
Page 704: UN REFERENTIEL, POUR QUOI FAIRE
Page 705: UN REFERENTIEL, POUR QUOI FAIRE
Page 706: UN REFERENTIEL, POUR QUOI FAIRE
Page 707: UN REFERENTIEL, POUR QUOI FAIRE