16
Article original Comment évaluer les compétences clés dans le domaine professionnel ? Evaluating key competencies in the professional domain R. Meyers * , C. Houssemand Université du Luxembourg, 162A, avenue de la Faïencerie, L1511 Luxembourg, Luxembourg Reçu le 24 novembre 2004 ; reçu en forme révisée le 9 mars 2005 ; accepté le 20 juillet 2005 Résumé Larticle tente, à partir de la littérature en psychologie cognitive différentielle, en psychométrie et en psychologie du travail et des organisa- tions, de clarifier la question de la définition et de lévaluation des compétences clés dans le domaine professionnel. Un modèle hiérarchique des compétences est privilégié, à lintérieur duquel les compétences clés sont à la fois générales aux situations professionnelles et transférables dune situation à une autre. Les différentes méthodes dévaluation des compétences clés sont passées en revue, en analysant plus particulièrement la validité des assessment centers et des tests dintelligence. Le rôle crucial de lintelligence générale en fonction de la complexité des tâches professionnelles est montré à partir de lanalyse des profils professionnels. Les travaux en psychologie de lintelligence sont passés en revue afin de montrer limportance du facteur g comme principal prédicteur de la performance au travail et donc de lacquisition de compétences clés. Finalement, la combinaison judicieuse de différents outils psychométriques valides et économiques est proposée comme solution la plus efficace et la plus équitable pour évaluer les compétences clés dans les trois situations sociales paradigmatiques qui le requièrent : lorientation profes- sionnelle, lengagement du personnel et laccès à la formation continue. © 2006 Elsevier SAS. Tous droits réservés. Abstract The article attempts to clarify the question of defining and evaluating key competencies in the professional domain, by reviewing existing literature in the domains of cognitive differential psychology, psychometrics and industrial and organisational psychology. A hierarchical model of competencies is favoured, in which the key competencies are general across professional situations and transferable from one situation to another. The different methods of evaluating key competencies are reviewed. Particular attention is paid to the validity of assessment centres and intelligence tests. The crucial role of general intelligence, depending on the complexity of professional tasks, is demonstrated through an analysis of professional profiles. We review writings on the psychology of intelligence in order to show the importance of the g factor as principle predictor of work performance and the acquisition of key competencies. Finally, the judicious combination of different validated and economical psychometric tools is proposed as the most effective and equitable solution for evaluating key competencies in the three paradigmatic social situations which require it: vocational orientation, recruitment of personnel and access to continuing training. © 2006 Elsevier SAS. Tous droits réservés. Mots clés : Compétences ; Compétences clés ; Évaluation des compétences ; Intelligence générale ; Tests dintelligence Keywords: Competencies; Key competencies; Evaluation of competencies; General intelligence; Intelligence tests http://france.elsevier.com/direct/ERAP/ Revue européenne de psychologie appliquée 56 (2006) 123138 * Auteur correspondant. Adresses e-mail : [email protected] (R. Meyers), [email protected] (C. Houssemand). 1162-9088/$ - see front matter © 2006 Elsevier SAS. Tous droits réservés. doi:10.1016/j.erap.2005.07.001

Comment évaluer les compétences clés dans le domaine professionnel ?

Embed Size (px)

Citation preview

Page 1: Comment évaluer les compétences clés dans le domaine professionnel ?

http://france.elsevier.com/direct/ERAP/

Revue européenne de psychologie appliquée 56 (2006) 123–138

Article original

Comment évaluer les compétences clés dans le domaine professionnel ?

Evaluating key competencies in the professional domain

R. Meyers *, C. Houssemand

Université du Luxembourg, 162A, avenue de la Faïencerie, L1511 Luxembourg, Luxembourg

Reçu le 24 novembre 2004 ; reçu en forme révisée le 9 mars 2005 ; accepté le 20 juillet 2005

Résumé

L’article tente, à partir de la littérature en psychologie cognitive différentielle, en psychométrie et en psychologie du travail et des organisa-tions, de clarifier la question de la définition et de l’évaluation des compétences clés dans le domaine professionnel. Un modèle hiérarchique descompétences est privilégié, à l’intérieur duquel les compétences clés sont à la fois générales aux situations professionnelles et transférables d’unesituation à une autre. Les différentes méthodes d’évaluation des compétences clés sont passées en revue, en analysant plus particulièrement lavalidité des assessment centers et des tests d’intelligence. Le rôle crucial de l’intelligence générale en fonction de la complexité des tâchesprofessionnelles est montré à partir de l’analyse des profils professionnels. Les travaux en psychologie de l’intelligence sont passés en revueafin de montrer l’importance du facteur g comme principal prédicteur de la performance au travail et donc de l’acquisition de compétences clés.Finalement, la combinaison judicieuse de différents outils psychométriques valides et économiques est proposée comme solution la plus efficaceet la plus équitable pour évaluer les compétences clés dans les trois situations sociales paradigmatiques qui le requièrent : l’orientation profes-sionnelle, l’engagement du personnel et l’accès à la formation continue.© 2006 Elsevier SAS. Tous droits réservés.

Abstract

The article attempts to clarify the question of defining and evaluating key competencies in the professional domain, by reviewing existingliterature in the domains of cognitive differential psychology, psychometrics and industrial and organisational psychology. A hierarchical modelof competencies is favoured, in which the key competencies are general across professional situations and transferable from one situation toanother. The different methods of evaluating key competencies are reviewed. Particular attention is paid to the validity of assessment centresand intelligence tests. The crucial role of general intelligence, depending on the complexity of professional tasks, is demonstrated through ananalysis of professional profiles. We review writings on the psychology of intelligence in order to show the importance of the g factor asprinciple predictor of work performance and the acquisition of key competencies. Finally, the judicious combination of different validated andeconomical psychometric tools is proposed as the most effective and equitable solution for evaluating key competencies in the three paradigmaticsocial situations which require it: vocational orientation, recruitment of personnel and access to continuing training.© 2006 Elsevier SAS. Tous droits réservés.

Mots clés : Compétences ; Compétences clés ; Évaluation des compétences ; Intelligence générale ; Tests d’intelligence

Keywords: Competencies; Key competencies; Evaluation of competencies; General intelligence; Intelligence tests

* Auteur correspondant.Adresses e-mail : [email protected] (R. Meyers), [email protected] (C. Houssemand).

1162-9088/$ - see front matter © 2006 Elsevier SAS. Tous droits réservés.doi:10.1016/j.erap.2005.07.001

Page 2: Comment évaluer les compétences clés dans le domaine professionnel ?

R. Meyers, C. Houssemand / Revue européenne de psychologie appliquée 56 (2006) 123–138124

Fig. 1. Représentation hiérarchique des compétences : compétences générales,compétences transversales et compétences techniques.

1. Introduction

Il existe de nombreuses définitions et classifications descompétences (Deprez, 2002 ; Lawler, 1994 ; Leplat, 1997 ;Schippmann et al., 2000). Par ailleurs, des réflexions ont étérécemment engagées sur les compétences clés (Eurydice,2002 ; Evéquoz, 2004 ; Rychen et Salganik, 2001, 2003 ;OCDE, 2002 ; OOFP, 2003). Ces dernières sont généralespar rapport aux situations professionnelles, elles peuvent doncêtre mises en oeuvre dans une pluralité de contextes différents.Elles sont aussi transférables, donc elles peuvent, une fois ap-prises dans une condition spécifique, être réutilisées dans d’au-tres situations professionnelles. De plus, les compétences cléssemblent être un préalable à la bonne exécution des compéten-ces techniques dans les professions actuelles.

À défaut d’études empiriques valides, on peut discuter lon-guement sur le catalogue des compétences clés. La liste qui aété proposée par l’Office d’orientation et de formation profes-sionnelle de Genève en vue de leur certification (Evéquoz,2004 ; OOFP, 2003) reprend : traiter l’information, organiser,résoudre des problèmes, encadrer, travailler en équipe, commu-niquer. Elle a l’avantage d’être opérationnelle et congruenteavec ce qui est aujourd’hui demandé dans les situations de tra-vail, même si aucune validation de cette nomenclature n’a en-core été produite. Ce genre de taxonomie ne permet pas demettre en évidence les relations entre compétences et donneun aspect trop statique à l’énumération.

2. La hiérarchisation des compétences

Afin de créer une nomenclature opérationnelle, on peut met-tre en avant une conception multifactorielle et une conceptionhiérarchique des compétences (Aubret et Gilbert, 2003). Lapremière amènerait à considérer qu’il y a autant de compéten-ces distinctes que de situations professionnelles différentes.Elle ne permet donc pas de cerner des compétences clés quisont assez générales aux situations professionnelles diverseset transférables. Les répertoires de compétences élaborés à par-tir de cette conception sont souvent des inventaires très hétéro-clites, mélangeant des aptitudes très générales (« savoir com-muniquer », « savoir s’organiser ») avec des capacitésbeaucoup plus ponctuelles, liées à des situations de métier trèsspécifiques (« réaliser la mise en page d’un texte », « peser ouemballer la marchandise »). Une grande redondance peut aussisouvent être remarquée dans ces nomenclatures.

Ces répertoires sont aussi souvent implicitement fondés surdes conceptions behavioristes, ils tentent d’énumérer l’en-semble des « comportements observables » (pour une critiquede cette notion, Schmidt, et al., 1981), alors que la révolutioncognitive en psychologie scientifique a depuis longtemps dé-passé cette approche par une étude des processus cognitifsmis en oeuvre, même si dans l’analyse des compétences pro-fessionnelles, peu de recherches ont encore été entreprises dansce sens, ce qui fait justement qu’on a tendance à toujours reve-nir à des descriptions globales en termes de comportements.

Par ailleurs, comme nous le verrons plus loin, la conceptionmultifactorielle est en contradiction avec les recherches empi-riques sur l’analyse des emplois (job analysis) (Harvey, 1991 ;McCormick, 1976) qui montrent qu’un nombre restreint de fac-teurs apparaissent toujours, indépendamment des activités pro-fessionnelles étudiées (Gottfredson, 1997, 2003a, 2003b ; Hun-ter et Schmidt, 1996b).

Le recours à un schéma hiérarchique des compétences per-met une classification des aptitudes, distinguant ce qui est dudomaine des compétences générales (peu entraînables mais es-sentielles) et ce qui est du champ des aptitudes plus spécifiques(plus entraînables mais aussi plus circonscrites). Par ailleurs,cette approche hiérarchique « présente au moins l’avantage depermettre de postuler la possibilité d’un transfert des compé-tences, non pas à partir des ressemblances visibles entre lestâches ou situations mais à partir des opérations psychologi-ques en jeu dans l’activité du sujet. Cette possibilité est essen-tielle pour l’élaboration de pronostics d’adaptation » (Aubret etGilbert, 2003).

Un modèle hiérarchique peut être proposé, dans lequel onaurait trois niveaux de compétences (Fig. 1), du niveau le plusgénéral par rapport à leur mise en œuvre au niveau le plusproche des particularités de chaque situation.

Le premier niveau concerne les compétences générales,elles sont constituées par des aptitudes dépassant largementles situations professionnelles, par exemple « organiser »,« communiquer » ou « diriger ». Ce seraient des potentialitésou des dons, des aptitudes très générales.

Le deuxième niveau concerne les compétences transversa-les, elles sont définies par un espace d’application plus spéci-fié, mais restant encore assez large pour dépasser le niveau desprofessions et des métiers. On peut citer comme exemples « or-ganiser un espace spatial », « organiser un espace proposition-nel », « communiquer avec des clients », « communiquer àl’intérieur d’une équipe de travail », « diriger une équipe », etc.

Finalement, le troisième niveau est celui des compétencestechniques, elles sont définies surtout au niveau des situationsprofessionnelles spécifiques. On aura par exemple « organiserun espace spatial d’habitation » (c’est le travail de l’architecte),« organiser un rapport de synthèse » (cela pouvant être le tra-vail d’un secrétaire), « communiquer avec les clients d’un res-taurant » (le travail d’un serveur) ou « diriger une équipe devendeurs » (la compétence d’un chef d’équipe de vente), etc.

En passant du premier niveau au deuxième, puis au troi-sième niveau, les compétences deviennent de plus en plus sou-mises à apprentissage, ce dernier n’est possible que si le niveauprécédent a un degré suffisant. Par exemple, un étudiant vou-

Page 3: Comment évaluer les compétences clés dans le domaine professionnel ?

R. Meyers, C. Houssemand / Revue européenne de psychologie appliquée 56 (2006) 123–138 125

lant devenir architecte, mais n’ayant pas la compétence géné-rale « organiser » et la compétence transversale « organiser unespace spatial » aura de grandes difficultés ou n’y arrivera pas.

Si l’on se réfère aux définitions données dans ce modèle, lescompétences clés se situeraient surtout au premier niveau, celuides compétences générales. Le deuxième degré est déjà plusspécifique et concerne de grands champs d’activités. Le troi-sième niveau serait celui des compétences techniques plus clas-siques, adaptées à des situations précises et spécifiques. Celles-ci se retrouvent par exemple dans le répertoire opérationnel desmétiers et des emplois (ROME) de l’ANPE. Celui-ci est unrelevé systématique des principales compétences nécessairespour exercer les différents métiers (ROME, 1999).

La Fig. 1 reprend donc les trois niveaux de compétences :compétences générales (gen1, gen2, etc.), compétences trans-versales (trans1, trans2, etc.), compétences techniques (tech1,tech2, etc.). Les flèches indiquent la mobilisation d’une com-pétence de niveau hiérarchique plus général par une compé-tence de niveau plus spécifique. Le fléchage n’a pas été faitsystématiquement pour ne pas surcharger le graphique.

Ce qu’on voit d’emblée, c’est la position clé effectivementdétenue par les compétences générales. Elles rendent possibleune mobilisation optimale des compétences transversalesd’abord, des compétences techniques ensuite. Les métiers etles professions mobilisent toujours simultanément et à des ni-veaux divers, aussi bien des compétences qui sont nécessaires àtous les métiers ou à certains groupes de métiers (les compé-tences générales comme « organiser », « communiquer », « di-riger » et les compétences transversales comme « organiser unespace spatial », « organiser un espace propositionnel ») quedes compétences qui sont très spécifiques à une professiondonnée (« découper de la viande », « réparer un ordinateurdéfectueux »).

La complexité des tâches professionnelles dépend quant àelle de la complexité des opérations mobilisées aux trois ni-veaux. C’est donc une dimension supplémentaire dont il faudratenir compte, elle est directement liée à la difficulté du traite-ment de l’information qui est demandé (Campbell, 1988 ; Gott-fredson, 1997).

Quant aux diplômes, ils se situent sur le registre de la recon-naissance sociale globale des qualifications (et non seulementdes compétences en tant que tel) et leur lien avec ces dernièresn’est pas univoque (Deprez, 2002). D’abord, la logique dumonde scolaire n’est pas superposable à la logique du mondedu travail, même si on a tort de les opposer radicalement, nousy reviendrons plus loin. On sait aussi qu’à diplôme équivalent,les personnes peuvent avoir des compétences hétérogènes. Parailleurs, à défaut d’une mesure directe des compétences, ce quin’est pas si facile à l’heure actuelle (c’est le sens même de cetarticle), le diplôme apparaît comme une bonne approximationdes compétences et il est utilisé comme tel par les employeurs.En même temps, il peut parfois faire obstacle à l’emploi depersonnes ayant les compétences mais pas le diplôme, d’oùles efforts récents pour introduire des procédures de validationdes acquis de l’expérience.

Des recherches empiriques futures devraient amener à éta-blir une nomenclature hiérarchique relativement complète descompétences. Un tel outil aurait à la fois un grand intérêt scien-tifique et pratique. Il permettrait de sortir d’un certain arbitrairedes diverses nomenclatures et serait notamment une aide pré-cieuse au niveau de l’évaluation et de la validation des compé-tences.

D’ailleurs, un travail similaire a déjà été effectué et s’estavéré fructueux au niveau de la personnalité et de l’intelli-gence. Des études empiriques fondées sur l’analyse factoriellemenées depuis l’après-guerre ont progressivement fait émergerune structure hiérarchique de la personnalité en cinq facteurs,les Big Five (Jang et al., 1998 ; McCrae et Costa, 1997 ;Rolland, 2004) : névrosisme, extraversion, ouverture à l’expé-rience, agréabilité, conscience (au sens de « être conscien-cieux »). Ces cinq facteurs se subdivisent eux-mêmes en uncertain nombre de facettes. Par exemple, le facteur névrosismese compose des facettes anxiété, hostilité, dépression, cons-cience de soi, impulsivité et vulnérabilité. Cette structure fac-torielle a pu être retrouvée quasi identique dans sept pays decinq familles linguistiques très différentes (McCrae et Costa,1997) et est donc probablement universelle à toutes les cultu-res.

Par ailleurs, on peut considérer que les facettes elles-mêmesne constituent pas le niveau le plus bas de la hiérarchie. « Onpeut définir un niveau supplémentaire dans la hiérarchie en di-visant les facettes en traits contextuels, c’est-à-dire l’expressiond’un trait dans un contexte spécifique et par rapport à un objetspécifique. L’anxiété peut par exemple être décomposée de fa-çon hiérarchique en anxiété des tests, anxiété par rapport à lasanté, anxiété par rapport à l’argent, etc. Comme les contextessont culturellement définis, il semble probable que la cultureaura des effets importants sur ces traits contextuels : la biologienous dicte comment avoir peur ; la culture nous dicte de quoiavoir peur » (Jang et al., 1998).

Aux points 7, 8 et 9, nous passerons en revue l’importanttravail empirique et théorique qui a été fait pour dégager lastructure hiérarchique de l’intelligence et nous tenterons d’endégager des implications pour l’évaluation des compétences.

3. Pourquoi évaluer les compétences clés ?

Peut-on évaluer les compétences clés et comment ? Avantd’essayer de répondre, il faudrait se poser la question du pour-quoi. À quelle fin évaluer les compétences clés et d’ailleurs lescompétences tout court ? On peut relever trois situations socia-les paradigmatiques où l’évaluation des compétences prend unegrande importance : l’orientation professionnelle, le recrute-ment de collaborateurs et la sélection de personnels en vued’une formation (Gottfredson, 2003b).

Si on veut évaluer les compétences, n’est-ce pas parce quela question de l’efficacité au travail est posée ? (Ree et Carret-ta, 1998). Or, en général nous nous contentons d’appréciationsbinaires du type « il est compétent », « il n’est pas compétent »,nous avons des difficultés à raisonner en termes quantitatifs.Mais que peut-on réellement dire, à partir des études qui ont

Page 4: Comment évaluer les compétences clés dans le domaine professionnel ?

R. Meyers, C. Houssemand / Revue européenne de psychologie appliquée 56 (2006) 123–138126

été faites, sur les différences individuelles de performance autravail ?

Hunter et Schmidt (1996b) ont réalisé une méta-analyse sur135 études portant sur l’efficacité au travail en fonction de lacomplexité de la tâche. Ils ont systématiquement comparé les1 % des travailleurs les plus efficaces avec les 1 % les moinsefficaces. Pour les tâches de complexité réduite, la différencede performance est de 3 à 1. Pour les tâches de complexitémoyenne, la différence trouvée est de 15 à 1. Pour les tâchesde complexité supérieure, le rapport n’a pas pu être calculé.

Il y a donc des différences individuelles très importantesd’efficacité au travail et la productivité d’une entreprisepublique ou privée dépend dans une très large mesure de lacapacité de cette organisation à recruter les personnes les plusefficaces. Si par ailleurs on suit l’hypothèse que les transforma-tions actuelles du processus de travail rendent les tâches deplus en plus complexes et rendent nécessaire le développementdes compétences clés (Evéquoz, 2004), alors l’évaluation deces compétences est une question d’efficacité au travail.

La question de l’équité sociale est une autre raison de me-surer les compétences. Un grand nombre de personnes, à toutniveau de qualification, ont des compétences acquises par l’ex-périence, mais qu’elles ne peuvent valoriser sur le marché dutravail, parce qu’elles n’ont pas les diplômes requis. Cela posedonc la question de la validation des compétences, que nousn’aborderons pas ici. Mais, ce qui vaut pour l’ensemble descompétences, vaut également pour les compétences clés, dansla mesure où celles-ci deviennent de façon croissante une né-cessité dans les organisations de travail (Zarifian, 2000). Com-ment détecter et évaluer ces compétences clés, dans la mesureoù celles-ci devraient être de bons prédicteurs de l’efficacité autravail ?

4. Comment prédire la performance au travail ?

Prédire la performance au travail est donc une question d’ef-ficacité productive et d’équité sociale. Mais comment réaliserla prédiction la plus valide possible de la performance au tra-

Tableau 1Validité prédictive pour la performance au travail (Schmidt et Hunter, 1998) et utLievens, 1991) de différentes méthodes d’évaluation

Méthodes d'évaluation Validité prédic(corrélation av

Échantillons de travail 0,54Tests d'intelligence (aptitude mentale générale) 0,51Entretiens structurés 0,51Évaluations par des pairs 0,49Essais professionnels 0,44Tests d'intégrité 0,41Entretiens non structurés 0,38Assessment centers 0,37Inventaires biographiques 0,35Tests de conscience 0,31Références 0,26Expérience professionnelle antérieure 0,18Tests d'intérêts 0,10Graphologie 0,02Techniques projectives –Tests de personnalité –

vail ? On utilise généralement des coefficients de corrélationsou des mesures apparentées pour mesurer la validité d’un outil.

Différentes méthodes sont couramment utilisées et ont étéétudiées de façon extensive quant à leur valeur prédictive. LeTableau 1 donne les résultats de ces recherches (Schmidt etHunter, 1998 ; Robertson et Smith, 2001). La deuxième co-lonne donne le coefficient de prédiction pour chacun des outils.Les résultats chiffrés sont fondés sur des méta-analyses (Hunteret Schmidt, 1996a) portant sur un grand nombre d’études, cequi permet de dégager la valeur la plus probable. La dernièrecolonne donne les pourcentages d’utilisation par des organis-mes recruteurs en France, tels qu’ils ont été déterminés par uneétude française (Bruchon-Schweitzer et Lievens, 1991). Il y aune barre horizontale, quand les chiffres n’ont pas été donnésdans les études citées.

On voit que les méthodes possibles sont très diverses. Parexemple, pour les échantillons de travail on soumet le candidatà une simulation partielle ou complète du travail qui sera àréaliser s’il est recruté. Dans les entretiens structurés, on posele même questionnaire préconstruit à tous les candidats, onnote et on évalue les réponses une à une. Les entretiens nonstructurés se font sans questionnaire préétabli et se concluentpar une évaluation globale du candidat. Le cas de l’assessmentcenter sera développé plus en détail au point suivant. Dansl’essai professionnel, le candidat est engagé pour une périodede quelques mois et évalué sur son comportement au travail.Un test d’intégrité est un questionnaire utilisé pour détecter lescomportements contre-productifs comme voler, se droguer, sebattre, abîmer le matériel, etc. Les inventaires biographiquessont fondés sur des questions concernant les expériences dupassé (famille, études, hobbies, relations, etc.). Un test de cons-cience mesure une des cinq dimensions du modèle des BigFive, on peut utiliser par exemple le NEO PI-R ou l’AlterEgo et ne retenir que l’échelle de conscience. Les référencessont des évaluations fournies par les employeurs précédents.L’expérience professionnelle antérieure se réfère au nombred’années travaillées avant, sans évaluation spécifique de l’effi-cacité au cours de ce travail.

ilisation par des organismes de recrutement en France (Bruchon-Schweitzer et

tiveec la performance au travail)

Utilisation par des organismes de recrutementen France (en pourcentage)2855––––98Très peuTrès peu–Très peu––9721,561,5

Page 5: Comment évaluer les compétences clés dans le domaine professionnel ?

R. Meyers, C. Houssemand / Revue européenne de psychologie appliquée 56 (2006) 123–138 127

On voit d’abord que les méthodes les plus utilisées ont sou-vent une validité prédictive moins élevée. C’est le cas pour lagraphologie, concernant laquelle une étude plus récente (Rainiset Desrumaux-Zagrodnicki, 2003) a montré qu’elle continue àêtre utilisée par les recruteurs. Le Tableau 1 fait également ap-paraître certains points sur lesquels se joue la fiabilité des mé-thodes : « Les outils dans lesquels les observables (c’est-à-direce qui est réellement pris en compte comme donnée) sont desfaits, des réalisations, des constats d’efficience (tests psycholo-giques ou observations en situation) ont des indications de va-lidité bien supérieures aux outils dont les observables sont desdéclarations subjectives (par exemple des réponses à des inven-taires de personnalité) » (Aubret et Gilbert, 2003).

Un troisième point qui doit être relevé est la grande diffé-rence de standardisation qui existe entre les méthodes : trèsélevée pour les tests d’aptitude et de personnalité (y compristests d’intégrité et de conscience), moyenne pour l’entretienstructuré, faible pour les autres méthodes et outils. Or, les ré-sultats en termes de validité n’ont pas le même sens pour unoutil très structuré comme un test d’intelligence, où les résul-tats sont quasi complètement indépendants du correcteur, et parexemple un entretien non structuré, un assessment center ou uninventaire biographique. On peut faire l’hypothèse, déjà suggé-rée par Schmidt et Hunter (1998) pour l’entretien non structuréet Baron et Janman (1996) pour l’assesment center, que lesoutils mis en oeuvre dans des recherches sont ceux dans leurcatégorie où on apporte le plus de soin et de professionnalismequant à leur passation et dépouillement, et que les outils utilisésdans la pratique courante ont sans doute une validité inférieureà celle qui est donnée dans le Tableau 1.

C’est d’ailleurs un résultat de recherche fort bien établi,quoique généralement ignoré par beaucoup de praticiens, quel’utilisation d’outils standardisés a une meilleure validité queles évaluations globales, « intuitives », « cliniques » ou « fon-dées sur l’expérience », surtout quand cette expérience n’inclutpas un feedback systématique sur ce qu’on fait (Dawes, 1994).C’est aussi le cas pour les techniques projectives comme leRorschach, dont la validité est généralement décevante. Néan-moins, il semble que quelques échelles précises et limitées ra-rement utilisées par les praticiens, comme les échelles évaluantle désordre de la pensée, le résultat escompté d’un traitement,les comportements de dépendance, la schizophrénie ou la per-sonnalité borderline, puissent avoir un intérêt pronostic (Woodet al., 2003). On voit en revanche dans le Tableau 1 que desoutils très standardisés comme les tests d’intelligence ont unebonne validité.

Une quatrième conclusion s’impose : la lourdeur et le coût(en terme d’argent et de temps nécessaire) ne sont pas les mê-mes pour tous ces outils. Certains sont très peu coûteux (lestests crayon-papier, les entretiens, les évaluations par des pairs,etc.), d’autres ont un coût nettement plus élevé et nécessitent lamise en oeuvre de moyens parfois importants (l’essai profes-sionnel, les échantillons de travail et surtout les assessmentcenters, qui constituent incontestablement le procédé le pluslourd). Nous avons vu que les méthodes les plus utilisées nesont pas forcément les plus valides, nous voyons aussi que les

méthodes les plus chères ne sont pas forcément celles qui sontles plus prédictives.

Mais dans tous les cas de figure, la prédiction ne peut êtreque probabiliste, on n’arrivera sans doute jamais à des coeffi-cients beaucoup plus élevés que ceux qui ont été présentés. Lesmeilleures techniques de mesures, prises une à une, ne rendentcompte que de 25 % environ de la variance de l’efficacité autravail, même si en termes d’utilité pratique et de gains qu’uneentreprise peut réaliser en utilisant ces méthodes, leur valeurpronostique peut être nettement supérieure. La valeur pronos-tique d’une mesure, ici par rapport à la performance au travail,ne correspond pas au coefficient de détermination obtenu sur labase de la validité prédictive de cette mesure. Cette valeur re-pose sur trois critères : la validité prédictive de la mesure, lerapport de sélection (proportion de personnes sélectionnéesparmi les mesurées) et le niveau de base (proportion de person-nes sélectionnées sans utilisation de la mesure). Différentesrecherches ont montré que le gain pronostic que permet l’utili-sation d’une mesure peut être nettement supérieur à la valeurdu coefficient de détermination, si le rapport de sélection et/oule niveau de base sont peu élevés (Brogden, 1946, 1949 ;Gottfredson, 1997 ; Taylor et Russell, 1939).

Nous reviendrons plus loin sur la question de la validitéprédictive, en montrant qu’on peut l’améliorer substantielle-ment par une combinaison judicieuse d’outils.

5. Le cas des assessment centers

Au vu des résultats du Tableau 1, on peut discuter deuxoutils plus en détail, à savoir les tests d’intelligence et l’assess-ment center (ou centre d’évaluation). Dans un tel centre, ladémarche est généralement la suivante : plusieurs candidatssont évalués par plusieurs observateurs durant plusieurs jour-nées par l’intermédiaire d’un ensemble divers de mises en si-tuation : discussions de groupe, présentations, jeux de rôle, en-tretiens individuels, exercices « in-basket », etc. Ce derniertype d’exercice, fréquemment utilisé pour différentes profes-sions, simule une situation où le candidat doit gérer un en-semble diversifié de courrier entrant (mémos, lettres, fax,e-mails, coups de fil), les réponses proposées par le sujet sontévaluées par différents juges.

Le but de l’assessment center est de réaliser une évaluationà la fois diversifiée et globale des aptitudes des candidats dansdes mises en situation simulant le travail réel. Au vu de notreTableau 1, le choix de cet outil pour l’évaluation des compé-tences ne paraît pas justifié. En effet, il s’agit d’une méthodecertes valide, mais pas la plus valide. Les tests d’intelligenceont une meilleure valeur prédictive de l’efficacité au travail,comme l’a montré la méta-analyse de Hunter et Hunter(1984) portant sur l’analyse de plus de 400 études différentes.

D’autres problèmes soulevés par les centres d’évaluationdoivent être cités. Ainsi, on a montré que cet outil offre uneassez bonne validité prédictive, quoique pas la meilleure. Laméta-analyse de Gaugler et al. (1987) portant sur 50 études adonné un coefficient de validité moyen de 0,37 pour les centresd’évaluation. Mais la validité de construction est faible. Onobtient de faibles corrélations entre les mêmes traits mesurés

Page 6: Comment évaluer les compétences clés dans le domaine professionnel ?

R. Meyers, C. Houssemand / Revue européenne de psychologie appliquée 56 (2006) 123–138128

par des épreuves différentes (validité convergente faible) et defortes corrélations entre des traits différents mesurés dans lamême épreuve (validité divergente faible) (Sackett et Dreher,1982).

Pour avoir une bonne validité de construction de l’outil, cedevrait être l’inverse. En d’autres termes, on ne sait pas bien cequ’on mesure (Kleinmann, 1998), mais ce qu’on évalue estnéanmoins globalement un prédicteur de la performance au tra-vail. L’instrument est donc utilisable dans le recrutement, maispas dans le cadre du développement du personnel. Par exem-ple, pour établir un catalogue différencié des compétences de lapersonne, afin de décider lesquelles doivent être renforcées parla formation ou à quel poste une personne peut donner le meil-leur d’elle-même. Malgré des recherches intensives menées surles vingt dernières années, ce problème n’a pas pu être solu-tionné, comme le montre une revue systématique de la question(Baron et Janman, 1996).

Par ailleurs, un coefficient de prédiction même assez bon ala particularité psychométrique de générer beaucoup de « fauxnégatifs », c’est-à-dire des sujets classés à tort comme « pasbons ». Ce classement est dû à l’imprécision de l’instrument.Avec un coefficient de prédiction de 0,37 tel que celui mis enévidence dans l’étude de Gaugler et al. (1987), on peut montrerqu’un asessment center retenant 10 % des personnes évaluéesécarterait 70 % des sujets alors même que ceux-ci présentent aumoins le même niveau de performance au travail que les per-sonnes retenues.

Concrètement, cela veut dire que beaucoup de sujets obser-vés en centre d’évaluation seraient meilleurs sur un lieu de tra-vail réel que dans les exercices proposés en assessment center.On ne peut que faire des hypothèses pour expliquer ce phéno-mène. Outre une certaine subjectivité des observateurs, on peutégalement faire l’hypothèse que certaines compétences que lessujets possèdent ne sont peut-être pas rendues visibles par l’ob-servation en assessment center. Soit que les observateurs ne lesremarquent pas, soit que les sujets n’arrivent pas (par exemple,par timidité, introversion, temps d’adaptation un peu plus long,etc.) à rendre observables ces compétences en situation.

On a d’ailleurs montré dans une méta-ananalyse qu’il yavait une corrélation moyenne de 0,50 entre l’extraversion etles résultats aux centres d’évaluation (Collins et al., 2003).Donc, les personnes extraverties y seraient nettement avanta-gées, alors que leur performance au travail n’est en généralqu’un peu meilleure. La corrélation moyenne entre l’extraver-sion et la performance au travail est de 0,13. Même dans desprofessions spécifiques pourtant réputées « extraverties »comme la vente et le management elle n’atteint que 0,15 et0,18 (Barrick et Mount, 1991). D’autres biais possibles ontété évoqués dans une revue récente, comme le sexe, la race,la culture d’origine, l’apparence physique, l’âge et les handi-caps physiques (Baron et Janman, 1996). Ces biais ne sontnéanmoins pas aussi bien établis que pour l’extraversion (l’ef-fet est souvent faible, les études précises manquent et on n’apas de méta-analyse donnant des chiffres aussi fiables commedans le cas de l’extraversion).

Bref, ceux qui arrivent le mieux à « se vendre » auraient uncertain avantage en assessment center. Il s’agit là bien sûrd’hypothèses qui seraient encore à approfondir.

Ce phénomène des faux négatifs n’est pas très gênant dansle cadre du recrutement, où ce n’est pas trop grave si on abeaucoup de faux négatifs, du moment qu’on arrive à sélec-tionner assez de candidats valables pour les postes à pourvoir.En revanche, le phénomène est nettement plus fâcheux quand ils’agit d’évaluer les aptitudes de personnes dépourvues de beau-coup de compétences (ou soupçonnées d’en être dépourvues).En multipliant les « faux négatifs », on risque de stigmatiserencore une fois des personnes déjà en situation de difficultés(par exemples, des personnes sans emploi). Il faudrait donc,notamment par la combinaison de différentes dimensions, arri-ver à des prédictions plus valides, dans un souci aussi biend’efficacité prédictive que d’équité sociale.

6. Le cas des tests d’intelligence générale

Qu’en est-il des tests d’intelligence, peuvent-ils être des ins-truments intéressants pour déterminer les compétences clés ?Le Tableau 1 montre que les tests d’intelligence générale, outreleur facilité de mise en oeuvre, donnent une bonne prédictionde la performance au travail (0,51 pour un travail de comple-xité moyenne, selon Schmidt et Hunter, 1998). Des études mé-ta-analytiques ont montré que cette prédiction était tout à faitgénérale à l’ensemble des tâches et des professions et qu’elleétait meilleure que l’ancienneté au travail ou l’expérience pro-fessionnelle (Hunter et Schmidt, 1996b). Une méta-analysefaite sur 89 études portant sur des échantillons européens alargement confirmé les résultats américains : l’intelligence gé-nérale est un bon prédicteur, non seulement de la performanceau travail, mais aussi de l’efficacité d’une formation (Salgadoet al., 2003).

Par ailleurs, la validité de la prédiction augmente avec ledegré de complexité de la tâche. Une méta-analyse portantsur plus de 400 études (Hunter et Hunter, 1984 ; Hunter etSchmidt, 1996b) a montré que la validité prédictive était de0,57 pour des tâches de grande complexité (17 % des emploisaméricains), 0,51 pour des tâches de complexité moyenne(63 % des emplois) et 0,38 pour des tâches de complexité ré-duite (20 % des emplois).

L’avantage qu’ont les extravertis en centre d’évaluation sevérifie-t-il également pour les tests d’intelligence ? Une méta-analyse a montré une corrélation de seulement 0,08 entre l’ex-traversion et l’intelligence générale (Ackermann et Heggestad,1997), les tests d’intelligence ne donnent donc pas le mêmeavantage aux extravertis que les assessment centers.

Les résultats aux centres d’évaluation sont d’ailleurs eux-mêmes fortement corrélés avec l’intelligence générale, commel’a montrée une méta-analyse réalisée par Collins et al. (2003).Les auteurs ont calculé la corrélation moyenne corrigée (rho)entre les évaluations en assessment center et l’intelligence gé-nérale, ainsi qu’avec quatre des cinq facteurs de personnalitédu Big Five (stabilité émotionnelle, extraversion, ouverture,agréabilité). Les résultats sont dans l’ordre : intelligence géné-rale (0,67), extraversion (0,50), stabilité émotionnelle (0,35),

Page 7: Comment évaluer les compétences clés dans le domaine professionnel ?

R. Meyers, C. Houssemand / Revue européenne de psychologie appliquée 56 (2006) 123–138 129

ouverture (0,25), agréabilité (0,17). Une régression multipleentre ces cinq prédicteurs et les évaluations dans les assessmentcenters donne un coefficient de régression de 0,84. Les auteursconcluent que, compte tenu du coût très élevé des centresd’évaluation, l’utilisation de tests d’aptitude et d’inventairesde personnalité serait, dans la perspective de sélection du per-sonnel du moins, une solution plus viable et nettement pluséconomique (Collins et al., 2003).

Par ailleurs, comme indiqué plus haut, les tests d’aptitudeont l’avantage de présenter un design standardisé, fortementindépendant de la personne qui fait passer le test, ce qui n’estgénéralement pas le cas des centres d’évaluation, comme lenotent Baron et Janman (1996) : « En effet, il est probableque les AC (assessment centers) qui ont le plus donné lieu àdes recherches sont aussi ceux où les plus grands efforts ont étéfaits pour mettre en oeuvre la procédure de façon correcte. (...)Il y a un besoin d’études plus vastes sur les pratiques de baseainsi que de plus d’études contrôlées sur l’impact de différentescaractéristiques sur la validité et l’équité des AC ».

7. Les recherches sur l’intelligence

La question de l’évaluation des compétences clés peut êtreéclairée de façon complémentaire par les recherches qui ont étémenées sur l’intelligence depuis le début du XXe siècle. Undébat récurrent oppose les tenants d’une intelligence générale,transversale à toutes les opérations mentales impliquées, auxdéfenseurs d’une conception postulant une pluralité d’intelli-gences.

L’idée d’une intelligence générale a été émise pour la pre-mière fois par Spearman (1904). Les performances à différen-tes tâches cognitives dépendraient toutes d’un même facteurgénéral d’intelligence, souvent appelé facteur g, expliquantles corrélations fortes entre performances à des tests différents,et en même temps, de facteurs spécifiques ayant un rôle moinsimportant. Thurstone a quant à lui énoncé en 1938 une théoriequi postule des facteurs indépendants (les Primary Mental Abi-lities ou PMA). Pour lui, l’intelligence est constituée de plu-sieurs aptitudes plutôt que d’un facteur général et de plusieursfacteurs spécifiques (Thurstone, 1938). Les sept principauxfacteurs de Thurstone, auxquels il a été possible de donner unsens, sont : spatial, numérique, verbal, mémoire, perception,fluidité verbale, raisonnement. Mais, comme Spearman l’a faitremarquer, si les résultats aux épreuves mesurant ces facteurssont peu corrélés entre eux, cela est dû à la construction del’instrument et ne réfute pas l’idée d’un facteur général (Gré-goire, 2004).

Une vue plus extrême encore a été défendue par Guilford(1959) qui postulait pas moins de 150 aptitudes différentesdans son modèle de la structure de l’intellect en trois dimen-sions comprenant cinq opérations (cognition, mémoire, produc-tion divergente, production convergente, évaluation), cinqcontenus (sémantique, symbolique, figural, auditif, comporte-mental) et six produits (unités, classes, relations, systèmes,transformations, implications). L’auteur n’a pas réussi à validerempiriquement son modèle, mais il est le premier à avoir tentéde modéliser l’activité cognitive en différenciant les processus,

les contenus auxquels ils s’appliquent et les résultats que cestraitements amènent.

Deux facteurs particulièrement importants ont été mis enévidence par R.B. Cattell dès 1941, il s’agit de l’intelligencefluide (Gf) et de l’intelligence cristallisée (Gc). Par intelligencefluide, on entend la compétence qui nous permet de résoudredes problèmes pour lesquels nous ne possédons pas de solu-tions apprises. En revanche, Gc est une compétence dérivéede l’exercice de Gf au cours de l’apprentissage. Progressive-ment, le sujet assimile les connaissances spécifiques à saculture et apprend à les utiliser pour résoudre une vaste gammede problèmes. Gf et Gc n’évoluent pas de la même manière aucours de l’existence. Selon les études de Cattell, Gf se déve-loppe jusqu’à 14–15 ans et décroît ensuite avec le vieillisse-ment. Au contraire, Gc peut continuer à se développer nette-ment plus longtemps en fonction des opportunitésd’apprentissage et de la motivation des individus (Grégoire,2004). D’autres études montrent un déclin moins précoce deGf vers 20 ans (Schroeder et Salthouse, 2004). Une étude deSalthouse et al. (2003) réalisée sur un échantillon de 261 sujetsâgés de 18 à 84 ans met en avant un déclin seulement à partirde 30 ans. L’important ici n’est pas l’âge exact auquel ce dé-clin peut être rattaché mais bien son existence (relativementprécoce dans tous les cas, comparée à l’espérance de vie et àla durée de la période d’activité professionnelle) mise en évi-dence dans toutes les études longitudinales de ce type.

Il y a actuellement un assez large consensus chez la plupartdes psychométriciens, suite à l’élaboration de modèleshiérarchiques en trois niveaux. C’est d’ailleurs par une reana-lyse des données de Thurstone qu’on s’est aperçu que les fac-teurs n’étaient pas indépendants et donc qu’il y avait bien unfacteur g.

Les modèles hiérarchiques intègrent à la fois un facteurd’intelligence générale (facteur g), plusieurs facteurs de groupenon indépendants, correspondant à des aptitudes de large spec-tre, et finalement un plus grand nombre de facteurs de groupesrestreints (aptitudes primaires de Thurstone), correspondant àdes aptitudes de plus faible étendue. Le modèle qui est sansdoute le plus reconnu actuellement est celui de Carroll(1993), il est représenté dans la Fig. 2 (Grégoire, 2004).

On voit que le troisième niveau est représenté par l’intelli-gence générale. Au deuxième niveau on trouve huit facteurs degroupe (intelligence fluide, intelligence cristallisée, mémoiregénérale, perception visuelle, perception auditive, capacité derappel, rapidité cognitive, vitesse de traitement). Le premierniveau est représenté par des facteurs de groupe mineurs cor-respondant à des aptitudes de faible étendue.

8. Les critiques récentes à l’encontre du facteur g

Le modèle de Carroll s’est avéré compatible avec de trèsnombreuses données récoltées dans différents pays sur une pé-riode de plus de cinquante ans. Néanmoins, les critiques adres-sées à la conception d’une intelligence générale ont été relan-cées de façon médiatisée par Gardner (1983) et sa théorie desintelligences multiples. L’auteur distingue les intelligences spa-tiale, musicale, verbale, logicomathématique, kinesthésique, in-

Page 8: Comment évaluer les compétences clés dans le domaine professionnel ?

Fig. 2. Modèle hiérarchique des aptitudes intellectuelles selon Carroll (1993)(Grégoire, 2004).

R. Meyers, C. Houssemand / Revue européenne de psychologie appliquée 56 (2006) 123–138130

trapersonnelle et interpersonnelle. Ces intelligences seraient dé-terminées en partie génétiquement, mais elles ne seraient passtatiques et une pédagogie « intelligente » permettrait de lesfaire évoluer. Mais Gardner refuse par principe de créer desinstruments de mesure de ces différentes intelligences, car lessituations standardisées seraient trop différentes des situations« naturelles ». Cette position rend malheureusement impossibletout débat documenté. De nombreuses autres critiques ont étéémises à cette conceptualisation : la théorie est fondée sur duraisonnement et pas sur des recherches empiriques nouvelles,les données empiriques invoquées ne confirment pas le modèle(Matthews et al., 2004), la portée des différentes « intelligen-ces » est très inégale, la définition de l’intelligence est tropvaste, l’intelligence générale sous-jacente à toutes les formesd’intelligence est niée alors qu’il y a des arguments forts ensa faveur (Grégoire, 2004).

Également en opposition aux théories du facteur g, maisaussi dans une approche plus fonctionnelle que descriptive,Sternberg a proposé une théorie dite triarchique de l’intelli-gence. Celle-ci distingue l’intelligence analytique, l’intelli-gence créative et l’intelligence pratique (Sternberg, 2003).L’intelligence analytique est l’aptitude à analyser et à évaluerdes idées, à résoudre des problèmes et à prendre des décisions.Elle serait mesurée par les tests classiques. L’intelligence créa-tive consiste à aller au-delà de ce qui est donné et à générer desidées nouvelles. Quant à l’intelligence pratique, c’est l’aptitude

à trouver la meilleure adaptation possible entre soi et les de-mandes de l’environnement. Cette dernière fait surtout appel àce que Sternberg appelle des connaissances tacites (tacit know-ledge). Sternberg cite trois caractéristiques de ces connaissan-ces : elles sont procédurales (« comment faire ? ») plutôt quefactuelles ; elles sont apprises sans aide ou sans instructionexplicite faite par d’autres ; elles concernent ce qui est impor-tant pour la personne qui les acquiert plutôt que des connais-sances générales.

Le test, malheureusement non publié, mesurant les trois di-mensions est le Sternberg Multidimensional Abilities Test(STAT) (Sternberg, 2003). Les critiques de Sternberg souli-gnent que son test de connaissances implicites ne donne pasles preuves empiriques fortes qu’il affirme (Brody, 2003 ; Gott-fredson, 2003a). Des défenseurs du facteur général g ontavancé que l’intelligence pratique, du moins dans le domainedu travail, est plus proche des connaissances professionnelles(job knowledge) et ne se situent pas au même niveau que l’in-telligence (Schmidt et Hunter, 1993). Par ailleurs, on a montréque les trois échelles d’intelligence sont fortement corréléesentre elles : 0,93 entre le facteur analytique et le facteur pra-tique, 0,85 entre le facteur analytique et le facteur créatif, et0,72 entre le facteur pratique et le facteur créatif (Brody,2003). Ces données vont à l’encontre de l’hypothèse d’intelli-gences indépendantes et renforcent l’hypothèse du facteur g.

Une dernière tentative pour relativiser l’importance du fac-teur g a été tentée par les défenseurs de l’intelligence émotion-nelle (Bar-On et Parker, 2000 ; Goleman, 1995). Celle-ci aconnu un grand intérêt ces dernières années, aussi bien au planacadémique, qu’au niveau médiatique. Le grand public a sur-tout été rendu attentif par les livres de Goleman (1995, 1998b).Cet auteur distingue la conscience de soi, la maîtrise de soi, lamotivation, l’empathie et l’aptitude sociale. On voit tout desuite qu’il s’agit d’un vaste concept reprenant plusieurs dimen-sions.

Les critiques formulées par des auteurs comme Goleman(1995, 1998a, 1998b) ont souligné que les tests d’intelligencen’avaient qu’un faible pouvoir prédictif comparé à l’intelli-gence émotionnelle. Mais ces critiques ne considèrent généra-lement pas le fait que pour beaucoup de métiers, un certainniveau minimum d’intelligence est requis. Une fois ce seuilatteint, les différences entre ceux qui l’ont effectivement atteintse feront sans doute sur d’autres critères. Un bon exemple estune étude de Feist et Barron (Cherniss, 2000) réalisée sur 80personnes ayant un doctorat en sciences. Ces sujets avaient su-bi une série d’entretiens, de tests d’intelligence et de personna-lité dans les années 1950, quand ils étaient encore étudiants.Quarante ans plus tard, on évaluait leur réussite professionnelleselon un certain nombre de critères et on trouvait que les com-pétences sociales et émotionnelles avaient eu quatre fois plusd’importance que le QI dans cette réussite. Mais en mêmetemps, ajoute Cherniss, il leur a bien fallu un QI minimal de120 environ pour devenir des scientifiques, après cela, il est eneffet plus important d’être persévérant et de bien s’entendreavec ses collègues que d’avoir encore dix ou 15 points de QIsupplémentaires (Cherniss, 2000).

Page 9: Comment évaluer les compétences clés dans le domaine professionnel ?

R. Meyers, C. Houssemand / Revue européenne de psychologie appliquée 56 (2006) 123–138 131

Ces considérations rejoignent les remarques faites par Gott-fredson (2003a) : plus les sujets ont été présélectionnés surbase de l’intelligence générale (c’est-à-dire, plus l’éventail desintelligences est réduit dans l’échantillon), plus grande sera lavaleur explicative des facteurs non-g pour rendre compte de ladifférence d’efficacité entre ces personnes. C’est évidemmentle cas pour les leaders et les managers (Goleman, 1998a), quiprésentent en général un QI largement au-dessus de lamoyenne. Affirmer que l’intelligence n’a « qu’une faible im-portance » dans ces groupes, c’est comme affirmer que la taillene joue pas de rôle dans le basket-ball, parce que dans la liguenationale, la corrélation entre la taille des joueurs et le nombrede paniers marqués est faible (Gottfredson, 2003b).

Deux types d’épreuves d’intelligence émotionnelle ont étémis au point. Le Bar-On Emotional Quotient Inventory (EQ-i) est un questionnaire d’autoévaluation plutôt qu’une épreuved’aptitude. Les réponses sont de fait fortement corrélées avecdes dimensions déjà mesurées par les tests de personnalité clas-siques de type Big Five (Rolland, 2004), comme le NEO Per-sonality Revised (NEO PI-R). Les corrélations trouvées sont de–0,62 avec le névrosisme, 0,52 avec l’extraversion, 0,43 avecl’agréabilité et 0,51 avec la conscience (Grégoire, 2004).

Le MSCEIT V2.0 (Mayer-Salovey-Caruso Emotional Intel-ligence Test, version 2) se veut une épreuve d’aptitude à partentière (Mayer et al., 2003). Mais les informations pertinentespour trouver les « bonnes » réponses (en supposant qu’il y enait) sont souvent omises, par défaut de contextualisation desquestions. Les situations sociales dans lesquelles une réponsecorrecte devrait être trouvée sont trop peu définies, et ne peu-vent sans doute pas l’être dans le cadre d’un test. Un exempleextrait du MSCEIT permet d’illustrer cette difficulté. Dansl’énoncé de cet item, un collègue de travail demande à dîneravec vous. Il vous fait la confidence qu’il a envoyé un CVfalsifié pour obtenir un emploi qu’il n’aurait pas eu sans cela.La personne passant le test doit évaluer la réponse suivante :vous lui demandez comment il se sent, afin que vous puissiezlui demander ce qui se passe ; vous lui offrez votre aide, maissans forcer au cas où il ne voudrait pas de cette aide (Brody,2004).

Dans cet exemple, des informations cruciales pour détermi-ner une réponse appropriée manquent. Quel est le statut desdeux employés et leur relation dans le cadre du travail, maisaussi à un niveau personnel ? Quelle est la personnalité de lapersonne qui demande de l’aide et de celle qui offre son sou-tien ? Il faudrait connaître les intentions subtiles de la personnequi demande de l’assistance. Des indications précises pour-raient être contenues dans son langage corporel, qui n’est pasdéchiffrable dans l’item donné. La réponse fournie pourraitaussi être fortement déterminée par les valeurs personnelles etculturelles de la personne qui passe le test, etc. (Brody, 2004 ;Matthews et al., 2004). On voit bien ce que l’idée qu’il y auraitune réponse correcte a d’artificiel et d’arbitraire.

Pour chaque item du MSCEIT, deux systèmes de cotationsont utilisés : les réponses dites correctes sont celles qui ontrecueilli un consensus parmi des experts ou qui ont le plusfréquemment été citées dans un échantillon de référence. Mal-

heureusement, il n’y a qu’une corrélation modérée entre lesdeux critères (Matthews et al., 2004 ; Roberts et al., 2001).

Par ailleurs, un tel consensus avec des experts ou avec unéchantillon témoin tout-venant n’est pas nécessairement lesigne d’une intelligence supérieure. Ainsi, une personne trèsintelligente peut donner des réponses originales, mais peuconsensuelles. Les cotations des réponses fournies aux testspar les sujets deviennent alors partiellement arbitraires (Brody,2004 ; Matthews et al., 2004 ; Roberts et al., 2001 ; Zeidner etal., 2001). Ce problème se pose d’ailleurs aussi pour les épreu-ves d’intelligence pratique (ou de connaissances tacites) deSternberg.

On a constaté que les résultats à ce genre de test donnaientdes corrélations significatives modérées avec une mesure del’intelligence cristallisée, en revanche la corrélation avec l’in-telligence fluide s’est révélée nulle. Ces résultats semblent in-diquer que les aptitudes rassemblées sous l’étiquette intelli-gence émotionnelle constituent un sous-ensemble del’intelligence cristallisée (Grégoire, 2004). Une évaluation pré-cise de ces aptitudes est néanmoins encore difficile, en tout casaussi longtemps que des méthodes fiables d’évaluation et decotation des réponses ne sont pas disponibles (Zeidner et al.,2001). Par ailleurs, la validité prédictive de l’outil n’a été quetrès peu étudiée. D’après les auteurs du MSCEIT même (www.emotionaliq.com), on serait très loin des affirmations qu’ontrouve dans la presse populaire (du genre « l’intelligence émo-tionnelle a deux fois plus d’importance que le QI », affirmationde Goleman, 1998a). Il y aurait une certaine prédiction ducomportement prosocial, de la déviance et de la réussite auxétudes (Mayer et al., 2003). En tout cas, l’intelligence émotion-nelle n’est certes pas en mesure de détrôner le rôle central quele facteur g joue dans l’évaluation du fonctionnement cognitif.

Une recherche récente fournissant des arguments extrême-ment forts en faveur du facteur g peut être citée. Johnson et al.(2004) ont fait passer trois batteries différentes de tests d’intel-ligence à un groupe de 436 personnes de niveau socioécono-mique et de professions très diverses, de différents pays etd’âge variant de 18 à 79 ans. Les trois batteries étaient desoutils qui avaient été développés de façon indépendante et éva-luaient des aspects divers de l’intelligence. Aucune des troisbatteries ne contenait de sous-test qui se retrouvait dans uneautre. Par analyse factorielle, un facteur g a été isolé dans cha-cune des batteries et les corrélations entre les trois facteurs is-sus des trois batteries ont été calculées. Les corrélations obte-nues sont quasi parfaites : à savoir 0,99, 0,99 et 1,00. Même siles valeurs très élevées des corrélations obtenues dans cetteétude doivent être relativisées par deux éléments méthodologi-ques (l’échantillon de l’étude contient une part relativementimportante de couples de jumeaux et il y a un ajustement assezfaible des modèles statistiques), cette étude apporte des argu-ments en faveur d’un facteur g général dont la mesure ne dé-pendrait pas d’un outil de mesure spécifique.

Un autre exemple peut être donné pour montrer l’impor-tance du facteur général se retrouvant dans toutes les aptitudescognitives : l’étude PISA évalue les compétences des élèves de15 ans des pays de l’OCDE. Ces tests se font dans trois domai-nes, à savoir la lecture, les mathématiques et les sciences

Page 10: Comment évaluer les compétences clés dans le domaine professionnel ?

Fig. 3. Item similaire à ceux du Advanced Progessive Matrices (Grégoire,2004).

R. Meyers, C. Houssemand / Revue européenne de psychologie appliquée 56 (2006) 123–138132

(OCDE, 2001). Or, quand on examine les résultats, les troisrésultats sont également très fortement liés entre eux. Pour leLuxembourg, on avait lors de la passation 2000 les corrélationssuivantes : 0,87 entre les sciences et les mathématiques, 0,92entre les sciences et la lecture, et 0,87 entre la lecture et lesmathématiques. On peut donc également s’interroger sur la si-gnification de ce « facteur général » qui sature très fortementles résultats au test PISA (Martin et Houssemand, 2003). Desliens d’importance équivalente se retrouvent dans les autrespays participant à l’étude.

Un résultat similaire a été trouvé pour le National AdultLiteracy Survey (NALS) aux États-Unis, qui a mesuré en1992 les compétences en lecture, écriture et calcul d’un échan-tillon d’adultes de 16 ans et plus. Des corrélations de plus de0,90 ont été trouvées entre les trois échelles « Prose », « Docu-ment » et « Quantitative ». L’analyse factorielle a montré queles trois échelles mesurent essentiellement un seul facteur gé-néral (Gottfredson, 1997).

Les recherches et débats sur l’intelligence générale que nousavons passés en revue montrent qu’il semble impossible dedégager des composantes mesurables de l’intelligence qui nesoient pas fortement saturées par le facteur g. Même si ce fac-teur ne fournit certes pas l’explication complète du fonctionne-ment cognitif, c’est celui qui est le plus clairement évaluable etqui fournit la meilleure prédiction accessible de différentes ap-titudes nécessaires dans la vie quotidienne (Brody, 1996 ; Gott-fredson, 1997 ; Kuncel et al., 2004).

9. Intelligence générale et compétences au travail,aux études et dans la vie quotidienne

Les chercheurs essaient depuis des années de circonscrire laréalité ultime du facteur g, en sachant bien entendu qu’il estimpossible de construire un test qui n’évaluerait que ce facteurseul. Sans pouvoir ici détailler l’approche fonctionnaliste del’étude de l’intelligence en psychologie cognitive différentielle,on peut dire que les résultats les plus récents plaident pour uneexplication qui combinerait le contrôle attentionnel et de la vi-tesse de traitement, en d’autres termes la capacité à traiter l’in-formation. On ne peut s’empêcher de penser que ce sont éga-lement des aptitudes qui jouent un grand rôle dans lessituations de travail, surtout pour les tâches de complexitémoyenne et supérieure, les aptitudes psychomotrices (l’habilitémanuelle) continuant d’avoir un rôle important dans les tâchesde complexité inférieure (Gottfredson, 1997). Vu le caractèreincontournable du facteur g dans le fonctionnement cognitif,celui-ci est un bon prédicteur de la capacité d’acquisition descompétences clés.

Les conclusions concernant la grande validité prédictive desépreuves d’intelligence générale paraissent dans l’ensemble as-sez étonnantes et sont très difficilement acceptées, aussi bienpar le grand public que par certains spécialistes. Comment lesrésultats à des tests papiers-crayon comportant des itemscomme celui présenté à titre d’exemple dans la Fig. 3, peu-vent-ils prédire l’efficacité au travail, qui n’a apparemment rienà voir avec ces inoffensifs « jeux de société » ? Et comment

ces tests pourraient-ils être plus valides que les années d’expé-rience professionnelle ou d’ancienneté dans un travail ?

Le type d’item évalue notamment la capacité de comprendrele problème non encore rencontré, de se le représenter mentale-ment, d’ébaucher un raisonnement en tenant compte de plu-sieurs dimensions, de trouver une solution à un problème neuf,d’arriver vite à la solution (le temps de passation est limité). Or,ce sont justement des aptitudes qui de façon croissante sont né-cessaires dans beaucoup de situations de la vie quotidienne.Gordon (1997) a montré de façon détaillée que la vie quoti-dienne était elle-même un test d’intelligence permanent. Ces ap-titudes sont également demandées de façon croissante dans lessituations de travail. Zarifian (2000) insiste par exemple sur lanotion d’évènement dans le travail. Un tel aléa survient de ma-nière partiellement imprévue, non programmée, mais est impor-tant pour le succès de l’activité productive. Ces événements né-cessitent que soient développées des façons innovantes de faireface, notamment aux demandes de l’environnement, en d’autrestermes une bonne intelligence fluide (Gf) est indispensable.

Les aptitudes évaluées sont également fort proches de cellesqui sont données dans le référentiel des compétences clés deGenève brièvement présenté au point 1 (OOFP, 2003), surtoutles compétences « traiter l’information », « organiser » et « ré-soudre des problèmes ». Par exemple : comprendre l’informa-tion donnée, faire des associations à partir de l’information,abstraire à partir de l’information, analyser, gérer son temps,gérer la situation, faire des choix, prendre des décisions, etc.En revanche, ces aptitudes sont plus éloignées des compéten-ces selon le ROME qui sont plus spécifiques à un domaineparticulier.

Certes, les situations professionnelles sont généralementplus complexes que ce qui est demandé dans les tests d’intel-

Page 11: Comment évaluer les compétences clés dans le domaine professionnel ?

R. Meyers, C. Houssemand / Revue européenne de psychologie appliquée 56 (2006) 123–138 133

ligence et font intervenir un grand nombre de paramètres, dontune bonne partie est spécifique à des situations particulières.Les tests, dont l’item présenté est une illustration, évaluentdes aptitudes de base. L’acquisition de celles-ci est une condi-tion nécessaire pour mettre en oeuvre des aptitudes plus multi-factorielles. En même temps, les tests doivent éviter de présen-ter des tâches spécifiques à un ou plusieurs domaines (parexemple, le management d’une banque), pour atteindre des ap-titudes qui sont générales et qui mobilisent des connaissancesauxquelles tout le monde a été exposé (du type « pourquoi al-lons-nous chez le médecin ? ») (Gottfredson, 1997, 2003a,2003b).

Hunter et Schmidt (1996b) ont quant à eux mis en évidencela dimension des connaissances professionnelles (job know-ledge). Ces connaissances sont apprises, et tout apprentissagenécessite la mobilisation d’aptitudes mentales. Elles peuventêtre aussi bien déclaratives (connaître les pièces détachéesd’un moteur) que procédurales (savoir démonter et remonter lemoteur). Les connaissances professionnelles s’acquièrent soitpar un enseignement formel (l’école ou la formation), soit direc-tement sur le lieu de travail. La formation sur le lieu de travailmobilise sans doute plus de capacités cognitives, car il n’y asouvent pas de règle préétablie, il faut repérer les situations pro-blématiques, se les formuler, combiner plusieurs points de vue,innover dans la recherche de règles généralisables.

L’intelligence générale serait donc un prédicteur de l’effica-cité au travail, parce qu’elle favorise les connaissances profes-sionnelles, qui elles-mêmes favorisent le rendement du travail.Les méta-analyses faites par Hunter et Schmidt (1996b) confir-ment ces hypothèses. « Les travailleurs très compétents sontplus rapides dans les opérations cognitives liées au travail, sontplus à même d’établir des priorités entre des règles conflictuel-les, sont plus capables d’adapter d’anciennes procédures à dessituations nouvelles, sont plus capables d’innover pour rencon-trer des situations inattendues, et arrivent plus vite à apprendrede nouvelles procédures quand le travail change. Dans beau-coup d’études de validation, les chercheurs ont trouvé que lestâches complexes sont liées à un haut degré de jugement, deraisonnement et de planification » (Hunter et Schmidt, 1996b).

On sait que l’analyse des emplois (job analysis) dégage gé-néralement un nombre limité de facteurs. Le relevé des com-pétences pour les 466 métiers du répertoire opératoire des mé-tiers (ROME, 1999) aurait été construit à partir d’une trentainede méta-compétences. Étant couvertes par les droits d’auteur,ces dernières sont tenues secrètes. Des recherches plus ancien-nes, faites dans les années 1950 par French (Hunter et Schmidt,1996b), réalisées par la méthode des analyses factorielles,avaient déjà montré qu’une trentaine de compétences cogniti-ves est utilisée dans la plupart des tâches professionnelles. Ontrouve en général au moins une demi-douzaine de ces compé-tences cognitives qui sont pertinentes pour un emploi donné(Hunter et Schmidt, 1996b).

Gottfredson (1997) a réalisé une analyse factorielle de laplupart des métiers recensés aux États-Unis à partir des activi-tés mises en oeuvre, des compétences requises et des condi-tions de travail. Elle a dégagé dix facteurs qu’elle a nommés :difficulté cognitive générale (overall mental difficulty), opéra-

tion sur objets complexes, surveillance de machines, utilisationde machines, contrôle manuel, restauration des personnes, co-ordination hors contact visuel, vente, utilisation des cinq sens,port d’une tenue vestimentaire spécifique. C’est le premier fac-teur, la difficulté cognitive générale, qui rend le plus compte dela complexité de la tâche. En effet, elle a pu montrer que cefacteur corrélait très fortement avec des caractéristiques desprofessions qui avaient trait à des aptitudes mentales comme« rassembler de l’information », « combiner l’information »,« raisonner », etc.

En ce qui concerne les aptitudes sociales, ce facteur corrélaittrès fortement avec des caractéristiques des professions comme« négocier », « convaincre », « importance du conflit interper-sonnel », etc. (Gottfredson, 1997). Loin de s’opposer, commecertains auteurs le font régulièrement, la capacité de travailleravec des objets et la capacité de travailler avec des personnessont fortement corrélées, surtout aux hauts niveaux de comple-xité des tâches. Cette complexité, que ce soit au niveau desaptitudes mentales comme des aptitudes sociales, dépend dela difficulté des processus de traitement de l’information quisont exigés. Or, ceux-ci sont directement liés au facteur g.

Une analyse plus ancienne de la plupart des métiers améri-cains, également réalisée par Gottfredson (1986, 2003b), a per-mis d’établir une classification des métiers en 13 groupementsd’aptitudes professionnelles ou Occupational Aptitude PatternsMap (Tableau 2). La dimension verticale fait varier l’impor-tance du niveau intellectuel exigé, celui-ci est lié à la comple-xité des tâches, au prestige social et à la rémunération perçue.C’est la dimension qui est directement liée à l’intelligence gé-nérale et au facteur g. C’est aussi aux niveaux les plus élevésde cette dimension que le profil cognitif différencié, celui quiest notamment mesuré par les facteurs de groupe de Carroll(1993), prend le plus d’importance. À l’inverse, en bas del’échelle, ce sont les aptitudes psychomotrices (l’habilité ma-nuelle) qui prennent plus de poids, alors que celles-ci jouentmoins aux niveaux plus élevés de l’échelle.

La dimension horizontale concerne le champ d’activité etcomprend quatre grandes catégories : gérer des relations entreobjets, gérer des travaux de bureau, gérer des relations socialeset économiques, mettre en scène. La dimension horizontaleconcerne plutôt les intérêts et le type d’aptitude mis en oeuvre.On voit que l’orientation professionnelle doit tenir compte sur-tout de ces deux dimensions : aussi bien de l’intelligence gé-nérale comme prédicteur de la plus ou moins grande capacitéd’assumer un traitement de l’information complexe, que duprofil plus différencié des aptitudes et des intérêts (ici, on estdans les catégories classiques comme : aptitude concrète, ver-bale, spatiale, sociale, artistique, etc.).

Des études récentes ont d’ailleurs montré que les différencesentre l’efficacité dans les études supérieures et dans le travailne sont pas aussi grandes que souvent postulées par des criti-ques comme Sternberg (Sternberg et Wagner, 1993). Selon cesauteurs, les tâches de type académique seraient toujours formu-lées par d’autres, bien définies, n’auraient qu’une seule réponsecorrecte et seraient non reliées à la vie quotidienne. Ainsi, lestests d’intelligence, qui seraient du même type, prédiraientmieux la réussite académique que l’efficacité dans le travail.

Page 12: Comment évaluer les compétences clés dans le domaine professionnel ?

Tableau 2Carte des 13 groupements d’aptitudes professionnelles (Gottfredson, 1986) ; l’axe vertical indique la complexité cognitive croissante, l’axe horizontal donne lesdifférents champs d’activité et les intérêts

Gérer des relationsentre objets

Gérer des travauxde bureau

Gérer des relations socialeset économiques

Mettre en scène

P1 : analyser, concevoir et modifier dessystèmes physiques (chimistes,physiciens, ingénieurs)

S1 : analyser, planifier etgérer des systèmes sociaux(urbaniste, avocat, gérantd'hôpital)

P2 : manipuler et tester des systèmesphysiques (directeur d'usine,concepteur, technicien de labo)

B1 : gérer des règles debureau, tenir à jour desdossiers et réaliser destransactions (comptable,agent de police, caissier)

P3 : fabriquer ou inspecter des objetscomplexes : réparer, faire fonctionnerou assembler des équipements ou desvéhicules (menuisier, chauffeur decamion, inspecteur de ponts)

S2 : persuader, informer etaider des personnes(infirmier, représentant decommerce, reporter)

A1 : arts de la scène(chanteur, metteur en scène,animateur de spectacle)

A2 : arts visuels et spatials(concepteur de vêtements,professeur artistique,danseur)

B2 : traiter des informationsde routine (expéditeur,réceptionniste, coursier) S3 : servir et soigner des

personnes (stewardess,gardien de parc, aideinfirmier)

P4 : fabriquer, finaliser, assembler, trierou inspecter des objets simples (testeurde pneus, découpeur de verre, trieur devêtements)

B3 : réaliser desenregistrements de données(dactylo, livreur, caissier)

P5 : surveiller (machines, bâtiments,plantes, animaux) et assister(travailleurs, public) (trieur de laine,maçon, aide-boulanger)

R. Meyers, C. Houssemand / Revue européenne de psychologie appliquée 56 (2006) 123–138134

Mais ce genre de raisonnement n’est valide que pour une partiedes tâches. Il oublie les comportements complexes que les étu-diants doivent adopter avant qu’ils ne passent par exemple unexamen écrit. Certaines tâches, comme faire des présentationsorales ou rédiger des travaux écrits, sont peu définies et fontappel à des compétences complexes nécessitant d’obtenir desinformations complémentaires et de trouver des solutions créa-tives, non « fournies par le manuel ». Ce qui explique que lefacteur g peut prédire à la fois la réussite des études et la per-formance au travail (Gottfredson, 1997, 2003a ; Kuncel et al.,2004).

On peut également se pencher sur les pratiques effectivesdes entreprises au niveau salaires et gestion des compétences.Au niveau des rémunérations, une étude récente a comparé lessalaires perçus avec les aptitudes demandées à l’intérieur deplusieurs nomenclatures américaines des métiers et professions.L’analyse factorielle a montré que la plus grande partie de lavariance des revenus à l’intérieur d’une profession ou d’un mé-tier pouvait être attribuée à un facteur cognitif général, plutôtqu’à des aptitudes et compétences spécifiques (Rotundo et Sac-kett, 2004). En d’autres termes, la difficulté cognitive générale(qu’on peut relier au facteur g) explique mieux les différencesde salaire que des aptitudes ou capacités spécifiques. Ce résul-tat est congruent avec une étude britannique (Borghans et terWeel, 2004) qui a montré que les compétences informatiques(au sens de : savoir se servir d’un ordinateur) n’avaient statis-tiquement pas d’influence sur le salaire des employés, contrai-rement à la capacité de rédiger des textes ou de faire des ana-lyses mathématiques, aptitudes qui sont fortement saturées enfacteur g. Ces deux dernières compétences peuvent donc êtreconsidérées comme vraiment essentielles, tandis que les salai-res plus élevés des personnes sachant se servir d’un ordinateurne sont pas liés à cette aptitude. Finalement, une étude améri-caine a essayé de déterminer quelles sont les méthodes de sé-lection du personnel effectivement utilisées par les employeurs

en fonction des caractéristiques des emplois à occuper (Wilk etCappelli, 2003). Plus la tâche fait appel à des compétencesexigeantes et complexes, plus les employeurs ont recours àdes évaluations des aptitudes cognitives des candidats par lebiais des diplômes et des résultats aux tests d’aptitude.

Il y a d’ailleurs une large palette d’autres variables assezdiverses qui peuvent, de façon valide, être prédites par le fac-teur g. Ces variables dépassent largement le milieu scolaire ouprofessionnel et concernent tous les aspects de la vie quoti-dienne. Brody (1996, 1997) énumère dans ses deux revues dela question :

● la réussite des études ;

● le nombre d’années d’études qu’un individu terminera ;

● la situation professionnelle initiale ;

● les changements dans la situation professionnelle au coursde la vie ;

● la performance au travail ;

● l’acquisition de connaissances professionnelles au travail ;

● l’acquisition de connaissances non formelles ;

● la capacité de réaliser les tâches quotidiennes nécessairesdans la société ;

● l’acquisition de connaissances par les enfants.

Le facteur g est négativement corrélé avec la criminalité, lefait d’être dépendant de la sécurité sociale et d’être au chô-mage. Il est aussi positivement corrélé avec la créativité, lamotivation de réussite, le leadership et les compétences socia-les (Ree et Earles, 1993).

L’intelligence générale mesurée pendant l’enfance est éga-lement un bon prédicteur de la santé à l’âge adulte et de lalongévité (Gottfredson et Deary, 2004), même si on contrôleles variables socioéconomiques. Ce résultat étonnant peut, se-

Page 13: Comment évaluer les compétences clés dans le domaine professionnel ?

R. Meyers, C. Houssemand / Revue européenne de psychologie appliquée 56 (2006) 123–138 135

lon les auteurs, s’expliquer par le fait que l’intelligence amé-liore la capacité de l’individu à prendre soin de sa santé, carelle représente des aptitudes à l’apprentissage, au raisonnementet à la résolution de problèmes qui sont utiles pour prévenir desmaladies chroniques ou des accidents, mais aussi pour mettreen oeuvre des traitements souvent complexes.

Brody (1996) conclut qu’il n’y a pas d’autre caractéristiquepersonnelle mesurable autre que l’intelligence générale qui se-rait aussi largement prédictive d’un ensemble de réussites ju-gées importantes dans notre société.

10. Les combinaisons d’outils d’évaluation

Jusqu’à maintenant, nous n’avons considéré que des outilsd’évaluation pris un à un. Mais rien ne nous oblige à procéderde la sorte, car on peut combiner les outils. Mais la validitésupplémentaire pour chaque instrument ajouté (ce qu’on ap-pelle la validité incrémentielle) n’est pas toujours très élevée,il faut donc choisir avec soin les outils qu’on veut associerpour ne pas alourdir inutilement l’évaluation.

Partant du résultat déjà mis en évidence par méta-analyseque les épreuves d’intelligence générale (General mental abili-ty ou GMA) sont le meilleur prédicteur de la performance autravail (à la fois valide dans tous les secteurs d’activité et faci-lement utilisable), Schmidt et Hunter (1998) ont réalisé uneméta-analyse sur les études qui avaient combiné les résultatsde tests d’intelligence avec les résultats d’autres outils. Lesprincipales associations sont données au Tableau 3 : échantil-lon de travail, test d’intégrité (Ones et al., 1993), test de cons-cience, entretien structuré (Campion et al., 1997), entretien nonstructuré, test de connaissance du travail, période d’essai, éva-luation par des pairs, références, données biographiques, as-sessment center, test d’intérêt, graphologie.

La validité de base pour chaque méthode est donnée dans lapremière colonne, la validité de la combinaison d’un test d’in-telligence avec ce second outil est indiquée dans la deuxièmecolonne, la validité incrémentielle de cet outil par rapport autest d’intelligence seul est dans la troisième colonne. La mé-ta-analyse montre que les meilleures combinaisons sont dans

Tableau 3Validité de base et validité incrémentale par rapport aux tests d’intelligence de diff

Validité de base(r)

Validité(Multip

Test d'intelligence 0,51Échantillon de travail 0,54 0,63Test d'intégrité 0,41 0,65Test de conscience 0,31 0,60Entretien structuré 0,51 0,63Entretien non structuré 0,38 0,55Test de connaissance du travail 0,48 0,58Période d'essai 0,44 0,58Évaluation par des pairs 0,49 0,58Références 0,26 0,57Données biographiques 0,35 0,52Assessment center 0,37 0,53Test d'intérêt 0,10 0,52Graphologie 0,02 0,51

l’ordre : GMA plus interview structuré (validité moyenne :0,63), GMA plus essai sur le lieu de travail (validité moyenne :0,63), GMA plus test d’intégrité (validité moyenne : 0,65). Onvoit notamment que l’entretien non structuré, pourtant beau-coup utilisé dans la pratique, ne donne qu’une validité incré-mentielle très faible (0,04). Il en est de même pour l’assess-ment center (0,02).

Un test d’intégrité est un questionnaire utilisé par les entre-prises pour recruter les personnes susceptibles de présenter lemoins de comportements contre-productifs comme voler, sedroguer, se battre, abîmer le matériel, ne pas être consciencieuxau travail, etc. C’est la dimension « Conscience » du modèle depersonnalité des Big Five qui est surtout mesurée par ces ques-tionnaires. Ce genre d’instrument prédit effectivement cescomportements, mais prédit aussi la performance au travail(Ones et al., 1993). Ces outils donnent une bonne validité in-crémentielle, notamment parce qu’ils ont une corrélation nulleavec les tests d’intelligence, ils ajoutent donc quelque chose enplus dans l’évaluation.

On a d’ailleurs montré dans une autre méta-analyse (Barricket Mount, 1991) que la dimension « Conscience » du modèlede personnalité des Big Five, qui peut par exemple être évaluéepar le NEO PI-R de Costa et McCrae (Rolland, 2004), étaitelle-même un assez bon prédicteur de la performance au tra-vail, indépendamment du type de profession. Dans cette étude,la corrélation moyenne corrigée variait entre 0,20 et 0,23 pourles différentes professions considérées.

La combinaison GMA plus test d’intégrité (ou à défaut : testde conscience, peut-être plus adapté à la mentalité européenne)a donc non seulement la plus haute validité, mais c’est aussi enpratique la formule la plus facile à mettre en oeuvre et la moinscoûteuse.

Des études ont été réalisées pour déterminer si des tests decompétences spécifiques à une profession pouvaient donnerdes résultats complémentaires au-dessus de g dans la sélectiondu personnel. On a testé de telles compétences pour une sériede professions à l’armée américaine : la validité incrémentiellede ces mesures variait entre 0,00 et 0,08, ce qui est très peucomparé à la valeur prédictive de g (Ree et Carretta, 1998 ; Reeet al., 1994). Nous avons d’ailleurs vu au point 9 que c’était

érentes méthodes (Schmidt et Hunter, 1998)

totalele R)

Validité incrémentalepar rapport au test d'intelligence seul

0,120,140,090,120,040,070,070,070,060,010,020,010,00

Page 14: Comment évaluer les compétences clés dans le domaine professionnel ?

R. Meyers, C. Houssemand / Revue européenne de psychologie appliquée 56 (2006) 123–138136

également un facteur cognitif général, plutôt que des aptitudesspécifiques, qui expliquait les différences de salaire (Rotundoet Sackett, 2004).

Le programme de recherche initié par McClelland (1973) etexigeant qu’il fallait « tester les compétences plutôt que l’intel-ligence » a trouvé ainsi un double démenti par la recherche,après une série d’autres échecs du même type recensés par Bar-rett et Depinet (1991) et par Barrett (1994).

Une expérience a d’ailleurs été réalisée auprès d’un groupede managers expérimentés sur leurs critères de recrutement(Dunn et al., 1995) en leur donnant comme critères de choixles cinq facteurs de personnalité du Big Five (névrosisme, ex-traversion, ouverture à l’expérience, agréabilité, consciencieux)et l’intelligence générale (GMA). C’est la combinaison GMA+ Conscience qui est privilégiée pour l’employabilité d’un can-didat, quel que soit le type d’emploi considéré. Les managersen question en étaient donc arrivés à utiliser à partir de leurpropre expérience les critères dont la recherche a montré qu’ilssont les plus pertinents. En effet, ils ont, contrairement à laplupart des psychologues actifs dans le recrutement, un feed-back continu sur leurs choix de recrutement : ils sont obligésde travailler avec les personnes qu’ils engagent. Cette nécessitéde feedback sur les évaluations avait été montrée en détail parDawes (1994).

On peut encore noter que dans le cas des tests d’intelli-gence, d’intégrité, ou de « Conscience », il s’agit de tests pa-pier-crayon, qui peuvent être dépouillés sans intervention del’arbitraire du correcteur. Ces biais introduits par la subjectivitéde l’évaluateur ont d’ailleurs été bien étudiés, il s’agit surtoutdes stéréotypes, de l’effet de similitude (sympathie plus grandepour des personnes qui nous ressemblent), de l’effet de halo(les indices particulièrement saillants ou subjectivement impor-tants pour le recruteur prennent un poids démesuré dans l’éva-luation), le souci de cohérence dans le jugement (qui amène àgommer des facteurs non congruents avec l’impression d’en-semble), etc. (Dawes, 1994). Les épreuves papier-crayon, sanssupprimer complètement ces biais, les diminuent très forte-ment.

Des études ont d’ailleurs montré que la technique d’inter-view permettait encore un gain de validité incrémentielle subs-tantielle au-delà du couple test GMA + test de conscience, maisà la condition que l’interview soit structuré. L’interview nonstructuré n’apporte pas de gain de validité (Cortina et al.,2000).

En conclusion, les outils les plus simples, ayant le moins debiais subjectifs et les plus fréquemment utilisés dans d’autresdomaines sont donc les plus discriminants. L’utilisation de pro-cédures coûteuses et lourdes à mettre en oeuvre est donc à lafois inutile et moins efficace. La combinaison de plusieurs ou-tils est une voie de recherche prometteuse, elle permet de dé-terminer les associations à la fois simples d’utilisation et vali-des, mais sans qu’un certain seuil de prédiction ne puisse êtredépassé. Il restera toujours de l’impondérable, de l’aléatoire etdu subjectif dans l’évaluation des compétences et la prédictionde l’efficacité au travail. Tout n’est pas mesurable, mais on

peut mesurer une bonne partie et améliorer la prédiction encombinant des évaluations.

11. Conclusion

Nous avons d’abord tenté de cerner la réalité des compéten-ces clés. Elles s’inscrivent dans une hiérarchie des compéten-ces, sont générales aux situations professionnelles et transféra-bles d’une situation de travail à une autre.

Après avoir retracé les débats sur l’intelligence et le carac-tère incontournable que le facteur d’intelligence générale (fac-teur g) prend dans toutes les évaluations du fonctionnementcognitif, il ne paraît pas déraisonnable de postuler un lien fortentre ce facteur g et la capacité d’acquérir des compétencesclés. Aussi bien les compétences clés que l’intelligence géné-rale à laquelle elles sont associées prennent un poids croissantdans les tâches complexes des organisations de travail. Nousavons vu que, contrairement aux affirmations de certains au-teurs, l’évaluation de l’intelligence générale est un prédicteurtrès valide de la performance au travail et donc de la présencedes compétences clés chez les personnes. Nous avons vu éga-lement que cette évaluation, dans la mesure où elle touche lacompétence générale de traitement de l’information, est unmeilleur prédicteur que l’évaluation de compétences profes-sionnelles spécifiques (Ree et Carretta, 1998).

Mais l’évaluation des compétences clés ne peut bien enten-du se limiter à la mesure du facteur g, bien que celle-ci doit êtreun élément central de toute démarche d’orientation profession-nelle ou de sélection de personnel pour un poste ou une forma-tion (Gottfredson, 2003b, 1997 ; Hunter et Schmidt, 1996b ;Ree et Carretta, 1998 ; Salgado, 1999 ; Schmidt et Hunter,1998). D’autres dimensions doivent être prises également encompte dans un deuxième temps, comme par exemple une éva-luation des facteurs de groupe de Carroll (1993), ceux-ci per-mettant un profilage des compétences clés plus différencié(Gottfredson, 2003b). Ainsi, un architecte aura besoin d’aptitu-des spatiales développées, pour un traducteur, ce seront les ap-titudes verbales qui seront importantes, etc. Nous retrouverionsainsi les compétences transversales évoquées au point 2.

Ensuite, une évaluation des dimensions de personnalité seraégalement pertinente, surtout parce que la personnalité et lesintérêts sont peu corrélés avec l’intelligence générale et four-nissent donc des renseignements additionnels intéressants (Ac-kermann et Heggestadt, 1997 ; Gottfredson, 2003b). Commeon a vu, c’est surtout la dimension « Conscience » dans lemodèle des cinq facteurs qui prend une grande importance(Barrick et Mount, 1991 ; Dunn et al., 1995 ; Gottfredson,2003b ; Rolland, 2004 ; Schmidt et Hunter, 1998).

Par ailleurs, dans tous les cas de figure, tout n’est pas me-surable et évaluable, et une zone d’ombre et d’incertitude de-meurera sans doute toujours dans toute évaluation de ce type.

On a vu aussi que l’évaluation des compétences clés posaitaussi bien des questions d’efficacité de cette démarche (la va-lidité des diagnostics établis) et d’équité sociale. Pour réalisercette évaluation, on peut mobiliser les outils pour l’évaluation

Page 15: Comment évaluer les compétences clés dans le domaine professionnel ?

Bro

Bru

Bru

Ca

Ca

Ca

Ch

Co

Co

Da

De

Du

Eu

Ev

Ga

R. Meyers, C. Houssemand / Revue européenne de psychologie appliquée 56 (2006) 123–138 137

des compétences déjà connus. Nous avons vu que ces outils sedistinguent par quatre critères : la fréquence d’utilisation, lavalidité prédictive, la standardisation (et donc la facilité d’uti-lisation) et le coût. La fréquence d’utilisation n’est pas un cri-tère de qualité. En revanche, les outils qui ont une grande fa-cilité de passation et un coût raisonnable peuvent avoir unegrande validité.

Deux méthodes ont plus particulièrement été contrastées :les centres d’évaluation et les tests d’intelligence. Nous avonsmontré que les centres d’évaluation avaient un plus grand coûtet une valeur prédictive moindre. Les centres d’évaluation,dans la mesure où on ne sait pas ce qu’on mesure, sont un outilpeu efficace et peu équitable pour évaluer des compétencesclés. L’outil le plus facile d’utilisation et le plus valide seraitun outil composite, comprenant un test d’intelligence généraleassocié à un test d’intégrité ou un test de conscience.

Mais, évaluer les compétences clés pose un problème diffé-rent dans une situation de sélection du personnel et dans unesituation de développement des ressources humaines, et celavaut pour tous les outils qui existent actuellement. Toute mé-thode, aussi valide soit-elle, génère un pourcentage plus oumoins important de faux négatifs. Ce phénomène ne constituepas un grand problème dans la sélection du personnel, où ilsuffit de sélectionner autant de personnes aptes qu’il y a depostes à pourvoir. Dans une situation de développement descompétences, elle peut amener des injustices, car excluant despersonnes du bénéfice de ce qui leur est dû en fonction de leursaptitudes et compétences réelles.

Références

Ac

Au

Ba

Ba

Ba

Ba

Ba

Bo

Bro

Bro

Bro

Bro

Bro

Ga

Go

Go

Go

Go

Go

Go

Go

Go

Go

Gré

Gu

Ha

kermann, P.L., Heggestadt, E.D., 1997. Intelligence, personality, and inte-rests: evidence for overlapping traits. Psychological Bulletin 121, 219–245.bret, J., Gilbert, P., 2003. L’évaluation des compétences. Sprimont, Mar-daga.rrett, G.V., 1994. Empirical data say it all. American Psychologist 49, 69–71.rrett, G.V., Depinet, R.L., 1991. A reconsideration of testing for compe-tence rather than for intelligence. American Psychologist 46, 1012–1024.rrick, M.R., Mount, M.K., 1991. The Big Five personality dimensions andjob performance: a meta-analysis. Personnel Psychology 44, 1–26.ron, H., Janman, K., 1996. Fairness in the assessment centre. In: Cooper, C.L., Robertson, I.T. (Eds.), International Review of Industrial and Organiza-tional Psychology, Volume 11. Wiley et Sons Ltd, Chichester, pp. 61–113.r-On, R., Parker, J.D.A. (Eds.), 2000, The Handbook of Emotional Intelli-gence. Jossey Bass, San Francisco.rghans, L., ter Weel, B., 2004. Are computer skills the new basic skills?The returns to computer, writing and math skills in Britain. Labour Econo-mics 11, 85–98.dy, N., 1996. Intelligence and public policy. Psychology, Public Policy,and Law 2, 473–485.dy, N., 1997. Intelligence, schooling and society. American Psychologist52, 1046–1050.dy, N., 2003. Construct validation of the Sternberg Triarchic Abilities Test- Comment and reanalysis. Intelligence 31, 319–329.dy, N., 2004. Book review: Emotional Intelligence, Science and Myth.Intelligence 32, 109–111.gden, H.E., 1946. On the interpretation of the correlation coefficient as ameasure of predictive efficiency. Journal of Educational Psychology 37,65–76.

gden, H.E., 1949. When testing pays off. Personnel Psychology 2, 171–183.chon-Schweitzer, M.L., Ferrieux, D., 1991. Une enquête sur le recrutementen France. Revue Européenne de Psychologie Appliquée 41, 9–17.chon-Schweitzer, M.L., Lievens, S., 1991. Le recrutement en Europe -Recherches et pratiques. Psychologie et Psychométrie 12, 7–71.mpbell, D.J., 1988. Task complexity: a review and analysis. Academy ofManagement Review 13, 40–52.mpion, M.A., Palmer, D.K., Campion, J.E., 1997. A review of structure inthe selection interviews. Personnel Psychology 50, 655–701.rroll, J.B., 1993. Human cognitive abilities. Cambridge University Press,Cambridge.erniss, C., 2000. Emotional Intelligence: What it is and why it matters.Paper presented at the Annual Meeting of the Society for Industrial andOrganizational Psychology, New Orleans (2000).llins, J.M., Schmidt, F.L., Sanchez-Ku, M., Thomas, L., McDaniel, M.A.,Le, H., 2003. Can basic individual differences shed light on the constructmeaning of assessment center evaluations? International Journal of Selec-tion and Assessment 11, 17–29.rtina, J.M., Goldstein, N.B., Payne, S.C., Davison, H.K., Gilliland, S.W.,2000. The incremental validity of interview scores over and above cogni-tive ability and conscientiousness scores. Personnel Psychology 53, 325–351.wes, R.M., 1994. House of cards – Psychology and psychotherapy built onmyth. Free Press, New York.prez, A., 2002. Compétences et qualifications — Mise en perspective etpositions d’acteurs. Ministère de la Région wallonne, Namur (Discussionpaper n° 208, service des études et de la statistique).nn, W.S., Mount, M.K., Barrick, M.R., Ones, D.S., 1995. Relative impor-tance of personality and general mental ability in managers’ judgements ofappliquant qualifications. Journal of Applied Psychology 80, 500–509.rydice, 2002. Compétences clés — Un concept en développement dansl’enseignement général obligatoire. Unité européenne Eurydice, Bruxelles.équoz, G., 2004. Les compétences clés — Pour accroître l’efficacité et l’em-ployabilité de chacun. Éditions Liaisons, Paris.rdner, H., 1983. Frames of Mind: the theory of multiple intelligences.Basic., New York.ugler, B.B., Rosenthal, D.B., Thornton, G.C., Bentson, C., 1987. Meta-ana-lysis of assessment center validity. Journal of Applied Psychology 72,493–511.leman, D., 1995. Emotional Intelligence — Why it can matter more thanIQ. Bantam, New York.leman, D. (1998a). What makes a leader? Harvard Business Review, Nov./Dec.leman, D., 1998b. Working with emotional intelligence. Bantam, NewYork.rdon, R.A., 1997. Everyday life as an intelligence test: Effects of intelli-gence and intelligence context. Intelligence 24, 203–320.ttfredson, L.S., 1986. Occupational aptitude patterns map: development andimplications for a theory of job aptitude requirements. Journal of Vocatio-nal Behavior 29, 254–291.ttfredson, L.S., 1997. Why g matters: The complexity of everyday life.Intelligence 24, 79–132.ttfredson, L.S., 2003a. Dissecting practical intelligence theory: Its claimsand evidence. Intelligence 31, 343–397.ttfredson, L.S., 2003b. The challenge and promise of cognitive careerassessment. Journal of Career Assessment 11, 115–135.ttfredson, L.S., Deary, I.J., 2004. Intelligence predicts health and longevity,but why? Current Directions in Psychological Science 13, 1–4.goire, J., 2004. L’examen clinique de l’intelligence de l’adulte. Sprimont,Mardaga.ilford, J.P., 1959. Three faces of intellect. American Psychologist 14, 469–479.rvey, R.J., 1991. Job Analysis. In: Dunnette, M.D., Hough, L.M. (Eds.),Handbook of industrial and organizational psychology, Vol. 2. ConsultingPsychologists Press, Palo Alto, pp. 71–163.

Page 16: Comment évaluer les compétences clés dans le domaine professionnel ?

Hu

Hu

Hu

Jan

Joh

Kle

Ku

Law

Lep

Ma

Ma

Ma

Mc

Mc

Mc

OC

OC

On

OO

Ra

Re

Re

Re

Ro

Ro

Ro

Ro

Ro

Ry

Ry

Sac

Sal

Sal

Sal

Sch

Sch

Sch

Sch

Sch

Sp

Ste

Ste

Tay

Th

Wi

Wo

Zar

Zei

R. Meyers, C. Houssemand / Revue européenne de psychologie appliquée 56 (2006) 123–138138

nter, J.E., Hunter, R.F., 1984. Validity and utility of alternate predictors ofjob performance. Psychological Bulletin 96, 72–98.nter, J.E., Schmidt, F.L., 1996a. Cumulative research knowledge and socialpolicy formulation: The critical role of meta-analysis. Psychology, PublicPolicy, and Law 2, 324–347.nter, J.E., Schmidt, F.L., 1996b. Intelligence and job performance: econo-mic and social implications. Psychology, Public Policy, and Law 2, 447–472.g, K.L., McCrae, R.R., Angleitner, A., Rieman, R., Livesley, W.J., 1998.Heritability of facet-level traits in a cross-cultural twin sample: Support fora hierarchical model of personality. Journal of Personality and Social Psy-chology 74, 1556–1565.nson, W., Bouchard Jr., T.J., Krueger, R.F., McGue, M., Gottesman, I.I.,2004. Just one g: consistent results from three test batteries. Intelligence32, 95–107.inmann, M., 1998. Assessment Center. In: Kleinmann, M., Strauss, B.(Eds.), Potentialfeststellung und Personalentwicklung. Hogrefe, Göttingen.ncel, N.R., Hezlett, S.A., Ones, D.S., 2004. Academic performance, careerpotential, creativity, and job performance: can one construct predict themall? Journal of Personality and Social Psychology 86, 148–161.ler, E.L., 1994. From job-based to competency-based organizations. Jour-nal of Organizational Behavior 15, 3–15.lat, J., 1997. Regards sur l’activité en situation de travail — Contribution àla psychologie ergonomique. PUF, Paris.rtin, R., Houssemand, C., (2003). Un système éducatif plurilingue peut-ilêtre efficace ? Communication présentée au 16e colloque international del’ADMEE-Europe, Liège, 4–6 septembre 2003.tthews, G., Zeidner, M., Roberts, R.D., 2004. Emotional Intelligence,Science and Myth. MIT Press, Cambridge, MA.yer, J.D., Salovey, P., Caruso, D.R., Sitarenios, G., 2003. Measuring emo-tional intelligence with the MSCEIT V2.0. Emotion 3, 97–105.Clelland, D.C., 1973. Testing for competence rather than for "intelligence.American Psychologist 28, 1–14.Cormick, E.J., 1976. Job and Task Analysis. In: Dunette, M.D. (Ed.),Handbook of industrial and organizational psychology. Rand McNallyCollege Pub. Co, Chicago, pp. 651–696.Crae, R.R., Costa Jr, P.T., 1997. Personality trait structure as a human uni-versal. American Psychologist 52, 509–516.DE, 2001. Connaissances et compétences, des atouts pour la vie — Pre-miers résultats du Programme international de l’OCDE pour le suivi desacquis des élèves (PISA) 2000. Éditions de l’OCDE, Paris.DE, 2002. Définition et sélection des compétences (DESECO) : Fonde-ments théoriques et conceptuels — Document de stratégie. Office fédéralde la statistique de Suisse, Neuchâtel.es, D.S., Viswesvaran, C., Schmidt, F.L., 1993. Comprehensive meta-ana-lysis of integrity test validities: findings and implications for personnelselection and theories of job performance. Journal of Applied Psychology78, 679–703.FP, 2003. Compétences-clés - Un dispositif d’évaluation et de reconnais-sance des compétences-clés. Office d’orientation et de formation profes-sionnelle, Genève.inis, N., Desrumaux-Zagrodnicki, P., 2003. L’influence de la norme d’inter-nalité, de la graphologie et des compétences du candidat sur les procéduresde recrutement: évaluation factuelle ou utilité sociale ? Revue Européennede Psychologie Appliquée 53, 43–56.e, M.J., Carretta, T.R., 1998. General cognitive ability and occupationalperformance. In: Cooper, C.L., Robertson, I.T. (Eds.), InternationalReview of Industrial and Organizational Psychology, Volume 13. Wileyet Sons Ltd, Chichester, pp. 159–184.e, M.J., Earles, J.A., 1993. g is to psychology what carbon is to chemistry:a reply to Sternberg and Wagner, McClelland, and Calfee. Current Direc-tions in Psychological Science 2, 11–12.e, M.J., Earles, J.A., Teachout, M.S., 1994. Predicting job performance: notmuch more than g. Journal of Applied Psychology 79, 518–524.berts, R.D., Zeidner, M., Matthews, G., 2001. Does emotional intelligencemeet traditional standards for an intelligence? Some new data and conclu-sions. Emotion 1, 196–231.

bertson, I.T., Smith, M., 2001. Personnel selection. Journal of Occupationaland Organizational Psychology 74, 441–472.

lland, J.-P., 2004. L’évaluation de la personnalité — Le modèle en cinqfacteurs. Sprimont, Mardaga.

me, 1999. Répertoire opérationnel des métiers et des emplois (4 volumes)— Agence nationale pour l’emploi (ANPE). La Documentation française,Paris.

tundo, M., Sackett, P.R., 2004. Specific versus general skills and abilities:A job level examiation of relationships with wage. Journal of Occupationaland Organizational Psychology. 77, 127–148.

chen, D.S., Salganik, L.H. (Eds.), 2001, Defining and Selecting Key Com-petencies. Hogrefe et Huber, Göttingen.

chen, D.S., Salganik, L.H. (Eds.), 2003, Key Competencies for a SuccessfulLife and a Well-Functioning Society. Hogrefe et Huber, Göttingen.

kett, P.R., Dreher, G.F., 1982. Constructs and assessment center dimen-sions: some troubling empirical findings. Journal of Applied Psychology67, 401–410.

gado, J.F., 1999. Personnel selection methods. In: Cooper, C.L., Robertson,I.T. (Eds.), International Review of Industrial and Organizational Psycho-logy, Volume 14. Wiley et Sons Ltd, Chichester, pp. 1–54.

gado, J.F., Anderson, N., Moscoso, S., Bertua, C., de Fruyt, F., Rolland, J.-P., 2003. A meta-analytic study of general mental ability validity for diffe-rent occupations in the European Community. Journal of Applied Psycho-logy 88, 1068–1081.

thouse, T.A., Atkinson, T.M., Berish, D.E., 2003. Executive functioning asa potential mediator of age-related cognitive decline in normal adults. Jour-nal of Experimental Psychology: General 132, 566–594.

midt, F.L., Hunter, J., 1993. Tacit knowledge, practical intelligence, gene-ral mental ability, and job knowledge. Current Directions in PsychologicalScience 2, 8–9.

midt, F.L., Hunter, J.E., 1998. The validity and utility of selection methodsin personnel psychology: practical and theoretical implications of 85 yearsof research findings. Psychological Bulletin 124, 262–274.

midt, F.L., Hunter, J., Pearlman, K., 1981. Task differences as moderatorsof aptitude test validity in selection: a red herring. Journal of Applied Psy-chology 66, 166–185.

ippmann, J.S., Ash, R.A., Battista, M., Carr, L., Eyde, L.D., Hesketh, B.L.,Kehoe, J., Pearlman, K., Prien, E.P., Sanchez, J.I., 2000. The practice ofcompetency modeling. Personnel Psychology 53, 703–740.

roeder, D.H., Salthouse, T.A., 2004. Age-related effects on cognition bet-ween 20 and 50 years of age. Personality and Individual Differences 36,393–404.

earman, C., 1904. General intelligence", objectively determined and measu-red. American Journal of Psychology 15, 201–293.

rnberg, R.J., 2003. A broad view of intelligence — The theory of success-ful intelligence. Consulting Psychology Journal: Practice and Research 55,139–154.

rnberg, R.J., Wagner, R.K., 1993. The g-ocentric view of intelligence andjob performance is wrong. Current Directions in Psychological Science 2,1–5.

lor, R.F., Russell, J.T., 1939. The relationship of validity coefficients tothe practical effectiveness of tests in selection: Tables and discussion. Jour-nal of Applied Psychology 23, 565–578.

urstone, L.L., 1938. Primary mental abilities. University of Chicago Press.,Chicago.

lk, S.L., Cappelli, P., 2003. Understanding the determinants of employeruse of selection methods. Personnel Psychology 56, 103–124.

od, J.M., Nezworski, M.T., Lilienfeld, S.O., Garb, H.N., 2003. What’swrong with the Rorschach?. Jossey-Bass, San Francisco.

ifian, P., 2000. Objectif compétence – Pour une nouvelle logique. ÉditionsLiaisons, Paris.

dner, M., Matthews, G., Roberts, R.D., 2001. Slow down, you move toofast: emotional intelligence remains an "elusive" intelligence. Emotion 1,265–275.