6
Le Praticien en anesthésie réanimation (2008) 12, 212—217 Disponible en ligne sur www.sciencedirect.com VIE PROFESSIONNELLE Les examens cliniques par objectifs structurés Objective structured clinical examinations Catherine Bertrand a,,1 , Brian Hodges b , Christophe Segouin c , Remi Gagnayre d , Christine Ammirati e , Jean Marty f , Jean-Pierre Farcet g a Cesu — Samu, 94, hôpital Henri-Mondor, Assistance publique—Hôpitaux de Paris, université Paris-XII, 94000 Créteil, France b « Wilson Centre for Research in Education » UFR de Médecine, université de Toronto, Toronto, Canada c Service de santé publique et économie de la santé, groupe hospitalier Lariboisière—Fernand-Widal, Assistance publique—Hôpitaux de Paris, UFR de médecine Lariboisière—Saint-Louis, université Denis-Diderot—Paris-7, Paris, France d Laboratoire de pédagogie de la santé, UPRES EA 3412, université Paris-13, Paris, France e Pôle Samu—Smur urgences—Cesu, hôpital d’Amiens, UFR de médecine d’Amiens, université de Picardie, Amiens, France f Pôle anesthésie-réanimation, Smur, URF de médecine de Créteil, hôpital Henri-Mondor, Assistance publique—Hôpitaux de Paris, université Paris-XII, Créteil, France g UFR de médecine de Créteil, université Paris-XII, Créteil, France Disponible sur Internet le 11 juin 2008 MOTS CLÉS Ecos ; OSCE ; Formation ; Enseignement ; Évaluation ; Compétence ; Patient standardisé Introduction Le système d’évaluation des compétences cliniques a été profondément modifié depuis une trentaine d’années au profit de techniques plus proches de la pratique [1]. Ces techniques comprennent des procédures décrites sous le terme anglais : objective structured clinical examination (OSCE) ou franc ¸ais : « examen clinique par objectifs structures » (Ecos). Ces procédures visent à augmenter la validité et la fiabilité de l’évaluation clinique, comparées aux examens conventionnels écrits et aux examens oraux. Les OSCE s’inscrivent dans un processus d’évaluation de la formation dans le continuum du curriculum et dans un processus d’évaluation sommative, certificative : fin de module, classement, licence. Cet outil d’évaluation fait partie intégrante des méthodes de certification au Canada et vient d’être adopté pour l’examen de licence aux États-Unis. Il est complémentaire d’autres Auteur correspondant. Adresse e-mail : [email protected] (C. Bertrand). 1 Photo. 1279-7960/$ — see front matter © 2008 Elsevier Masson SAS. Tous droits réservés. doi:10.1016/j.pratan.2008.04.005

Les examens cliniques par objectifs structurés

Embed Size (px)

Citation preview

Page 1: Les examens cliniques par objectifs structurés

L

V

L

O

1d

e Praticien en anesthésie réanimation (2008) 12, 212—217

Disponib le en l igne sur www.sc iencedi rec t .com

IE PROFESSIONNELLE

es examens cliniques par objectifs structurés

bjective structured clinical examinations

Catherine Bertranda,∗,1, Brian Hodgesb,Christophe Segouinc, Remi Gagnayred,Christine Ammirati e, Jean Marty f,Jean-Pierre Farcetg

a Cesu — Samu, 94, hôpital Henri-Mondor, Assistance publique—Hôpitaux de Paris,université Paris-XII, 94000 Créteil, Franceb « Wilson Centre for Research in Education » UFR de Médecine, université de Toronto,Toronto, Canadac Service de santé publique et économie de la santé, groupe hospitalierLariboisière—Fernand-Widal, Assistance publique—Hôpitaux de Paris, UFR de médecineLariboisière—Saint-Louis, université Denis-Diderot—Paris-7, Paris, Franced Laboratoire de pédagogie de la santé, UPRES EA 3412, université Paris-13, Paris, Francee Pôle Samu—Smur urgences—Cesu, hôpital d’Amiens, UFR de médecine d’Amiens,université de Picardie, Amiens, Francef Pôle anesthésie-réanimation, Smur, URF de médecine de Créteil, hôpital Henri-Mondor,Assistance publique—Hôpitaux de Paris, université Paris-XII, Créteil, Franceg UFR de médecine de Créteil, université Paris-XII, Créteil, France

Disponible sur Internet le 11 juin 2008

MOTS CLÉSEcos ;OSCE ;Formation ;Enseignement ;Évaluation ;Compétence ;

Introduction

Le système d’évaluation des compétences cliniques a été profondément modifié depuis unetrentaine d’années au profit de techniques plus proches de la pratique [1]. Ces techniquescomprennent des procédures décrites sous le terme anglais : objective structured clinicalexamination (OSCE) ou francais : « examen clinique par objectifs structures » (Ecos).

Ces procédures visent à augmenter la validité et la fiabilité de l’évaluation clinique,

Patient standardisécomparées aux examens conventionnels écrits et aux examens oraux. Les OSCE s’inscriventdans un processus d’évaluation de la formation dans le continuum du curriculum et dans unprocessus d’évaluation sommative, certificative : fin de module, classement, licence. Cetoutil d’évaluation fait partie intégrante des méthodes de certification au Canada et vientd’être adopté pour l’examen de licence aux États-Unis. Il est complémentaire d’autres

∗ Auteur correspondant.Adresse e-mail : [email protected] (C. Bertrand).

1 Photo.

279-7960/$ — see front matter © 2008 Elsevier Masson SAS. Tous droits réservés.oi:10.1016/j.pratan.2008.04.005

Page 2: Les examens cliniques par objectifs structurés

Les examens cliniques par objectifs structurés 213

KEYWORDSEcos;OSCE;Training;Teaching;Evaluation;

udslndpl

llddalrljve

L

L

Lu

dcdcsdpl

Ld

Competence;Standardized patients

Points importants• Les examens cliniques par objectifs structurés

(OSCE), ont pris une place importante dans lesprocédures d’évaluation formative et certificativedes médecins en Amérique du Nord.

• Les OSCE mettent en valeur l’enseignement de laclinique; les institutions se mobilisent pour fixer defacon consensuelle les compétences attendues etstandardiser la procédure.

• La performance clinique de l’étudiant est observéeau cours de stations séquentielles de duréeprédéterminée.

• La présence du patient standardisé offre unequalité d’interaction qui permet de développer desscénarios intégrant des valeurs telles qu’humanisme,éthique, déontologie.

• Les enregistrements vidéo et l’enseignement àdistance sont des voies de développement.

• Ces avantages compensent le coût non négligeablede la procédure.

modalités d’évaluation et tend à évaluer les compétencesattendues d’un bon médecin. Notre objectif vise à clarifierle concept et à identifier la valeur de cet instrument dontl’impact est encore très faible dans le curriculum en France.

Principe de l’examen

La première description de la procédure est due à Harden[2,3]. Le principe consiste à découper chaque compétenceclinique en tâches facilement évaluables dans un poste,indépendamment de l’ordre de passage. L’OSCE classiquecomporte une vingtaine de postes d’une même durée (4 à5 minutes). Toutes les cinq minutes, une sonnerie retentitet les étudiants ont 30 s pour changer. Il y a deux typesde postes, selon qu’il s’agit d’exécuter des tâches ou derépondre à des questions. La note globale est substituéepar un score, construit à partir d’une check-list d’actionsséparées ou d’échelles globales. Les examinateurs sesont mis d’accord au préalable sur ce qu’ils attendent del’étudiant. Si le candidat a documenté le maximum d’items,il a un bon score. Le total des notes peut être assorti d’unepondération.

L’OSCE peut couvrir une seule spécialité ou être trans-versal. L’examen se situe à différents moments des études.Il détermine si l’étudiant a les bases cliniques souhaitéespour passer à un cours supérieur ou des insuffisances dans

Llmp

n domaine particulier. Il peut être la seule modalité’examen ou être associé à un cas clinique. Les tâchesélectionnées se rapportent à l’histoire de la maladie,’examen physique, l’interprétation des examens paracli-iques. D’autres compétences peuvent être testées dans leomaine de l’éducation du patient, de la communicationatient malade. L’évaluation porte sur les connaissances,es habiletés techniques et le comportement.

La planification de l’examen se fait deux à six mois à’avance et comprend le choix des items, leur pondération,a décision sur le score minimal de passage, l’informationes personnes impliquées, la sélection et la préparationes patients, la documentation pour les examinateurs. Lesuteurs retiennent l’implication nécessaire des membres dea faculté pour s’entendre sur les objectifs éducationnels,endre explicites les performances attendues, couvrir’étendue des thématiques, tout en définissant cellesugées prioritaires. La veille de l’examen, les scores sontalidés sur un groupe test. Après l’examen, un feedbackst donné aux enseignants et aux étudiants [4].

es bases conceptuelles

’importance d’enseigner la clinique

a pratique médicale consiste à établir une relation avecn patient, tant au plan cognitif qu’au plan physique.

La performance implique plusieurs niveaux :la connaissance, le savoir comment faire, le

montrer comment, et le faire.

Jusqu’alors, le candidat était observé sur le terrain’apprentissage, ce qui est insuffisant [5]. Un enseignementlinique insuffisant a des implications socioéconomiquesélétères [6,7]. Observer des étudiants relevant l’histoirelinique du patient apporte des informations spécifiquesur leurs compétences par rapport aux autres formats’examens tels que les cas cliniques [8]. La mise enlace de tests sous forme d’Ecos donne de l’importance à’enseignement de la clinique.

’Ecos, facteur d’équité dans la certificationes médecins

’enjeu sociétal que constitue l’octroi du permis d’exercera médecine est majeur et s’inscrit dans un contexte deondialisation. Un des avantages des Ecos est de pouvoirroposer ce type d’examen à un grand nombre d’étudiants

Page 3: Les examens cliniques par objectifs structurés

2

dsep

Ls

dàdpvddaLcdpuesapcÉfss

L

Lbpd[dàbLlm

L

LséFpp

L

LlpsdtLd

VLdcép

VDdptLqtefl

VUmmémfdlv[ddls

VIEc[oc

14

ans un temps limité et de délocaliser l’examen [9]. Lescores obtenus selon les cas cliniques ne différent pas,n effet, d’une année à l’autre, ni d’un centre à l’autre,réservant l’équité entre les étudiants [10].

’objectivité apportée par le patienttandardisé

La technique du patient standardisé a étébien décrite : il s’agit d’une personne volontaire,

entraînée, qui joue le rôle du patient selon unscénario préétabli [11].

La première conférence de consensus sur le patient stan-ardisé a lieu en 1993 [12]. Le patient standardisé est formédes fins d’enseignement et d’évaluation. La combinaison

e multiples scénarios et la standardisation du contenuermettent d’avoir un instrument d’évaluation fiable etalide [13,14]. Le patient est testé avec un étudiant lors’une simulation. Le test est enregistré et revu par l’auteuru cas clinique. Quatre-vingt-quinze pour cent des facultésméricaines utilisent ce modèle du patient standardisé [15].e patient peut répéter de facon identique un même caslinique plusieurs années de suite, permettant de compareres cohortes d’étudiants. Le patient standardisé, qui n’étaitas intégré aux premiers Ecos, a été par la suite largementtilisé. Des patients réels ou des étudiants sont parfoisux-mêmes sollicités [16,17]. Cependant, les étudiantsurévaluent leurs collègues. Le patient standardisé peutvoir un rôle actif dans la notation du candidat, notammentour documenter des échelles de comportement avec uneertaine fiabilité [18]. Les rôles peuvent être inversés ! Auxtats-Unis, des Ecos sont organisés pour des tuteurs qui sontace à des étudiants standardisés [19]. L’évaluation porteur la facon dont le tuteur donne un feedback à l’étudiantur sa prestation [20].

a valeur du feedback

a satisfaction relevée par l’ensemble des facultés est attri-uée au feedback d’une minute environ donné après chaqueassage par un poste d’examen [21,22]. La valeur éducativeu feedback immédiat a été très tôt mise en évidence23,24]. Le feedback permet de corriger des omissions oues fautes, mais pas des erreurs qui révèlent de l’incapacitéreconnaître ou interpréter un signe clinique [25]. Le feed-ack donné aux étudiants ne modifie pas les scores [26].e feedback met en valeur les points forts et faibles de’enseignement à partir des performances des étudiants,ais il peut nuire à la confidentialité de l’épreuve [27,28].

’évaluation psychométrique de l’outil

es Ecos sont objectifs, car ils reposent sur une check-listtandardisée. Ils sont structurés, car chaque étudiant estvalué sur les mêmes cas cliniques et les mêmes tâches.riedman parle de meilleure évaluation basée sur lesreuves (Beba) par similitude à la médecine basée sur lesreuves [29].

L

Lvnp

C. Bertrand et al.

a validité

a validité représente le degré de précision avec lequel’instrument mesure ce qu’il a pour objet de mesurer et laossibilité qu’auront les examinateurs de pouvoir générali-er à partir de ce qu’ils ont vu. Dans un Ecos, le consensuses professionnels sur ce qui est nécessaire et utile deester et sur le résultat attendu, est obtenu au préalable.es enseignants décident aussi du degré de complexité ete la progression à laquelle l’étudiant doit faire face.

alidité du contenua validité du contenu est testée en demandant l’avises enseignants sur l’importance qu’ils accordent auxas cliniques et la pertinence de la tâche demandée auxtudiants. Le consensus individuel et collectif s’obtientlus facilement pour les items importants [30].

alidité concourantees études comparent les résultats obtenus avec les Ecos àes formats d’examens faisant référence [31,32]. Une étudeilote conduite en 2003 aux États-Unis compare l’examenraditionnel avec un cas clinique et un examen de type Ecos.’étude s’est poursuivie l’année suivante sous forme deuestionnaires documentés par les étudiants et les consul-ants pendant leur pratique professionnelle. La corrélationntre les résultats obtenus aux deux types d’examen étaitaible, mais l’Ecos avait une bonne valeur prévisionnelle sures performances attendues de la part des candidats [33].

alidité de construitne abondante littérature montre le pouvoir de discri-ination de l’outil. Les plus expérimentés obtiennent deeilleurs scores [34]. La validité de construit des Ecos a

té ainsi démontrée pour des gestes de petite chirurgie,ieux réussis par des chirurgiens que par des médecins de

amille [35]. À l’université de Californie, la comparaisones évaluations de huit cohortes d’étudiants a conclu quea validité de contenu des Ecos était bonne, mais que laalidité de construit demandait à être mieux documentée36]. En comparant les performances de plusieurs groupes’étudiants à distance différente de leur formation, uneifférence peut être observée permettant de conclure sura nécessité d’avoir un programme de formation continue,ous peine de perte de performance des étudiants [37].

aleur prédictivel a été montré que les étudiants qui ne réussissaient pas lescos n’avaient pas de bons résultats ultérieurement [38]. Laombinaison des examens a une meilleure valeur prédictive39]. Une corrélation a été établie entre les scores élevésbtenus au moment de la licence et les performancesliniques des médecins au moment de leur pratique [40,41].

a fiabilité

e format de l’examen et sa standardisation limitent laariabilité interexaminateurs. La fiabilité impose un grandombre d’items et une douzaine de postes dévaluation, siossible, de durée équivalente [42]. Augmenter le nombre

Page 4: Les examens cliniques par objectifs structurés

fpduLd

sceu

tceEl

L

LspcLêdd

Lebeipnecmcq

t[dd[àiudddds

Les examens cliniques par objectifs structurés

de correcteurs qui décident des items augmente la fiabilitéde l’Ecos [43]. La fiabilité dépend essentiellement dunombre d’items contenus dans le test et de la durée du test[44,45].

La fiabilité est liée à l’homogénéité, à la difficulté, àla discrimination des items [46]. Les Ecos permettent unediscrimination entre les groupes [47]. La comparaison entreles examens de type Ecos et l’examen final d’étudiantsen chirurgie révèle que les meilleurs étudiants et les plusfaibles sont identiques dans les deux cas [48].

La commodité

Différentes modalités d’organisation sont décrites. Lessessions sont organisées en parallèle avec un examen écrit[49,50]. Les Ecos se font à distance en utilisant des enre-gistrements vidéo [51]. Ce type d’examen appelé objectivestructured video examinatio (OSVE) a l’avantage de réunirun grand nombre d’étudiants en amphithéâtre. En Oregon,des Ecos sont organisés avec des groupes d’étudiants pouren diminuer le coût [52]. Il existe des Ecos sur des thèmesd’accident, les étudiants jouent le rôle des blessés, le scorede passage est fonction de la survie du patient [53].

L’expérience nord-américaine

Le Canada utilise les Ecos pour la seconde partie de l’examennational conduisant à la licence depuis 1992, représentantun collectif de 14 000 candidats, tandis que le collège demédecine de famille du Québec a une expérience de plusde 17 000 candidats. L’examen du permis en médecine defamille au Québec a été mis en place en 1990 par Ecos dis-pensés dans quatre centres d’examens. Cinquante pour centdu score est réservé à l’histoire de la maladie et l’examenphysique, 40 % aux examens complémentaires, diagnosticet traitement et 10 % à la communication [54—56].

Le projet pilote canadien a montré la faisabilité d’unexamen en francais et en anglais dans plusieurs sites àla fois. Quatre mille personnes sont impliquées dans 14centres pour mettre en place un Ecos national. Les Ecossont utilisés pour d’autres professions paramédicales.

Aux États-Unis, Whelan rapporte l’expérience du comitéde liaison pour l’éducation médicale qui accrédite lesmédecins étrangers désirant rentrer dans le cursus améri-cain [57] L’expérience ayant été jugée positive, le Bureaunational des examens médicaux a décidé d’étendre la pro-cédure aux examens de licence aux États-Unis. Le comité deliaison attire l’attention à la fois sur la nécessité d’avoir unebanque de cas suffisante pour que la confidentialité soit pré-servée, mais aussi sur la nécessité d’une cohérence globalepour que ces cas ne s’éloignent pas des objectifs visés [58].

Quelle valeur pédagogique ?

Les Ecos modifient nos représentations de l’examen repo-

sant sur une épreuve écrite ou orale. L’outil est basésur l’observation de tâches cliniques et, de ce fait, metl’accent sur l’enseignement de la clinique. Le coût sociétald’erreurs dues aux examens cliniques mal conduits ou nonfaits a, en effet, clairement été établi.

pddul

215

Les Ecos sont des outils intéressants pour les évaluationsormatives. Le format de l’examen n’exige pas les critèressychométriques d’une évaluation certificative. Les étu-iants sont acquis à ce mode d’évaluation, car ils recoiventn feedback immédiat qui a une valeur dans l’apprentissage.es erreurs sont corrigées. L’étudiant sait où il en est et aes possibilités de garantir la solidité de ses acquis.

L’étudiant mobilise dans l’action un certain nombre deavoirs combinés. Il intègre la gestion de l’émotion à sesonnaissances. Un étudiant sait sur quoi il va être évaluét apprend aussi à « donner une mauvaise nouvelle, obtenirn consentement ».

Harden divise le continuum de formation médicale enrois cercles : ce que le médecin est capable de faire,omment le médecin s’approprie sa pratique, le médecinn tant que professionnel dans le système de santé. Lescos ont une place dans le troisième cercle qui sous-tenda relation professionnelle médecin—patient.

es limites de l’outil

es Ecos ont été largement critiqués, car jugés restrictifs,implistes et non discriminants. Observer une tâche ne suffitas pour parler de performance, encore faut-il intégreret examen dans une gestion plus globale du patient.’interaction avec le patient standardisé dans un Ecos doittre complétée par le résultat de l’interaction sous forme’une prescription, d’une décision qui doit coller au niveau’études.

Le coût est élevé même si les estimations diffèrent.a préparation demande du temps car l’effort principalst fourni avant l’examen. Il est conseillé de faire uneanque de données pour diminuer le temps de préparationt augmenter la confidentialité. L’ordre des rotationsntroduit des biais dans les résultats si les scénarios ne sontas choisis de facon suffisamment large. Il faut un certainombre d’items et une constance dans la notation desxaminateurs pour satisfaire les besoins statistiques psy-hométriques de fiabilité, alors que Martin, à Cambridge,ontre la difficulté pour un examinateur de coder plusieurs

omportements dans un temps déterminé, d’autant plusue le nombre d’items dépasse 12.

Les examinateurs et les patients sont fortement sollici-és. La répétition des tâches peut être lassante ou stressante59,60]. Carpenter souligne la fatigue des patients standar-isés qui répètent 25 fois le même scénario [61]. Le temps’examen est très limité, facteur de stress pour le candidat62,63]. Rutala met en avant la perte de performance duela fatigue des étudiants [64] Le format de l’examen peut

nfluencer l’étudiant et sa facon d’apprendre, induisantne performance théâtrale des patients aussi bien quees candidats [65]. Les check-lists ne permettent pas’apprécier l’organisation des connaissances et la capacitéu candidat à faire un diagnostic en utilisant moins deonnées. Cela explique que des novices aient de meilleurscores que des experts aux check-lists sans augmenter la

ertinence de leur diagnostic. Les check-lists évaluentes connaissances factuelles spécifiques du contenu et duomaine exploré, tandis que les scores globaux évaluentne performance globale qui sert de marqueurs pour suivre’évolution de l’étudiant dans son cursus [66].
Page 5: Les examens cliniques par objectifs structurés

2

C

Légtdep(ndddEm

lasel

nnpLdvd

R

[

[

[

[

[

[

[

[

[

[

[

[

[

[

[

[

[

[

[

[

16

onclusion

es qualités psychométriques des Ecos ont été largementtudiées et publiées dans les principales revues de péda-ogie. Attester de compétences cliniques décomposées enâches facilement observables dans des postes indépen-ants les uns des autres est un objectif pédagogique quist atteint dans un Ecos en diminuant la variabilité due auatient (patient standardisé) et à celle de l’examinateurstandardisation en amont des check-lists et échelles deotation). Le nombre de postes d’examen (élevé), leururée (courte) concourent à la fiabilité des épreuves et fonte l’Ecos un outil qui rencontre les critères docimologiquese certification. Le coût des Ecos étant très élevé, lescos doivent avoir une pertinence par rapport aux autresodalités d’évaluation.Il paraît pertinent de mettre en place des Ecos dans

e cadre d’une évaluation formative avant de vouloirborder la dimension certificative. Chaque discipline peut’approprier l’outil et conjuguer check-list et score globaln fonction du niveau de compétences attendues et de’expertise des examinateurs.

Les Ecos s’intègrent dans une stratégie d’évaluations ete sont pas des outils pour apprécier le raisonnement cli-ique. Néanmoins, ils permettent de visualiser des aptitudesrofessionnelles qui feront de l’étudiant un « bon médecin ».es scénarios avec des patients standardisés identifient desimensions du professionnalisme dans des domaines aussiariés que l’éthique, l’information du patient, l’éducationu patient, la déontologie, la gestion du temps.

éférences

[1] Langsley DG. Medical competence and performance assess-ment: a new area. JAMA 1991;266:977—80.

[2] Harden R, Stevenson M, Downie W, Wilson G. Assessment of cli-nical competence using an objective structured examination.BMJ 1975;1:447—51.

[3] Harden RM, Gleeson FA. Assessment of clinical competenceusing an objective structured clinical examination (OSCE).Medical Education 1979;13:41—54.

[4] Van der Vleuten CPM, Swanson DB. Assessment of clinical skillswith standardized patients: State of the art. Teach Learn Med1990;2:58—76.

[5] Dauphinee WD. Assessing clinical performance: Where do westand and what might we expect ? JAMA 1995:274, 9 Editorial.

[6] Wiener S, Nathanson M. Physical examination: Frequentlyobserved errors. JAMA 1976;236:852—5.

[7] Berg D, Sebastian J, Heudebert G. Development, implementa-tion and evaluation of an advanced physical diagnosis coursefor senior medical students. Acad Med 1994;69:758—64.

[8] Wass V, Jolly B. Does observation ad to the validity of the longcase. Med Educ 2001;35:729—34.

[9] Wilkinson TJ, Newble DI, Wilson PD, Carter JM, Helms RM.Development of a three-centre simultaneous objective struc-tured clinical examination. Med Educ 2000;34(10):798—807.

10] Brailovsky CA, Grand ‘Maison P, Lescop J. Construct validity of

the Quebec licensing examination SP-based OSCE. Teach LearnMed 1997;9(1):44—50.

11] Barrows HS, Abrahamson S. The programmed patient: a tech-nique for appraising student performance in clinical neurology.J Med Educ 1964;39:802—5.

[

[

C. Bertrand et al.

12] Anderson MB, Kassebaum DG. Proceedings of the AAMC’sconsensus conference on the use of standardized patientsin the teaching and evaluation of clinical skills. Acad Med1993;68(S):23—7.

13] Vu NV, Marcy ML, Branhart A, et al. Further evidence ofconstruct validity of standardized patient-based performanceexaminations. Teach Learn Med 1994;6:255—9.

14] Vu NV, Barrows HS, Marcy ML, Verhulst SJ, Colliver JC, Tra-vis TA. Six years of comprehensive, clinical performance-basedassessment using standardized patients at the Southern IllinoisUniversity School of Medicine. Acad Med 1992;67:42—50.

15] Barrows HS. An overview of the uses of standardizedpatients for teaching and evaluating clinical skills. Acad Med1993;68:443—5.

16] Sloan PA, Plymale MA, Johnson M, Vanderveer B, LaFountainP. Cancer pain management skills among medical students:the development of a cancer pain objective structuredclinical examination. J Pain Symptom Manage 2001;21(4):298—306.

17] Mavis BE, Ogle KS, Lovell KL, Madden LM. Medical studentsas standardized patients to assess interviewing skills for painevaluation. Med Educ 2002:135—40.

18] Wilkinson TJ, Fontaine S. Patients’ global ratings of studentcompetence: Unreliable contamination or gold standard ? MedEduc 2002;36(12):1117—21.

19] Stone S, Mazor K, Devaney-O’Neil S, Starr S, Ferguson W, Well-man S, et al. Development and implementation of an objectivestructured teaching exercise (OSTE) to evaluate improvementin feedback skills following a faculty development workshop.Teach Learn Med 2003;15:7—13.

20] Gelula MH. Using standardized medical students to improvejunior faculty teaching. Acad Med 1998;73:611—2.

21] Kowlowitz V, Hoole A, Sloane P. Implementing the objectivestructured clinical examination in a traditional medical school.Acad Med 1991;66:345—7.

22] Lazarus J, Kent AP. Student attitudes towards the objectivestructured clinical examination and conventional methods ofassessment. S Afr Med J 1983;64(11):390—4.

23] Holder RV, Rivington RN, Calcutt LE, Hart IR. The effectivenessof immediate feedback during the objective structured clinicalexamination. Med Educ 1989;23:184—8.

24] Anderson DC, Harris IB, Allen S, Satran L, Bland CJ, Davis-Feicker Poland GA, et al. Comparing students’ feedbackabout clinical instruction with performances. Acad Med1991;66:29—34.

25] Sethuraman KR. The use of objective structured clinical exami-nation for detecting and correcting teaching — learning errorsin physical examination. Med Teach 1993;15(4):365—8.

26] Furman GE, Colliver JA, Galofré A, Reaka MA, Robbs RS, King A.The effect of formal feedback sessions on test security for a cli-nical practice examination using standardized patients. In: The7th Ottawa Conference on Medical Education and Assessment.1996. p. 25—8.

27] Matsell DG, Wolfish NM, Hsu E. Reliability and validity of theobjective structured clinical examination in paediatrics. MedEduc 1991;25:293—9.

28] Scobie SD, Lawson M, Cavell G, Taylor K, Jackson SH, RobertsTE. Meeting the challenge of prescribing and administeringmedicine safely: structured teaching and assessment for finalyear medical students. Med Educ 2003;37:434—7.

29] Cater JI, Forsyth JS, Frost GJ. The use of the objective struc-tured clinical examination as an audit of teaching and studentperformance. Med Teach 1991;13:253—7.

30] Clauser BE, Subhiyah RG, Piemme TE, et al. Using clinical-simulation examination. Acad Med 1993;68:S64—6.

31] Townsend AH, McLivenny S, Miller CJ, Dunn EV. The use ofan objective structured clinical examination (OSCE for forma-tive and summative assessment in a general practice clinical

Page 6: Les examens cliniques par objectifs structurés

[

[

[

[

[

[

[

[

[

[

[

[

[

[

[

[

[

[

Les examens cliniques par objectifs structurés

attachment and its relationship to final medical school exami-nation performance. Med Educ 2001;35:841—6.

[32] Williams M, Ambrose M, Carlin AM, Tyburski JG, Steffes CP.Evaluation of academic and community surgery clerckships atMidwestern medical school. J Surg Res 2004;116:11—3.

[33] Probert CS, Cahill DJ, McCann GL, Ben-Shlomo Y. Traditionalfinals and OSCEs in predicting consultant and self reported cli-nical skills of PRHOs: a pilot study. Med Educ 2003;37:597—602.

[34] Park RS, Chibnall JT, Blaskiewicz RJ, Furman GE, PowellJK, Mohr BS. Construct validity of an objective structuredclinical examination in psychiatry: associations with the cli-nical skills examination and other indicators. Acad Psychiatry2004;28:122—8.

[35] Friedlich M, MacRae H, Oandasan I, et al. Structured Assess-ment of minor surgical skills for family medicine residents.Acad Med 2001;76:1241—6.

[36] Prislin MD, Fitzpatrick CF, Lie D, Giglio M, Radecki S, Lewis E.Use of an objective structured clinical examination in evalua-ting student performance. Fam Med 1998;30:338—44.

[37] Prislin M, Giglio M, Lewis H, Ahearn S, Radecki S. Assesingthe acquisition of core clinical skills through the use of serialstandardized patient assessments. Acad Med 2000;75:480—3.

[38] Martin IG, Jolly B. Predictive validity and estimated cut scoreof an objective structured clinical examination (OSCE) used asan assessment of clinical skills at the end of the first clinicalyear. Med Educ 2002;36:418—25.

[39] Wilkinson TJ, Frampton CM. Comprehensive undergraduatemedical assessments improve prediction of clinical perfor-mance. Med Educ 2004;38:1111—6.

[40] Tamblyn R, Abrahamowicz M, Brailovsky C, Grand’Maison P,Lescop J, Norcini, et al. Association between licensing exami-nation scores and resource use and quality of care in primarycare practice. JAMA 1998;280:989—96.

[41] Tamblyn R, Abrahamowicz M, Dauphinee WD, Hanley J, NorciniJ, Girard N, et al. Association between licensure examina-tion scores and practice in primary care. JAMA 2002;288:3019—26.

[42] Shatzer JH, DeRosa D, Colliver JA, Barrows HS. Station-lengthrequirements for reliable performance-based examinationscores. Acad Med 1993;68:224—9.

[43] Valentino J, Donnelly MB, Sloan DA, Schwartz RW, Haydon RC.The reliability of six faculty members in identifying importantOSCE items. Acad Med 1998;73:204—5.

[44] Petusa ER, Blackwell TA, Ainsworth MA. Reliability and validityof an objective structured clinical examination for asses-sing the clinical performance of residents. Arch Intern Med1990;150:573—7.

[45] Van der Vleuten CPM, Swanson DB. Assessment of clinical skillswith standardized patients: state of the art. Teach Learn Med1990;2:58—76.

[46] Sloan DA, Donnelly MB, Schwartz RW, Strodel WE. The objec-tive structured clinical examination. The new gold standard

for evaluating postgraduate clinical performance. Ann Surg1995;222:735—42.

[47] Brailovsky CA, Grand’Maison P, Lescop J. A large-scale multi-center Objective Structured Clinical Examination for licensure.Acad Med 1992;67(S):37—9.

[

217

48] Merrick HW, Nowacek G, Robertson J. Comparison of theobjective structured clinical examination with the perfor-mance of third-year medical students in surgery. Am J Surg2000;179:286—8.

49] Heard JK, Allen RM, Cason GJ, Cantrell M, Tank PW. Practicalissues in developing a program for the objective assessment ofclinical skills. Med Teach 1998;20:15—21.

50] Fliegel JE, Frohna JG, Mangrulkar RS. A computer-based OSCEstation to measure competence in evidence-based medicineskills in medical students. Acad Med 2002;77:1157—8.

51] Shallaly El. Use of video-projected structured clinical examina-tion (ViPSCE) instead of the traditional oral (Viva) examinationin assessment of final year medical students. Educ Health2004;17:17—26.

52] Elliot DL, Fields SA, Keenen TL, Jaffe AC, Toffler WL. Use of agroup objective structured clinical examination with first-yearmedical students. Acad Med 1994;69:990—2.

53] Hill DA, Guinea AI, Mc Carthy WH. Formative assessment: astudent perspective. Med Educ 1994;28:394—9.

54] Cusimano M. Standard setting in medical education. Acad Med1996;71:S112—20.

55] Reznick R, Smee S, Rothman A, et al. An Objective Struc-tured Clinical Examination for the licentiate: Report of thepilot project of the Medical Council of Canada. Acad Med1992;67:487—9.

56] Lescop J, Grand’ Maison P, Brailovsky CA. L’examen du permisen médecine de famille. Le Medecin du Quebec 1994;29:115—9.

57] Whelan GP. Educational commission for foreign medicalgraduates: clinical skills assessment prototype. Med Teach1999;21(2):156—60.

58] Whealan GP. Educational commission for foreign medical gra-duates: lessons learned in a high-stakes, high-volume medicalperformance examination. Med Teach 2000;22:293—6.

59] McNaughton N, Tiberius R, Hodges B. Effects of portrayingpsychologically and emotionally complex standardized patientroles. Teach Learn Med 1999;11(3):135—41.

60] Humphris GM, Kaney S. Examiner fatigue in communicationskills objective structured clinical examinations. Med Educ2001;35(5):444—9.

61] Carpenter JL, McIntire D, Battles J, Wagner JM. Administrationof a parallel, simultaneous objective structured clinical exami-nation to accommodate a large class of students. Teach LearnMed 1993;5(2):79—85.

62] Collins JP, Gamble GD. A multi-format interdisciplinary finalexamination. Med Educ 1996;30:259—65.

63] Zartman RR, Mc Whorter AG, Seale NS, Boone WJ. Using OSCE-based evaluation: curricular impact over time. J Dent Educ2002;66(12):1323—30.

64] Rutala PJ, Witzke DB, Leko ED, Fulginiti JV, Taylor PJ. Studentfatigue as a variable affecting performance in an objectivestructured clinical examination. Acad Med 1990;65:S53—54.

65] Bienstock JL, Tzou WS, Martin SA, Fox HE. Effect of student

ethnicity on interpersonal skills and objective standardizedclinical examination scores. Obstet Gynecol 2000;96:1011—3.

66] Hodges B, Regehr G, Hanson M, McNaughton N. Validation of anobjective structured clinical examination in psychiatry. AcadMed 1998;73:910—2.