Upload
vohanh
View
216
Download
0
Embed Size (px)
Citation preview
Université de Montréal
Efficacité de l'approche LVR dans la conception d'une ressource d'aide à
l'utilisation d'un environnement informatique de téléformation
Par Nana de la Teja Angeles
Département d'études en éducation et
d'administration de l'éducation
Thèse
en vue de l'obtention du grade de
Philosophiae Doctor (Ph.D.)
Janvier 1997
&) niana de la Teja, 1997
Nalional Library l*! of Canada Biblbth ue nationale % du Cana
Ac uisitions and Acquisitions et ~ibto~raphii Seivices services bibliographiques 395 Wellington Street 395, ni% WeYington Ottawa ON K1A ON4 Onawa ON K I A ON4 Canada CaMQ
The author has granted a non- exclusive licence dowing the National Library of Canada to reproduce, loan, distribute or seîi copies of this thesis in microform, paper or electronic formats.
The author retains ownership of the copyright in this thesis. Neither the thesis nor substantial extracts fiom it may be printed or otherwise reproduced without the author's permission.
L'auteur a accordé une licence non exclusive permettant a la Bibliothèque nationale du Canada de reproduire, prêter, distribuer ou vendre des copies de cette thèse sous la forme de microficheffilm, de reproduction sur papier ou sur format électronique.
L'auteur conserve la propriété du droit d'auteur qui protège cette thèse. Ni la thèse ni des extraits substantiels de celle-ci ne doivent être imprimés ou autrement reproduits sans son autorisation.
Université de Montréal Faculté des études supérieures 1
Cette thèse intitulée :
Efficacité de i'approche LVR dans la conception d'une ressource d'aide a l'utilisation d'un environnement informatique de téléformation
présentée par :
lliana de la Teja Angeles
mposé des personnes suivantes :
président du jury
directeur de recherche
codirecteur de recherche
examinateur externe
représentant du doyen
~hèsb acceptée le : 3- 0*9?
Université de Montréal
Bibliothèque
Sommaire
La présente recherche porte sur I'efficacité de I'approche d'évaluation
formative connue sous le nom de Leamer Verifkation and Revision (LVR) dans
l'amélioration des ressources d'aide a l'utilisation (RDA) d'un environnement
informatisé de téléformation (EIT).
Les écrits indiquent que le processus pour améliorer les ressources facilitant
l'utilisation d'un système informatique est similaire au processus proposé par
l'approche LVR (révision itérative du produit pédagogique a partir des difficultés
identifiées par les apprenants lors de la mise a l'essai). Plusieurs études ont
montré que la LVR est efficace pour améliorer un produit pédagogique avant sa
diffusion. Mais, quelle est I'efficacité de cette approche dans le contexte de
l'amélioration de ressources d'aide a l'utilisation d'un EIT? Voila la question a
laquelle cette recherche tente d'apporter des réponses. Plus spécifiquement,
elle vise a connaître I'efficacité de la LVR dans l'amélioration de deux types de
RDA : la FAQ (Frequently Asked Questions) et I'interface.
Selon les quatre hypotheses émises, l'intégration de I'approche LVR au
développement des RDA, dans le cadre d'un EIT, améliore :
r I'efficacité de la FAQ en terme de réduction du temps d'accomplissement
des tâches:
I'efficacité de la FAQ en terme du nombre de problemes d'utilisation
rencontrés;
O I'efficacité de I'interface en terme de réduction du temps d'accomplissement
des tâches;
O I'efficacité de I'interface en terme du nombre de problèmes d'utilisation
rencontrés.
Pour tester ces hypotheses, I'approche LVR a été employée dans le cadre d'un
prototype LI'EIT pour développer une FAQ et pour améliorer I'interface. Trente
deux sujets, repartis en quatre traitements, ont participé à la mise à I'essai du
prototype. Dans le premier traitement, les sujets ont accompli les tâches
demandées a I'aide du prototype. Les données recueillies ont permis de
concevoir la FAQ ainsi que d'identifier les aspects a ambliorer dans I'interface.
Au traitement 2, les sujets ont accompli les mêmes tâches que ceux du
traitement 1, mais le prototype employé comprenait la FAQ conçue à I'aide de
I'approche LVR. Les données recueillies ont permis de cerner les éléments
pouvant améliorer la FAQ. Dans le traitement 3, les sujets ont utilisé le
prototype avec une version révisée de la FAQ. Enfin, dans le traitement 4, les
sujets ont employé le prototype avec une interface révisée.
L'efficacité de la LVR a été déterminée d'une part par le nombre de difficultés à
l'utilisation éprouvées par les participants lors de la réalisation des tâches et,
d'autre part, par le temps d'accomplissement des taches. Les difficultés
d'utilisation ont été recensées au moyen de la technique du Magicien d'Oz et par
les demandes d'aide formulées par les participants aux expérimentateurs. Un
chronométre intégré a l'ordinateur a servi pour mesurer le temps
d'accomplissement des tâches.
Les résultats obtenus au plan statistique montrent :
qu'un environnement informatisé de téléformation avec une FAQ développée
au moyen de I'approche LVR ne réduit pas le temps d'accomplissement des
tâches, comparativement à un EIT qui n'a pas été révisé;
que le nombre de problèmes d'utilisation d'un environnement informatisé de
téléformation diminue avec une ressource d'aide sur demande développée
et révisée selon I'approche LVR;
que l'approche LVR s'est avérée efficace pour améliorer l'interface d'un EIT
en terme de temps d'accomplissement des tâches;
que I'approche LVR s'est avérée efficace pour améliorer l'interface au niveau
du nombre de problèmes rencontrés par l'apprenant.
TABLE DES MATIÈRES
Dédicace
INTRODUCTION
CHAPITRE 1. PROBLÉMATIQUE
1.1 Contexte de la problématique
1.2 Le designer et i'amélioration des RDA
1.3 Recommandations pour améliorer des RDA
1.4 Évaluation formative et ressources d'aide
1.5 Questlons de recherche
CHAPITRE 2. RECENSION DES ECRITS
2.1 Environnements informatisés de téléformation 2.1.1 Environnement d'apprentissage 2.1.2 Technologie informatisée 2.1.3 Téléformation 2.1.4 NTIC et environnement d'apprentissage 2.1.5 Technologie pour apprendre 2.1.6 Apprendre h l'aide des NTIC
2.2 Les ressources d'aide 2.2.1 Caractéristiques des ressources d'aide 2.2.2 Ressources d'aide humaines 2.2.3 Ressources d'aide "non-humaines" 2.2.4 Les RDA efficaces 2.2.5 tapes du design 2.2.6 Design pédagogique et élaboration d'une RDA
2.3 L'approche LVR 2.3.1 Concept d'évaluation formative 2.3.2 Principes de l'évaluation formative 2.3.3 Caractéristiques de rapproche LVR 2.3.4 Modalit4s d'application de rapproche LVR
3. CADRE EXPÉRIMENTAL
3.1 Hypothbses 3.1.1 Hypothdse géndrale 3.1.2 Raisonnement de soutien 3.1.3 Hypoth&se 1 3.1.4 Hypothdse 2 3.1.5 Hypothdse 3 3.1.6 Hypothèse 4
3.2 Variablm 3.2.1 Variables independantes 3.2.2 Variables dependantes
3.3 Design expdrimental
3.4 Le contexte d'exp6rlmentation 3.4.1 Matériel expérimental 3.4.2 Site de l'expérimentation 3.4.3 Instruments de cueillette de donnees 3.4.4 Traitements 3.4.5 Sujets
3.5 Protocole de I'expdrimentation
3.6 Traitement statistique
4.1 Processus gdniral de revision
4.2 Dévdoppement de la FAQ et rdvision de l'interface 4.2.1 Cueillette des données 4.2.2 Identification des problemes 4.2.3 Nature des problèmes 4.2.4 Prescriptions et analyse des prescriptions
4.3 Rdvision de la FAQ 4.3.1 Cueillette des données 4.3,2 Identification des problèmes 4.3.3 Nature des problèmes 4.3.4 Prescriptions et analyse des prescriptions
CHAPITRE 5. RÉSULTATS
5.1 Vdriflcation de l'hypothèse 1 5.1.1 Rappel de I'hypothése 1 5.1.2 Résultats 5.1.3 Discussion
5.2 VBriflcation de l'hypothèse 2 5.2.1 Rappel de I'hypothdse 2 5.2.2 Résultats 5.2.3 Discussion
5.3 Vérification de I'hypothese 3 5.3.1 Rappel de I'hypothese 3 5.3.2 Résultats 5.3.3 Discussion
5.4 Véritication de I'hypothése 4 5.4.1 Rappel de I'hypothese 4 5.4.2 Résultats 5.4.3 Discussion
CHAPITRE 6. CONCLUSIONS
6.1 Résume
6.2 Conclusions 6.2.1 En regard des instruments de mesure 6.2.2 En regard du comportement des apprenants 6.2.3 En regard ii la méthodologie expérimentale 6.2.4 En regard au nombre de sujets
6.3 Recommandations
BIBLIOGRAPHIE
ANNEXES Annexe 1. Documents donnés aux participants avant ta mise à l'essai Annexe 2. Questionnaire d'appréciation Annexe 3. Grille de cueillette des problèmes d'utilisation identifiés par [es participants Annexe 4. Temps d'acccimplissement des taches Annexe 5. Type des difficultés identifiées par les apprenants Annexe 6. Prescriptions Annexe 7. FAQ Annexe 8. FAQ révisée Annexe 9. Quelques directives a suivre lors de I'élaboration de futures expérhentations dans le
domaine de la méthode LVR appliquée a I'amélioration des RDA dans un EIT
Liste de tableaux ........................................... Tableau 1 . Caract6ristiques du rble de l'apprenant et du rôle de l'6valuateur 84
Tableau 2 . Variables inddpendantes et variables ddpendantes retenues dans la présente recherche .......... 96 ................................................................................. Tableau 3 . Mesures retenues pour chaque traitement 97
........................................ Tableau 4 . Tkhes que l'apprenant doit accomplir lors de l'expérimentation 1 0 0 Tableau 5 . DonnCes recherchées par traitement. ............................................................................ 1 0 3
................................................. Tableau 6 . MatCriel expérimental employé dans chacun des traitements 104 ........... Tableau 7 . Nombre de demandes d'aide & l'utilisation posdes par les participants (traitement 1) 110
Tableau 8 . Nombre de demandes d'aide par tfiche posées par les participants (traitement 1) .................. 111 Tableau 9 . Nombre de demandes d'aide par catdgorie posées par les participants (traitement 1) ........... 112
........... Tableau 10 . Nombre de demandes d'aide B l'utilisation posées par les participants (traitement 2) 114 ........... Tableau 11 . Nombre de demandes d'aide par catégorie posCes par les participants (traitement 2) 1 14
Tableau 12 . Rdsultats du test ANOVA pour le iraitement 1 ...................................................................... 1 18 Tableau 13 . Diffbrents moyens pour rdsoudre une difficultd A l'utilisation lors de l'expérimentation ....... 120
................................................................................ Tableau 14 . Rdsultats du test ANOVA (traitement 2) 122 Tableau 15 . Résultats du test de Duncan (traitement 2).. ........................................................................... 123 Tableau 16 . Résultats du test ANOVA (traitement 3) ................................................................................ 127 Tableau 17 . Résultats du test ANOVA (traitement 4) ................................................................................ 129 Tableau 18 . Rdsultats statistiques de l'efficacitd de l'approche LVR selon les matériels pédagogiques
comparCs ................................................................................................................................ 130
Liste de figures
Figure 1 . Figure 2 . Figure 3 . Figure 4 . Figure 5 . Figure 6. Figure 7 . Figure 8 . Figure 9 . Figure 10 . Figure 1 L . Figure 12 .
............ Relation de l'apprenant avec les ressources humaines et les ressources pédagogiques 34 Relation de l'apprenant avec les ressources humaines. les ressources pbdagogiques et les ressources technologiques ........................................................................................................ 34
......................................................................... Apprentissage l'utilisation d'un nouvel outil 41 .......................................... Apprentissage de l'utilisation de plusieurs outils de façon sCparCe 42 ......................................... Apprentissage de l'utilisation de plusieurs outils de façon alternée 42 ......................................... Apprentissage de l'utilisation de plusieurs outils de Façon intdgrée 43
.................................. Actions rdalisties par l'usager lorsqu'il sollicite de l'aide B l'utilisation 60 ......................................................... Étapes d'interaction entre l'usager et la ressource d'aide 61
................................................................................. L'bvalution dans le processus de design 65 ..................................................................................................... Modéle de 1' approche LVR 90
Processus de dCveIoppement de ia ressource d'aide sur demande et de l'amélioration de 1' interface ................................................................................................................................. 98
................................................... Distribution des postes de travail lors de l'expérimentation 101
Carninante, no hay camino
se hace el camino al andar ...
Antonio Machado
(Marcheur, il n'y a pas de chemin,
le chemin se fait en marchant.. .)
A tous les marcheurs qui m'ont accompagné dans ma démarche doctorale.
Merci spécialement à Harold Stoiovitch et à Jean-Yves Lescop pour leur support
professionel; Ci Marcel Girouard, ltzel Girouard de la Teja, Dominique Girouard de la
Teja et Jacqueline Bourdeau pour leurs encouragements; et aux membres du Centre
de recherche LICEF, de la Télé-université, pour leur précieuse contribution.
l ntroduction
L'integration des nouvelles technologies de l'information et de la communication
(NTIC) dans le cadre des systbmes d'apprentissage a favorise le
développement d'environnements facilitant l'accbs aux informations ainsi que les
relations interpersonnelles inddpendamment du temps et de la distance. Ces
environnements, r6fdrds dans la présente recherche comme environnements
informatises de t6ldformation (EIT), ont attire rdcemment l'attention de plusieurs
chercheurs (Wilson, 1996, 1995a; Dede, 1995; Morrison et Collins, 1995; Savery
et Dufiy, 1995; Schweitzer, Witschital, Otto, Burgard et Dietel, 1993). En
géndral, les auteurs s'accordent dire que les NTlC peuvent contribuer au
développement de l'exploration, de la collaboration et de la production collective
de connaissances (B6lisle et iinard, 1996), mais ils reconnaissent que les
environnements employant ces technologies ccportent leur propre ensemble de
défis et de problbmes de design>> (Wilson, 1995a, p.29; voir aussi; Edelson,
Pea et Gomez, 1996; Chen, 1995; Lin et al, 1995).
"As the use of computer-based instruction (CH) proliferates, the problems in designing effective courseware become more prorninent. Technology afords instnrctional designers new challenges and opportunities. " (Spector, Muraida et Marlino, 1992, p.45).
Parmi ces défis, les procddés d'utilisation des objets techniques des
NTlC posent un problème au design pedagogique centre sur I'apprenant et non
pas sur la technologie, en raison des dicultes que le besoin de maîtriser des
opérations Mes h ces objets pour acquérir le contenu d'apprentissage suscite.
Comme l'indiquent Belisle et Linard (1 996, p.37), du point de vue de I'apprenant,
les NTlC apparaissent cc plutdt comme un surcroît (provisoire) de difficultés que
comme une facilitation à l'acquisition de connaissances.>>
La prdsente recherche s'interroge sur les moyens dont dispose le
designer afin de faciliter l'utilisation de ces objets techniques. Plus précisément,
elle s'intéresse h I'amelioration des ressources non humaines pouvant aider
I'apprenant à utiliser les objets techniques des EIT. Deux ressources attirent
I'attention de cette recherche : l'aide sur demande (on-line help) et l'interface.
L'intention est de permettre au designer d'améliorer ces ressources d'aide
(RDA) pour que l'apprenant puisse se concentrer davantage sur les objectifs
d'apprentissage et non pas sur l'usage des objets techniques. Pour ce faire,
cette recherche propose une approche issue du domaine de i'dvaluation
formative, connue sous le nom de 'Leamer Verification and Revisionnou LVR.
De nombreuses études mettent en évidence que la LVR s'avbre efficace
pour améliorer un produit pddagogique à partir des aspects problhatiques
identifiés par les apprenants lors de la mise à l'essai du produit (voir Byrum,
1992, ainsi que le recensement des Bcrits fait par Weston, 1986, et Larin, 198t ).
Cependant, à notre connaissance, l'efficacité de cette approche dans
l'amélioration des ressources d'aide à l'utilisation n'a pas et4 abordée.
C'est la rarete d'&des empiriques dans le domaine des ressources
d'aide (RDA) integrés aux systemes d'apprentissage qui motive la prdsente
recherche. Dans L'essentiel, elle vise à degager les aspects de l'approche LVR susceptibles de contribuer A la prise de décisions facilitant l'utilisation des NTlC
dont la necessite se fait ressentir presentement dans les EIT.
L'organisation de cette recherche commence par préciser, au chapitre 1,
la problématique ainsi que les questions de recherche. Le chapitre 2 fait Btat des dcrits dans le but d'dtablir les cadres conceptuel et théoriques utilisés pour
répondre aux questions avancées. Le chapitre 3 énonce les moyens ayant servi
à mettre h l'épreuve les hypothbses. Le chapitre 4 présente les résultats des
donnees obtenues sewant au développement et amélioration des RDA. Le
chapitre 5 expose les r6sultats de l'expérimentation. Enfin, le chapitre 6 avance les conclusions qui découlent de la recherche et propose d@ecornmandations. -
Chapitre 1
Problématique
L'objectif du premier chapitre consiste exposer la probldmatique à l'origine de
la prdsente recherche ainsi que la démarche suivie pour cerner l'objet d'étude. II est organisé en cinq sections.
La premibre section décrit le contexte du problbme et examine la
pertinence de se pencher sur l'étude de I'amdlioration des ressources pour aider l'apprenant h l'utilisation d'un environnement informatisé de téléformation (EIT),
La deuxibme section met en lumibre les éléments dégagés de la littérature pour améliorer ces ressources d'aide (RDA). La troisibme section vise à intégrer les
recommandations pour amdliorer les RDA dans le contexte des environnements
informatisés de tdléformation, ce qui permet, dans la quatrième section de
proposer une mdthodologie. Enfin, la cinquibme section expose les questions
de recherche.
7.1 Contexte de la probl&mafique
Dans le cadre des systbmes d'apprentissage, I'avénement des technologies de
I'information et des communications a favoris6 le ddveloppement
d'environnements informatisés de téléformation (EIT). Ce concept rdfbre, dans
la présente recherche, B I'organisation spatiale et temporelle de diverses
ressources ayant pour but la formation B distance. Le mot environnement
rapporte B l'ensemble de conditions susceptibles d'agir sur les ressources
humaines, pédagogiques ou technologiques qui le composent. Le terme
téléformation dénote que les actions entourant les ressources visent la
formation. De plus, le prdfixe grec <d616», indique que ces actions se
ddroulent <<à distance-. La distance s'établit par le fait que les actions ont
lieu grace aux ressources technologiques. Dans un EIT ces ressources sont
constituées par les technologies de l'information et de communication. Enfin, le
caractére de ces technologies est précisé par le terme ccinformatisé>>. Dans
ce sens, les ressources technologiques d'un EIT s'appuient sur l'informatique et
l'électronique. Ces technologies sont souvent connues sous l'acronyme NTlC
(Nouvelles Technologies de l'Information et de la Communication). Comme
l'indique Bordeleau (1994, p.26)' <cil faut entendre par technologie à la fois les
objets techniques (matériaux, machines, outils, programmes, logiciels) et les
procedés de conception, de production ou d'utilisation desdits objets.>>
La fonctionnalité d'un EIT repose en grande partie sur l'utilisation
synergique des ressources technologiques (composées entre autres par les
objets techniques tel que : ordinateurs, pdriphériques, vidéoconférence, courrier
Blectronique, traitement de textes, bases documentaires, partage d'écrans, etc.)
pour avoir accès aux ressources humaines (tuteurs, experts, pairs,
gestionnaires, etc.) ainsi que pour accéder aux ressources pédagogiques
(didacticiels, encyclopédies, videocassettes, bref, toute information concernant
l'objet d'apprentissage).
Pour accomplir ses tâches d'apprentissage, I'apprenant doit donc savcir
utiliser les divers objets techniques de son environnement de téléformation.
(HiIlman, Willis et Gunawardena, 1994).
Jusqu'à présent, l'effet de l'utilisation des objets techniques issus des
NTlC dans I'apprentissage a été peu exploré. Néanmoins, une brève analyse de
la littérature montre que, dans le cadre de la téléformation, les conséquences de
l'intégration d'un objet technique dont l'utilisation n'est pas toujours maîtrisée,
met I'apprenant dans une situation défavorable a l'apprentissage.
Dans les travaux de Burge (19941, par exemple, les apprenants, ont
déclaré qu'ils sont moins efficaces lorsqu'ils doivent apprendre à utiliser l'outil de
communication assisté par ordinateur et, en même temps, apprendre le contenu
du cours.
"This study found that a student may feel reduced effectiveness and pressure from a number of stressors that originate in students' interactions with the context and in students' abilities to use a variety of learning strategies." (ibid., p.36).
Plus récemment, dans une Btude sur la productivite des iddes et sur la
performance acaddmique lors de i'apprentissage à distance à l'aide de la
conference informatisde (computer-conferencing ou CC), Lundgren-Cayrol
(1996) a constate un taux Bieve de ddcrochage qui semble avoir une relation
avec les difficultés h utiliser les ressources technologiques. Ces mêmes
difficultth sont devenues un obstacle pour la cueillette de donnees
expé rimentales.
"The most important drawbacks of this study were the large drop-out rate matched with the crucial difficulties experienced in collecting the questionnaires. 70 a certain degree the root of these problems stems from ditficulties of the technology itself on two levels: (1) students have no experience with CC, and (2) inadequate access." (Lundgren-Cayrol 1996, p.147).
Le rapport d'expérimentation de Guilcher et Johnstone (1988), pour sa
part, met en évidence que les apprenants ayant une formation inaddquate en
systbmes audiographiques n'&aient pas capables de participer aux activités que
le tuteur avait prevues (dans Hillman et al., 1994).
Ces Btudes illustrerit quelques consequences des difficultds de
l'utilisation individuelle d'un seul outil technique' dans un contexte de
tddformation. Cependant, la tendance actuelle se dirige vers la multiplication de
ces outils et de leur integration dans un seul poste de travail, qui devient de plus
en plus puissant, polyvalent et portable, capable de traiter avec rapidité tous les
types d'information. <<Le micro-ordinateur est ainsi transforme en studio de
montage sonore ou télévisuel, en bibliothhque virtuelle ou en centrale de
communications, incluant repondeur, tdldcopieur et t618phone>> (Conseil
superieur de l'éducation, p.18).
Nous sommes loin ici des Btudes sur la difficultd d'apprendre utiliser un
seul outil technique. De plus, Btant donné que la synergie que procure
l'environnement informatique de tdléformation peut favoriser l'apprentissage
collaboratif distance, desormais il ne s'agit plus d'un apprenant isole utilisant
quelques outils, mais de plusieurs apprenants relies entre eux, faisant appel 21
Dans la présente recherche. les ternes outil technique et objet technique sont employés comme synonymes.
de multiples outils. L'apprenant a donc besoin de maîtriser l'opération de
l'ensemble d'outils à son poste de travail assistant son apprentissage.
Cet aspect a été mis en relief par De la Teja et Liégeois (1 994, 1995)'
lorsqu'à la suite d'une étude relative à l'apprentissage coopératif à distance,
dans le cadre d'une Classe virtuelle, on a constaté que les difficultés du produit
pédagogique, telles qu'identifiées par les apprenants, se concentraient sur
l'utilisation (98%) et non pas sur le contenu (2%). Les apprenants étaient
tellement occupés à apprendre à utiliser les différents outils, qu'ils ne pouvaient
pas se concentrer sur le contenu à apprendre.
Basque et Chomienne (1994). ont obtenu1 d$résultats dans le même
sens lors d'une étude sur le processus d'apprentissage d'élèves utilisant
plusieurs types de logiciels dans un environnement pédagogique informatisé.
Les interventions auprès des élèves se sont concentrées invariablement sur le
plan technique. Le nombre d'interventions sur ce plan a été calculé a 53% pour
l'enseignant et a 55% pour les expérimentatrices. "On retrouve au plan
technique des interactions consistant principalement à donner ou a demander
de l'information sur des procédures techniques spécifique^.^ (ibid. p.290). Parmi
les autres plans sur lesquels portaient les interventions se trouvent les suivants :
contenu, organisation, affectif, ergonomique, et hors tâche.
De plus, Wilson et Mosher (1994) concluent, B la suite d'une expérience
de prototype de Classe virtuelle, que non seulement les apprenants mais aussi
le tuteur étaient intimidés par la technologie de communication utilisée dans
l'expérimentation et qu'ils auraient souhaité avoir de l'aide pour s'initier à cette
technologie, avant d'entreprendre les tâches d'apprentissage.
En définitive, il découle de ces quelques études précitées qu'avec
l'avènement des NTlC dans le domaine de la téléformation apparaît le besoin de
développer des compétences spécifiques pour accéder au contenu et pour
maîtriser plusieurs outils afin de communiquer avec les ressources humaines.
Si, comme le suggére Bates (1993, p.213), vers l'année 2010 les
environnements supportées par les NTlC seront le principal moyen
d'apprentissage, on comprend l'importance de se pencher sur le besoin
d'améliorer l'efficacité de I'utilisation des environnements informatiques de
téldformation.
Face a cette situation, I'amêlioration des ressources pour aider
I'apprenant à I'utilisation des objets techniques devient une préoccupation
majeure chez le designer des EIT. Dans ce sens, la section ci-dessous tente de
dégager les déments permettant au designer de concevoir de ressources d'aide
a l'utilisation des environnements informatisés de teléformation.
Pour commencer, il paraît utile de préciser la place du designer dans
l'amélioration des RDA.
1.2 Le designer et l'amélioration des RDA
Selon le Rapport annuel 1993-1994 sur l'état et les besoins de l'éducation, le
développement des compétences liées à la maîtrise des outils techniques issus
des NTlC est, ceun préalable essentiel à l'accès a l'information dans la mesure
où celle-ci est de plus en plus disponible sous une forme informatique.>>
Malheureusement, cccette préoccupation s'avère trop faiblement prise en
charge par le système scolaire.>> (Conseil supérieur de I'éducation, 1994, p.35).
Parmi les raisons pouvant être avancées se trouve le fait que jusqu'a
récemment, le designer n'avait pas à se préoccuper de ressources d'aide à
I'utilisation lors du développement d'un produit pédagogique. Dans le contexte
des établissements de téléformation, l'instrumentation de base a été constituée
essentiellement par le matériel imprimé distribue par courrier. Pour avoir accès
au contenu du cours, I'apprenant n'avait qu'à ouvrirlenvoyer une enveloppe, et
pour entrer en communication avec le tuteur ou avec les pairs, il lui suffisait de
lirelécrire un message ou bien, d'utiliser le téléphone.
Par la suite, l'avènement de I'audio-cassette puis, de la vidéo-cassette,
change le mode de présentation du contenu, mais n'altère pas le moyen de
distribution ni de communication. Afin de s'approprier le contenu, il suffit à
l'apprenant de connaître I'utilisation du magnétophone et du magnétoscope.
Étant donne que ces deux équipements font partie de l'environnement quotidien,
leur utilisation peut être laissée a I'apprenant, d'autant plus que ces deux
équipements ont des commandes similaires, telles que jouer, reculer, avancer
(play, rewind, fast forward).
Quant à la cablodistribution, le contenu du cours est transmis
directement chez I'apprenant qui, pour y avoir accès, n'a besoin que d'opérer
l'interrupteur de la télévision et du syntoniseur.
Cette facilité d'accès au contenu devient plus restreinte par l'introduction
de l'ordinateur. Même lorsque la distribution des disquettes d'un cours revient
aux moyens postaux, il n'est pas toujours possible d'accéder au contenu sans
apprendre a utiliser le système informatique.
Ainsi, les avantages que de nombreux chercheurs (voir Kozma, 1991,
pour un recensement des écrits) voient dans I'avhement de l'ordinateur sont
conditionnels à la possibilité de franchir l'étape d'apprentissage de l'utilisation
d'un système informatique. (Voir aussi Bélisle et Linard, 1996).
Ce détour sur l'évolution du produit pédagogique dans le cadre de la
téléformation justifie le fait que l'amélioration des ressources d'aide a l'utilisation
n'est pas une <<tradition>> dans le design pédagogique.
Face aux nouvelles exigences des EIT, le designer est amené à se
tourner vers la littérature sur l'amélioration des RDA.
Bien que dans le domaine des produits pédagogiques informatisés
l'aspect stratégique des RDA commence à peine à être reconnu, dans l'industrie
de l'informatique il a reçu une attention considérable.
Depuis une dizaine d'années, plusieurs chercheurs ont centré leurs
efforts sur la conception de ressources d'aide à I'utilisation (voir par exemple
Duffy, Palmer et Mehlenbacher, 1992; Wright, 1 991 ; Carroll, 1990; Campbell,
1989; Redish, 1988; Redish, Battison et Gold, 1985; Duffy, Smith et Post (1 985);
Duffy, Trumble, Isenberg, Janik et Rodgers (1985); Duffy et Langston, 1985;
Schriver, 1984. (Voir aussi De la Teja, 1990 et Vanasse, 1990, pour une revue
de la littérature). II convient de préciser que dans la présente recherche, le
concept ressource d'aide (RDA) fait rdférence aux moyens non humains conçus
pour faciliter I'utilisation d'un système informatique. Plus précisdment, la facilite
4 i I'utilisation est ddterminée par la capacité de la ressource à :
permettre à I'usager la navigation dans le systbme informatique lors
de la réalisation d'une tâche,
donner à I'usager l'information demandb à propos du systbme,
0 dépanner I'usager lors d'une difficult6.
Si la conception des RDA a attiré l'attention de nombreux chercheurs,
c'est non seulement parce qu'elle est un moyen trbs utillsé par I'usager d'un
systbme informatique, mais aussi parce qu'elle a suscité du mécontentement.
Le recensement des écrits fait dans une étude precédente (De la Teja, 1990)'
montre que les RDA sont souvent inadéquates, pouvant agir sur la performance
de l'usager, entraîner la frustration, diminuer I'utilisation du systéme et même
étre a l'origine de pertes économiques (voir par exemple, Shneiderman, 1988;
Wright 1988; Guillemette, 1986).
Conscients de ces problèmes, comme I'indique Leibs (1994)' des centres
de recherche, des compagnies, et mêmes des ddpartements des systèmes
informatiques des grandes organisations se sont concentres faciliter
I'utilisation des systémes informatiques par I'amdlioration des RDA. Si les
ordinateurs étaient plus faciles Ci utiliser, avance l'auteur, les compagnies
feraient des économies substantielles au niveau de la formation. De plus, sa
force de travail se verrait augmentde.
Au plan des entreprises, les efforts pour faciliter I'utilisation des
technologies informatiques sont souvent lies h I'amdlioration de la performance
et s'inscrivent dans ce que l'on appel systémes de soutien à la performance
(SSP). D'aprbs la définition de Dickelman (1995)' les SSP sont un moyen
d'utiliser les technologies informatiques et l'interface graphique pour appuyer la
performance au travail exactement au moment qu'il le ndcessite.
En bref, les différents travaux menés pour rendre plus facile l'utilisation
des systèmes informatiques permettent de croire que le designer peut y trouver
des pistes intéressantes pour améliorer les RDA des environnements
informatisés de téléformation.
Recommandations pour améliorer des RDA
Une première analyse des études sur les RDA contribue à dresser une liste des
recommandations qui reviennent systématiquement dans la littérature (voir
Byrum, 1992; Wright, 1991; Carroll, 1990; Carroll et Rosson, 1987; Sullivan et
Chapanis, 1983; Duffy, 1981; Redish, Felker et Rose, 1981). Ces
recommandations sont :
concevoir le contenu de la ressource d'aide à partir
des difficultés des usagers;
intégrer la conception de la ressource dans le design
du système informatique a apprendre;
procéder de façon itérative a ta mise a l'essai de la ressource (avec des usagers réels et dans un
contexte réaliste), puis a la révision de la ressource.
La liste de recommandations ci-dessus s'avere une piste pour atteindre
le but de cette section, qui est de dégager les éléments permettant au designer
de concevoir de ressources d'aide a l'utilisation des environnements
informatisés de téléformation. Avant de prescrire une approche appuyée sur
ces recommandations, il importe de vérifier le bien-fondé de cette piste.
Cet aspect concerne principalement les études de Carroll (1985) et de
Carroll et al. (1987-88). Les travaux empiriques de ces auteurs attestent de
l'efficacité des recommandations dans l'amélioration de RDA puisqu'elles
s'intègrent dans l'approche «minimaliste>>, conçue par Carroll.
L'approche minimaliste s'avere intéressante car elle prétend que
I'utilisation de l'équipement informatisé ne se fait pas dans l'expectative
d'apprendre à l'utiliser, mais plut& pour accomplir une tâche personnelle A l'aide
de cet équipement. Étant donne que cet objectif est à I'origine de toute
interaction avec le systbrne, il est important pour le concepteur d'identifier les
objectifs et les strategies pour les atteindre. Afin de concevoir une RDA orientde
vers l'exécution des tâches rdelles, Carroll (1990) considbre qu'il faut
commencer par se poser la question suivante : "What are the tasks users will
want to leam and need tu leam?' (p.92).
II s'agit d'identifier les taches auxquelles I'usager s'intéresse ainsi que les
besoins et difficultds frdquentes. Pour ce faire, la retroaction de I'usager
potentiel tout au long de la conception de la ressource est essentielle. Aprbs la
cueillette de données, suit l'analysé afin de déterminer ce qui doit 6tre modifié et
de quelle façon. Si la conception de la ressource d'aide est faite t8t dans le
ddveloppement du systéme, les resultats obtenus lors de la mise a t'essai
peuvent Qtre utilisés pour modifier le design même du systbme. La mise à
l'essai suivie de la révision de la ressource d'aide est un processus en boucle
qui continue selon la demande de changements (Carroll, 1990, p.72).
Des nombreuses 6tudes (Nowaczyk et James, 1993; Vanasse, 1990,
Olfman et Bostron, 1988; Warner, 1988; Black, Olfman, 1987) appliquant
l'approche minimaliste A I'amdlioration de différents types de ressources
(principalement manuels d'instructions et aide sur demande ou on-lin8 helpl montrent l'avantage de suivre la demarche de Carroll. Neanmoins, tout comme
les travaux de ce chercheur, la plupart des Btudes sur les RDA se concentre sur
l'assistance à I'utilisation d'un seul outil technologique (notamment le traitement
de texte et le chiffrier électronique) et porte sur l'utilisation de l'outil pour réaliser
une tâche et non pas sur l'utilisation de l'outil pour apprendre un contenu
pedagogique.
La structure des EIT oblige cependant à reconsiddrer l'efficacité des
recommandations plus haut mentionnées sous l'optique de l'apprenant qui doit
utiliser non seulement un outil, mais un ensemble d'outils pour atteindre ses
objectifs. Pour ce faire, la demarche de Carroll semble intéressante, mais
l'analyse des écrits révhte que les details du cheminement suivi par ce chercheur
ne sont pas clairement mis en Bvidence. Toutefois, les BIBments qui se
dégagent de sa démarche globale rappellent le processus d'évaluation formative
du produit pédagogique.
Étant donné que les recommandations mentionnées plus haut semblent
avoir une assise empirique et étant donné qu'elles s'apparentent à I'évaluation
formative, il convient maintenant d'examiner la pertinence d'utiliser ce processus
dans l'amélioration des RDA d'un environnement informatisé de téléformation.
Évaluation formative et ressources d'aide
Dans le contexte du design de l'instruction, I'évaluation formative fait référence a
un processus itératif qui vise la cueiliette des données pendant l'étape de
développement du produit pédagogique dans le but de le modifier et de
l'améliorer avant sa diffusion (Scriven, 1967).
L'évaluation formative est reconnue comme un processus fondamental
du design du produit pédagogique. Comme l'indiquent Saroyan (1993),
Tessmer (1 993)' et Stolovitch et Larocque (1 983)' pratiquement tous les
modèles de design de systèmes d'instruction (instructional systems design)
intègrent à un moment ou l'autre I'évaluation formative.
Un très grand nombre d'études ont contribué à fournir l'évidence
empirique que l'évaluation formative peut améliorer significativement l'efficacité
de l'apprentissage par des produits pédagogiques révisés lors de son
développement (voir Saroyan, 1993, p.451, et Weston, 1986 pour une recension
des écrits). Dans la littérature, ces études se distinguent fréquemment selon la
source de données privilégiée : expert de contenu ou apprenant.
II est important de tenir compte que, d'après les recommandations pour
améliorer la RDA mentionnées plus haut, les données sur les difficultés du
système proviennent principalement de la clientèle cible. Pour cette raison, la
présente recherche s'intéresse à I'évaluation formative centrée sur rapprenant
comme source de rétroaction. Cette approche est connue aussi comme
<<Leamer Verification and Revisiom> ou LVR.
Un intérêt soutenu sur l'étude de l'approche LVR a donné lieu à plusieurs
travaux ayant permis de mieux contrôler certaines variables inhérentes à cette
approche, ce qui en fait un outil fiable pour améliorer et assurer la qualité d'un
produit pédagogique (Byrum, 1992; Picard, 1992; Warner, 1988; Weston, 1986;
Dupont et Stolovitch, 1983; Wager, 1983; Rodriguez et Rodriguez, 1982; Larin,
1981 ; Dupont, 1980, 1977; Baghdadi, 1980; Berthelot, 1978; Bordeleau, 1978-
1979; Kandaswamy, 1 976b; Thiagarajan, 1976).
Bien que la LVR a été appliquée avec succès pour améliorer le produit
pédagogique, jusqu'à présent, elle a servi notamment à vérifier l'atteinte des
objectifs des apprenants. L'amélioration de I'efficacité de l'utilisation du produit
a reçu très peu d'attention, probablement en raison du type des produits évalués
qui ne présentaient pas des problèmes spécifiques à ce niveau. Une autre
explication a ce phénomène se trouve dans le fait que, la LVR, selon Bordeleau
et Meunier (1981, p.146-147)' entre dans le courant du ccgoal based
evaluatiom>, mesurant l'efficacité d'un produit pédagogique à partir des
objectifs d'apprentissage.
Ce que propose la présente recherche, c'est une investigation sur
l'amélioration des RDA axée sur l'approche LVR. Cette orientation se justifie
dans la nécessite de trouver un processus explicite, solidement appuyé,
permettant au designer de prendre des décisions visant l'amélioration des RDA
dans le cadre des EIT.
En examinant les recommandations pour améliorer les RDA d'un
systeme informatique, on constate que le processus débute pendant le
développement du système, plus précisément par l'identification des difficultés
lors de la mise à I'essai du système et qui se poursuit dans un cycle itératif de
révision de la RDA et de mise a l'essai du systeme. II s'agit d'un processus
similaire à celui que l'on utilise lors du prototypage. Le prototypage, dit
Tchounikine (1994, p.489)' <<est une méthode de développement simple : on
définit un systeme, on l'implante, on le teste, on le modifie, on recommence.
Son avantage essentiel est qu'elle permet de tester le systeme au cours de son
élaboration.» II semble donc difficile de dissocier i'amélioration des RDA et
l'amélioration du système informatique.
On voit ainsi que les problémes liés a l'utilisation du produit pédagogique,
cernés a l'aide de la LVR, pourraient conduire à deux types de solutions qui, loin
d'être indépendantes, sont étroitement liées entre elles :
1. la conception de moyens auxquels l'apprenant fait appel lors d'une
difficulté (par exemple, l'aide sur demande).
2. la révision du systhne informatique au niveau de I'interface humain-
ordinateur (user interface).
Dans un sens large, I'interface réfère à la surface de contact entre deux
entités; dans I'interface usager, ces entités sont l'homme et l'ordinateur (Laurel,
1990, p.xiii). L'interface détermine la façon dans laquelle I'usager indique au
programme ce qu'il faut faire et la façon dans laquelle le programme indique a
l'usager ce qu'il a fait (Szekely, 1988). Bien qu'il n'y a pas consensus sur la
définition d'interface (Edmonds, 1992)' la plupart des études s'accordent a dire
que le design de l'interface vise à minimiser la charge de I'usager pour réaliser
les tâches avec I'ordinateur (Mountford, 1990, p.248).
"Cornputer interfaces should be designed so that the user interacts more with the task and less with the machine. Such interfaces "blend with the task", and "make tools invisible" so that "the technology is subservient to that goal." (Norman, voir entrevue faite par Rheingold, 1990).
Parmi les recommandations pour atteindre cet objectif on trouve la mise
a l'essai auprès de l'usager et l'analyse des besoins de I'usager (voir Laurel,
1990). Dans cette perspective, la LVR se présenterait comme un processus
permettant de mettre en relation de ccsymbiose>> l'amélioration de I'interface et
l'amélioration des RDA.
Les questions qui se dégagent de la problématique exposée dans le
premier chapitre de cette recherche sont formulées dans la section ci-dessous.
Questions de recherche
En bref, l'analyse effectuée dans le présent chapitre suggère que l'intégration
des nouvelles technologies de l'information et des communications (NTIC) s'est
progressivement orientée vers le développement d'environnements informatisés
de téléformation (EIT). Une conséquence de cette voie est l'augmentation dans
la complexité de l'environnement d'apprentissage. Cette complexité, ayant un
impact négatif sur I'eff icacité de l'apprentissage, mérite d'être abordée.
Étant donné que les EIT sont un phénomène récent, les problèmes liés à
l'utilisation de la technologie ont reçu peu d'attention. L'examen des écrits a fait
ressortir certaines recommandations pouvant mener à I'amélioration des
ressources d'aide à l'utilisation (RDA). L'absence de prescriptions claires pour
appliquer ces recommandations conduit a considérer I'approche LVR comme
une piste intéressante pour améliorer les RDA d'un EIT. L'efficacité de cette
approche est appuyée par nombreuses études empiriques, mais elle se
concentre notamment sur I'amélioration générale du produit pédagogique. Dans
cette perspective, la question quant à l'application de cette approche dans
l'amélioration d'une RDA demeure entiére, ce qui permet de formuler la question
suivante :
QI. L'intégration de I'approche LVR au développement d'un
environnement informatise de téléformation améliore-t-elle
l'efficacité de la ressource d'aide?
Cette question ne peut pas ignorer la relation étroite entre le processus
d'amélioration d'une RDA et l'application de la LVR dans le but d'améliorer
I'interface. Étant donné que la mise à l'essai constitue le point de départ pour
I'amélioration des RDA mais aussi pour I'amélioration du produit pédagogique en
développement, certaines données recueillies peuvent s'avérer utiles pour
améliorer le système informatique (par exemple, au niveau de I'interface). Le
cas échéant, la conception d'une RDA n'est pas séparée de I'amélioration de la
structure même du système. A partir de ces considérations, la deuxième
question de recherche qui se pose est la suivante :
Q2. L'intégration de l'approche LVR au développement d'un
environnement informatisé de téléformation améliore-t-elle non
seulement la ressource d'aide, mais aussi l'interface?
Les éléments de réponse a ces questions seront abordés dans le
chapitre 2.
Chapitre 2
Recension des écrits
La problernatique énoncée dans le chapitre 1 montre que lors de l'élaboration
d'un environnement informatisé de téldformation (EIT), le designer ne peut pas
ignorer i'arn6lioration des ressources d'aide (RDA), mais qu'il existe peu
d'btudes sur le sujet pour le guider dans sa prise de décisions. Un moyen pour
faciliter sa tâche est d'intdgrer la retroaction fournie par les apprenants dans le
design de I'EIT. Cette piste de recherche soulbve plusieurs questions, dont deux
ont et4 retenues dans la prbsente recherche.
Le but du chapitre 2 est de présenter le cadre thdorique partir duquel
les questions posées peuvent dtre abordées. Pour ce faire, il est imporiant
d'avoir une meilleure connaissance des différentes composantes de cette
question : les environnements EIT, les RDA et l'approche LVR. Trois sections
constituent ce chapitre. Elles correspondent aux composantes déjA
mentionnées.
2.1 Environnements informatises de téleformation Cette section se propose d'identifier les caractéristiques des Environnements
Informatisés de Téléformation (EIT) et ensuite de cerner le rdle et les
implications des nouvelles technologies de l'information et de la communication
(NTIC) dans le cadre de ces environnements. Cela permettra d'analyser les
éléments qui rendent difficile l'utilisation de ces technologies.
Environnement d'apprentissage
Tout d'abord, un environnement d'apprentissage (leamjng environment) peut
dtre defini comme un <<systbme ouvert au sens de la théorie des systèmes, car
il réagit aux impulsions de ses composantes» (Bordeleau, 1994, p.26). Parmi
les composantes d'un environnement d'apprentissage se trouvent les
participants, les objets d'apprentissage, les technologies et le contexte
immédiat. De par sa ddfinition, la relation qui s'établit entre les composantes
d'un système d'apprentissage tend vers un but commun qui consiste à
<<apprendre et à apprendre à apprendre>> (ibid.). Lorsque l'atteinte de cet
objectif se fait au moyen des outils informatiques tels qu'ordinateurs, logiciels,
didacticiels, ainsi que des ressources humaines qui se les sont appropriés, on
est en présence de ce que Bordeleau appelle un <<environnement pédagogique
informatisé>> (ibid.).
L'environnement d'apprentissage réfère souvent à un lieu, à un espace
permettant à l'individu de puiser de l'information des ressources et de la traiter
afin de leur donner un sens et dans le but de résoudre des problèmes (Wilson,
199513).
Pour cet auteur, un environnement d'apprentissage comporte au moins
deux aspects : un apprenant et un site ou espace dans lequel I'apprenant agit. II
estime que l'utilisation d'outils techniques est un facteur important pour
permettre I'apprenant de recueillir et interpréter des informations, ainsi que pour
interagir avec d'autres personnes.
L'importance des outils techniques dans un environnement
d'apprentissage est mis en relief par certains auteurs dans le cadre des
environnements d'apprentissage multimédia qui mettent en relation la
technologie et l'orientation pédagogique de I'environnement. Giardina et
Meunier (1993), considèrent que, dans ces environnements, la technologie
propose différents types d'accès aux informations et différentes formes de
communication et d'échanges d'informations. Par ce fait, l'environnement
d'apprentissage multimédia devient :
0 ccun moyen pour communiquer des intentions pédagogiques du
professeur/concepteur~~;
0 ceun lieu d'essai, d'accès, de jeu, de réflexion>>;
ceun espace dans lequel I'apprenant cherche, interprhte, manipule et
construit de nouvelles connaissances.>> (Dans Legendre, 1993,
p.546).
Ce dernier aspect amen8 certains auteurs (par exemple Wilson, 1995a)
à parler d'environnements d'apprentissage constructiviste, soulignant ainsi les
possibilitds que les technologies utilisdes offrent aux methodes d'apprentissage
en groupe et à la construction de connaissances.
Selon l'aspect mis en relief, les environnements d'apprentissage sont
connus sous diffdrentes appellations : environnements d'apprentissage
informatisés (computerized learning environments), environnements virtuels
d'apprentissage (virtual leaming environments) et même <<bases de donndes
hypermédia interactives A la maison>> (stay-at-home interactive hypermedia
databases). (Voir Laszlo et Castro, 1995).
Ce qui est commun Èi ces concepts, signalent Laszlo et Castro (1995,
p.10), c'est le fait que la technologie est un moyen permettant Èi rapprenant de
cheminer à son propre niveau et A son propre iythme, dans un contexte dans
lequel la sensation d'être presente est manifeste.
Si l'on examine le r61e que la technologie joue dans les définitions de
Bordeleau (1994)' Giardina et Meunier (1993) et Wilson (1995a), il s'ensuit que
dans un environnement informatise d'apprentissage la technologie est le moyen
privilegie pour faciliter l'apprentissage. Comme le signalent Vazquez-Abad et
Winner (1992, p.675)' <<la technologie joue un rdle important dans
l'environnement d'apprentissage car elle est le vdhicule qui la rende
possible.. .>> Voilà I'aspect à traiter dans la partie suivante.
Technologie informatisée
La notion de technologie a dt6 définie par plusieurs auteurs. Après avoir cité
certaines definitions dans lesquelles on distingue celle de Galbraith (1 967), Ely
(1973), Mitchell (1975) et Oettinger (1970), Scholer (1983, p.54) reprend les
idées essentielles avançant que la technologie <<se rdfere essentiellement au
domaine des idées, de la science et du savoir, mais vu sous I'angle de son
applicabilité pratique>> (ibid.). L'auteur souligne que les définitions de la
technologie distinguent les produits résultant du savoir et du savoir-faire, c'est-à-
dire les objets techniques, de la technologie elle-même.
Suite a cette considération, il convient de déterminer quelle est la
technologie qui rend possible les objectifs de l'environnement d'apprentissage.
Plusieurs auteurs associent les Nouvelles Technologies de l'Information
et de la Communication (NTIC) à la création des environnements informatisés
d'apprentissage (8oyd, 1993; Bordeleau, 1994; Heeren et Collis, 1993).
Selon le Rapport annuel 1993-1994 sur l'état et les besoins en
éducation, les NTIC réfèrent a l'application <<de la nouvelle électronique et
d'autres technologies (informatique, satellites de communication, fibre optique,
vidéo, etc.) a la création, au stockage, h la sélection, à la transformation et a la
distribution d'informations de toutes sortes.>> (Conseil supérieur de l'éducation,
1 994, p.86).
Les technologies de I'information regroupent tous les matériels, logiciels
et services utilisés pour compiler, traiter et transmettre de I'information. Les
technologies de la communication s'appuient principalement sur la convergence
technologique de deux industries : l'informatique et les télecornmunications.
(Conseil de la science et de la technologie, 1995, p.47; voir aussi Conseil
supérieur de l'éducation, 1994, p.8).
Certains auteurs omettent le mot <<nouvelles>> et préfèrent parler
uniquement de technologies de I'information et de la communication (TIC).
Bélisle et Linard (1996, p.22), par exemple, considèrent que les TIC <<sont
toutes les technologies utilisées pour concevoir, diffuser et valider des
connaissances et des informations, initiales et continues, ainsi que des
qualifications professionnelles>>. D'après cette définition, il serait possible de
penser que la craie et le tableau font partie des TIC. Cependant, les auteures
semblent exclure ces objets de sa définition car elles estiment que les outils
techniques h la base des TIC sont : le courrier ou la messagerie électronique, le
multimedia interactif, les outils de travail collaboratif (groupware), la
t818conf&ence, la visiaconference et les outils permettant la consultation de
base de donnees et la navigation sur Intemet. L'association de l'industrie de
i'informatique et des communications se r6vhie donc comme un BIBment-clef
des TIC.
En qualifiant les technologies de l'information et de la communication de
c<nouvelles>>, ce n'est pas l'aspect de nouveaute qui prdvaut. Par ce mot on
peut signifier que la nature du produit technologique des NTlC est Me à
i'informatique etlou aux tdl6communications (dont leur avbnement est arrivé
depuis peu comparativement h d'autres technologies utilises, du moins, dans le
cadre de l'apprentissage). La rdception d'un cours par la poste, ne relève pas
des NTIC, mais il est du domaine des NTlC lorsque le cours est diffus6 par courrier Blectronique ou par Internet. De la meme façon, un cours écrit au
crayon ou la machine d'dcrire dlectrique n'est pas issu des NTIC,
contrairement à un cours rédige au moyen de l'ordinateur.
Appliquees dans le contexte des environnements d'apprentissage, les
NTlC peuvent Btre perçues dans ce qui a 6té convenu d'appeler la t6l6matique.
En géneral, la tdldmatique est «l'ensemble des techniques et des moyens
permettant le transfert de données à distance, entre deux ou plusieurs usagers,
par voie téléphonique ou par tout autre mode de diffusion, par quelque support
que ce soit; les informations transmises peuvent inclure des messages visuels
ou oraux, des images, du texte ou des donnees chiffrées, elles peuvent avoir 6té
transmises et soumises sous forme numérique ou analogique, apparaître à
l'utilisateur final sous la présentation habituelle aux terminaux informatiques
classiques ou après une conversation graphique (plus conviviale); leur
cccommunication~~, leur traitement et leur organisation requiérent toujours, au
moins partiellement, l'usage d'un, et géndralement de plusieurs, logiciel(s).>>
(Ricciardi-Rigault, 1991, p. xvii).
t'aspect informatisé des tél&ommunications se r6vèle donc &re un
Mment-clef dans les environnements d'apprentissage. II est alors approprié
d'analyser la relation entre les NTIC et la tel6formation. Cet 6l6ment est
examine maintenant.
2.1.3 Téléformation
Dans la présente recherche, la dénomination cctél6formation>> a Bté préférée à
éducation à distance. Comme le dit Legendre (1993)' <<Les notions de
formation et d'éducation sont souvent employées indistinctement. (...) Seul le
mot formation englobe (...tous les aspects pédagogiques...), I'instruction et son
aspect intelectuel, l'apprentissage relié aux détails du métier, l'entraînement ou
la répétition des exercices, l'étude qui approfondit les notions, l'enseignement
qui est la part du maître et I'éducation au sens large de développement
personnel.>> (p.622).
Cette prkcision étant faite, il est possible d'envisager la téléformation
dans le contexte des NTIC.
Depuis le début des années 1990, les établissements oeuvrant dans la
téléformation' sont devenus un champ privilégié pour l'implantation des NTIC. À
cet égard, deux raisons sont souvent invoquées. La premiére de raisons
soutient qu'il s'agit d'une conjoncture sociale : dans les pays industrialisés, ces
établissements font partie d'une société postindustrielle qui dépend de plus en
plus des industries de la connaissance et des technologies de l'information et
des communications (Bates, 1993; Peters, 1993).
La deuxième raison, s'explique par le grand potentiel que certains y
voient. Pour Boyd (1993), ces technologies favoriseraient l'évolution des
établissements de téléformation : si actuellement ces derniers sont
essentiellement un moyen d'accès aux connaissances et aux diplômes pour
certains apprenants hautement motivées, dispersés eüou isolés, les NTIC
offriraient aussi la ccpossibilité de construire des communautés d'apprentissage
pluralistes, interconnectées géographiquement et dans lesquelles les capacités
humaines se compléteraient et travailleraient ensemble pour améliorer le
monde>>. (cf. Conseil supérieur de l'éducation, 1994, p.22).
' Dans la présente recherche. le terme établissements de téléformation réfère aux organismes consacrés B la planification et 3 la préparation du rnatkriel ainsi que h la prestation de services du support i la formation 3 distance (par exemple, la Télé-université, The Open University).
Les établissements de téléformation ne sont pas les seuls à intégrer les
NTIC dans les pratiques d'apprentissage. Comme Heeren et Collis (1993) le
signalent, dans la dernière décennie, ces technologies ont pénétré
progressivement dans la formation en industrie ainsi que dans les institutions
d'éducation à tous les niveaux (voir aussi Dede, 1990).
L'avance des établissements de téléformation dans l'intégration des
NTlC peut s'expliquer par le rôle capital que joue la technologie pour :
r distribuer le contenu d'apprentissage;
favoriser la communication entre l'apprenant et les ressources
humaines (par exemple : tuteur, experts, d'autres apprenants);
a se distinguer d'autres organismes de formation.
A la lumière des écrits précédemment analysés, il est donc juste de
proposer le vocable EIT pour référer à une organisation spatiale et temporelle
permettant à I'apprenant de s'engager dans un apprentissage à l'aide des
ressources humaines (pairs, tuteurs, experts, etc.) et des ressources
pédagogiques. L'accès à ces ressources se fait par le biais des NTIC.
Le concept des EIT étant précisé, il s'agit maintenant, d'examiner les
conséquences de l'introduction des NTlC dans le contexte des EIT.
2.1.4 NTlC et environnement d'apprentissage
Étant donné la nouveauté des EIT, on ne dispose pas pour l'instant des données
précises quant aux conséquences de l'implantation des NTIC. Toutefois,
l'examen des écrits sur l'évolution des NTlC dans le cadre des établissements
de téléformation peut aider à comprendre les implications de l'avènement de ces
technologies dans les autres contextes. Ce faisant, il sera possible de contrôler
les éléments décisionnels permettant au designer de l'instruction de se prévaloir
des bénéfices des NTIC pour favoriser I'apprentissage a l'utilisation des outils
techniques dans le cadre des EIT.
Un de ces éléments concerne le développement des compétences liées
à la maîtrise des outils techniques. Selon le Rapport annuel du Conseil
supérieur de l'éducation (1994, p.35) cela <<devient un préalable essentiel à
l'accès à l'information dans la mesure ou celle-ci est de plus en plus disponible
sous une forme informatiques
On peut s'attendre a ce que l'instrumentation des établissements de
téléformation soit transformée par l'avènement des NTIC. Mais il faut preciser
quelles sont les implications de cette transformation dans la façon d'accéder au
contenu et d'entrer en communication avec les ressources humaines. De cette
façon, il sera possible de déterminer les besoins spécifiques a l'utilisation des
NTIC utiles au designer des EIT.
L'analyse sera faite d'abord au niveau du rôle qui joue la technologie
dans I'apprentissage, ensuite au niveau de I'apprentissage de l'utilisation de
cette technologie.
2. t .5 Technologie pour apprendre
Dans le contexte de la téléformation, Hillrnan, Willis et Gunawardena (1994)
reconnaissent que la technologie est de plus en plus présente dans la
téleformation et que sa complexité a tendance à augmenter. Elle devient une
condition à la téléformation lorsque l'apprenant a besoin d'utiliser la technologie
afin d'accéder au tuteur, au contenu et à ses pairs. Cette perspective amène
les auteurs a reconsidérer le modèle de Moore (1989), qui a servi de base à
plusieurs études en différents types de relation présents dans la téléformation
(voir Keegan,1993; Shale et Garrison, 1990).
Moore (1989) distingue trois types de relation : apprenant-tuteur,
apprenant-contenu, et apprenant-pairs. Si l'on considère I'apprenant au centre
de l'environnement d'apprentissage, ces relations peuvent se représenter à
I'aide de la figure ci-dessous :
Pairs '3 Apprenant
Figure 1. Aelation de I'apprenant avec les ressources humaines et les ressources p6dagoglques
Hillman et ses collègues (1994) avancent que entre I'apprenant et la
technologie, il s'établit un quatrième type de relation, préalable aux autres
relations. Le schéma ci-dessous itlustre la place de la relation apprenant-
ressources technologiques.
Figure 2. Relation de l'apprenant avec les ressources bumiines, les ressources pédagogiques et les ressources technologiques.
Pour entrer en relation avec les ressources humaines (les pairs et le
tuteur) ainsi qu'avec les ressources pédagogiques (représentées par le contenu
dans le schéma), I'apprenant nécessite traverser la <<barrière>> opposée par
les ressources technologiques. Ces dernières sont intermédiaires dans les
relations des différentes ressources de l'environnement.
La relation apprenant-technologie implique que les habiletés d'un
apprenant à utiliser la technologie déterminent leur succès à obtenir, puis traiter,
l'information provenant d'autres ressources.
"Leamers need to possess the necessaty skills tu operate the mechanisms of the delivery system before they can successfully interact with the content, instructor, or other leamers." (Hillman et al, 1 994, p.32).
L'intégration des NTlC à la téléformation fait en sorte que l'apprenant doit
apprendre à utiliser la technologie de I'environnement afin de s'engager dans le
processus d'apprentissage. Cette perspective porte à regarder de près les
problèmes liés a l'apprentissage de l'utilisation de la technologie.
2.1.6 Apprendre a l'aide des NTlC
L'introduction des NTlC dans les environnements d'apprentissage semble avoir
des répercussions au plan cognitif de l'apprenant. Cet aspect a été abordé par
Bélisle et Linard (1996)' qui soutiennent que ces technologies changent
beaucoup plus vite que les systèmes mentaux des apprenants. De plus, en
agissant comme intermédiaires entre le sujet et l'objet lors de la réalisation d'une
activité, les technologies modifient les opérations routinières de I'usager. En
s'appuyant sur Vygotsky (1 978)' Léontiev (1 972), et Kaptelini (1 993), Belisle et
Linard (1996) affirment que les technologies influencent le développement
cognitif de l'usager par l'intériorisation et la mémorisation ccdes conditions,
modalités et résultatsi> des actions réalisées au moyen de la technologie. Les
actions pour chercher un mot dans un dictionnaire imprimé ne sont pas les
mêmes lors de la recherche du même mot dans un dictionnaire électronique.
C'est la phase de d6structuration suivie de la restructuration de l'action
cognitive que ccsera la plus critique, la plus délicate, la plus longue et la plus
essentielle à accompagner ne serait ce que pour préserver rapprenant d'un
excès d'échecs qui détruirait le niveau supérieur de ses motivations et de ses
intentions.>> (Bélisle et Linard, 1996, p.36-37).
L'analyse des écrits révèle plusieurs tendances pour aborder le problème
de l'utilisation de la technologie. Parmi ces tendances on trouve :
les caractéristiques de t'apprenant,
r les caractéristiques de la technologie,
le contexte d'apprentissage,
r le nombre d'outils a apprendre simultanément.
Caractéristiques de i'apprenant
Cette tendance a été traitée notamment dans les travaux sur l'apprentissage à
l'utilisation d'un logiciel dans le cadre de l'entreprise. Certaines études ont été
réalisées dans un contexte universitaire, néanmoins, dans la majorité de cas les
logiciels à apprendre étaient des traitement de textes et de feuilles
électroniques. II faut remarquer que les étudiants n'utilisaient pas les logiciels
pour apprendre un contenu.
L'intérêt d'examiner ces travaux réside dans l'identification des
comportements des usagers lors de l'utilisation d'un système informatique,
obtenue grâce A l'observation de centaines d'usagers.
Les études recensées partent du principe que la technologie informatisée
est généralement difficile à apprendre (Negroponte, 1995; Hannafin, Hall, Land
et Hill, 1994). A ce propos, Carroll (1 990) affirme :
"New technology is frequentiy very difficult to use when introduced, yet people want to use A immediately and they insist that it be easy." (p.6).
II s'agit d'un constat s'appuyant sur les résultats obtenus dans une série
de travaux (entre autres, Carroll, 1992; CarrollIl 990; Carroll et Aaronson, 1988;
Carroll, Smith-Kerker, Ford, Mazur-Rimetz, 1987-1 988; Carroll et Carrithers,
1984; Carroll et Mack, 1983a, 1983b; Mack, Lewis et Carroll, 1983). Des
centaines d'utilisateurs ont ét6 observés lors de l'apprentissage d'un logiciel de
traitement de texte afin d'identifier les raisons qui font que l'apprenant éprouve
des difficultés dans I'utilisation des technologies. Les auteurs arrivent à la
conclusion que lors de l'utilisation d'un nouveau logiciel, l'usager utilise des
stratégies spécifiques :
1. Users are overwhelmed by learning tasks; they want to stafl doing things fast.
2. Users jump the gun or plunge into procedures as soon as they are mentioned instead of reading explicit wamings or suggestions.
3. Users skip or flip past any Information that cannot be executed on the screen.
4. Users trust their reason and intuition instead of reading documentation.
5. Users read a step, carry it out, and then read the next step without checking to see if the step worked on the program.
6. Users have trouble recovering from errors because the documentation assumes tha t users will not make errors.
7. Users want to do real work instead of finishing a program and thinking, "What did 1 do or learn?"
L'efficacité d'intégrer ces stratégies pour faciliter I'apprentissage d'un système informatique, et plus précisement pour améliorer les ressources d'aide
à l'utilisation (RDA), a été confirmée par nombreuses études à l'extérieur de
l'équipe de Carroll (voir entre autres Nowaczyk et James, 1993; De la Teja,
1990; Hill Duin, 1990; Vanasse, 1990; Cocklin et McKita, 1988; Vanderlinden et
al, 1988; Warner, 1988; Olfman, 1987).
Invariablement, les résultats obtenus montrent que les RDA améliorées à
i'aide de ce processus, permettent à l'usager d'apprendre plus vite, d'accomplir
un plus grand nombre de tâches, d'avoir une meilleure compréhension des
concepts du système, d'utiliser le matériel de référence avec plus de succès,
d'éviter les erreurs et de trouver un remède (Carroll, 1990, p.161).
II est donc a croire que les difficultés rencontrées par l'apprenant lors de
l'utilisation des NTlC se trouvent, du moins en partie, dans les stratégies
naturelles d'utilisation qu'il emploie.
II convient maintenant de regarder ou réside la difficulté inhérente a
I'objet technologique,
Caractéristiques de la technologie.
Déjà en 1969, Simondon avait déjà fait ressortir que I'objet technologique
renferme une situation particulière qui le rend difficile a appréhender. Tout
d'abord, de par la nouveauté de t'objet technologique, la culture ne fournit pas
des schèmes de pensée pour saisir la réalité de I'objet. Ensuite, I'objet
technologique <<a quelque chose d'abstrait et d'autonome qui tend à échapper
à l'intentionnalité humaine.>> Finalement, l'objet technique par sa complexité,
échappe au contrôle de I'usager.
Dans le cadre de l'apprentissage d'un systéme informatique, le
recensement des écrits fait par Bourdeau (1985) révèle les mêmes traits
inhérents a cet outil technologique qui te rendent difficile a utiliser : la nouveauté,
l'abstraction et la complexité. Ces caractéristiques peuvent être résumées ainsi :
O Nouveauté. La technologie <<ne se situe pas directement dans le
prolongement du «déjà-connu>>, mais (...elle...) constitue une
rupture avec une compétence (connaissances et habiletés) acquise
préalablement (Douglas, 1983, Politis, l984)>>. (Cité par Bourdeau,
1985, p.16).
Abstraction. La technologie a apprendre revêt un caractère abstrait,
intangible. «Les opérations étant de nature électronique, elles ne
sont pas matérialisées sous une forme concrète directement
perceptible par l'usager et le manque de perception sensorielle
constitue pour lui une difficulté nouvelle.>> (ibid., p.17).
Complexité. ceLa complexité (...de l'apprentissage d'une
technologie.. .) provient, d'une part, de la complexité de
l'environnement de travail (systéme de traitement de texte) (Benoit,
Cossette et Cardillo, 1984; Card, Moran et Newel, 1983)' et, d'autre
part, de l'interaction entre les connaissances préalables
(professionnelles et générales) de l'étudiante et les nouveaux objets
de connaissance (Bott, 1979; De Laurentis, 1981; Douglas et Moran,
l983).>> (Cité par Bourdeau, 1985, p.17).
Contexte d'apprentissage.
Hillman, Willis et Gunawardena (1994) proposent trois contextes pour
I'apprentissage des technologies dans le cadre des environnements informatisés
de téléformation : exercices en classe, sessions d'orientation et cours crédité.
I Contexte I 1 d'apprentissage 1
-1 7 1 SeSJionsd'onentation Cours crédité
Ces contextes se différencient notamment par la relation entre
l'apprentissage des outils et le contenu du cours, par le temps dédié à
l'apprentissage de l'utilisation des outils et par le détail d'apprentissage des
outils.
Dans une série d'études menées par l'équipe de Hillman, ils ont conçu
une. session d'orientation. L'apprenant assistait a la session avant
d'entreprendre le cours utilisant les technologies enseignées dans la session.
La session lui permettrait d'apprendre à se servir du système de communication
de l'environnement d'apprentissage ainsi que d'un système audiographique.
Les chercheurs ont conclu que les sessions d'orientation ne sont pas
nécessairement le meilleur moyen pour apprendre à utiliser les outils de
l'environnement d'apprentissage. Parmi les constatations rapportées figurent les
suivantes :
s une session d'orientation n'est pas suffisante pour rendre I'apprenant
capable de maîtriser les outils;
I'apprenant a besoin d'être guidé continuellement;
I'apprenant qui est orienté vers l'accomplissement d'un but
pédagogique n'apprécie pas la session d'orientation car elle ne porte
pas sur le contenu du cours.
D'après Hillman et ses collègues, le troisième contexte (le cours crédité)
constitue la solution optimale pour assurer que I'apprenant possède les
habiletés nécessaires a l'utilisation des outils techniques de l'environnement de
téléformation. Toutefois, ils reconnaissent qu'il s'agit d'une perspective difficile à
envisager dû a son manque de faisabilité.
Qu'en est-il donc pour le premier contexte (exercices en classe)? Les
chercheurs voient un désavantage au fait d'apprendre le contenu d'un cours en
même temps que les outils assistant l'apprentissage du contenu du cours. Les
travaux de Satzinger (1994) apportent de la lumière a ce sujet et seront
examinés dans la quatrième tendance pour aborder les difficultés d'utilisation de
la technologie.
Apprentissage de plusieurs outils.
II a été mentionné plus tôt qu'un EIT est constitué par un ensemble d'outils
techniques permettant à I'apprenant d'accéder au contenu ainsi qu'aux
ressources humaines (p.19). Jusqu'à présent, la majorité des études se sont
concentrées sur l'utilisation d'un seul outil. Parmi les rares études portant sur
I'apprentissage de l'utilisation de plusieurs outils simultanément se trouve celle
de Satzinger (1 994).
Cet auteur estime que le niveau de simultanéité dans lequel les outils
techniques (par exemple, des applications) sont appris et utilisés, joue un rôle
essentiel dans l'apprentissage de I'utilisation d'un environnement à multiples
outils. On distingue quatre niveaux de simultanéité :
O apprentissage de I'utilisation d'un nouvel outil;
r apprentissage de I'utilisation de plusieurs outils de façon séparée;
0 apprentissage de I'utilisation de plusieurs outils de façon alternée;
O apprentissage de I'utilisation de plusieurs outils de façon intégrée.
Une brève description de chaque niveau permettra d'identifier ses
avantages et ses limites.
a Apprentissage de I'utilisation d'un nouvel outil
Ce niveau concerne I'introduction d'un nouvel outil dans l'environnement
informatisé. C'est le cas de I'introduction d'une base de données lorsque la
feuille électronique est déjà bien connue. L'apprentissage du nouvel outil peut se
faire sé~arement des autres outils techniques.
Figure 3. Apprentissage h I'utlllsation d'un nouvel outil
O Apprentissage de I'utilisation de plusieurs outils de façon séparée
Chaque outil de l'environnement peut Rtre appris dans une même session, mais
un a la suite de l'autre .
Figure 4. Apprentissage de I'utillsaiion de plusieurs outlls de façon sdparh.
r Apprentissage de I'utilisation de plusieurs outils de façon alternée
Lorsque la réalisation d'une tâche requiert l'apprentissage de I'utilisation de
plusieurs outils, leur apprentissage peut être simultané mais progressif. Par
exemple, pour apprendre a utiliser un outil de type c<courrier électronique>r (e-
mai/) incluant un traitement de texte, l'apprenant peut commencer par apprendre
à utiliser les fonctions essentielles du courrier électronique avec un message
simple. Plus tard, il apprendra a utiliser le traitement de texte pour créer des
messages plus sophistiques .
Figure 5. Apprentissage de I'utilisation de plusieurs outils de façon alternée.
Apprentissage de I'utilisation de plusieurs outils de façon intégrée
A ce niveau, l'apprenant a besoin de plus d'un outil pour accomplir une tâche.
Les outils sont présent& dans un ensemble. II n'est pas nécessaire
d'apprendre à utiliser tous les outils de l'environnement au complet, mais plutôt
certaines fonctions de quelques outils spécifiques. L'apprentissage des
ressources technologiques de I'environnement devient fortuit car il est intégré a
l'apprentissage du contenu du cours.
Figure 6. Apprentissage de 19utilUati~n de plusieurs outils de fason intégrée.
En bref, les écrits recensés dans cette section font état des
caractéristiques des EIT. De plus, ils confirment l'importance de considérer les
difficultés d'utilisation de plusieurs technologies lors du design d'un EIT, dû a sa
nouveauté, a sa complexité et à son caractère abstrait.
Les travaux de Satzinger (1994) ainsi que ceux de Hillman et ses
collègues (1994) mettent en lumière que l'apprentissage de l'utilisation d'une
technologie est étroitement lié à l'apprentissage fortuit (incidental leaming) des
outils techniques et B I'accomplissement des tâches. Ces deux aspects se
retrouvent dans les stratégies d'apprentissage d'un système informatique telles
qu'observées par Carroll et al. (1 98748).
La prochaine section de ce chapitre tentera d'identifier le processus pour
faciliter I'utiIisation des NTlC lors de l'élaboration d'un ElT.
2.2 Les ressources d'aide
A la section précédente, il ressort que, dans un environnement informatisé de
téléformation (EIT), il est essentiel de faciliter à l'apprenant l'utilisation de
l'environnement. II est maintenant nécessaire de préciser comment atteindre
cet objectif.
. Si les écrits sur les EIT sont pour le moment rares, encore plus rares
sont ceux qui s'intéressent au problème particulier de leur utilisation.
Cependant, dans les écrits consultes, on retrouve diverses études centrées sur
les moyens pour faciliter l'emploi des NTlC dans le domaine des entreprises et,
de façon plus spécifique, sur les moyens d'utilisation des systèmes
informatiques. L'objet de cette section est d'analyser ces études afin de cerner
les caract6ristiques des ressources d'aide pour ensuite identifier les facteurs
intervenant dans leur amdlioration.
Une definition gbn6rale des ressources d'aide & l'utilisation (RDA) a 6th
propos& au premier chapitre2. Cependant, des imprdcisions subsistent au niveau de leur sp6cificit6. C'est cet aspect qui est trait6 dans la premier8 partie
de cette section. Suite la caractdrisation des RDA, la deuxibme partie se propose d'examiner M a t de la recherche dans le but de cerner la place des
RDA dans le design pedagogique d'un EIT.
2.2.1 Caract6ristiques des ressources d'aide
Une ressource rdfbre, selon le Petit Larousse (1992), A <<ce qu'on emploie
dans une situation fAcheuse pour se tirer d'embarras-. Dans cette optique,
pour identifier les 6l6ments qui caractérisent des ressources d'aide A l'utilisation
(RDA) des EIT, il est donc utile de mieux comprendre comment se manifeste,
dans ce contexte, la <<situation ficheuse>> pour ensuite determiner les
moyens pour l'aborder.
Les donnees dont on dispose actuellement sur les cons6quences de
l'introduction des NTIC concernent davantage le domaine de l'entreprise,
notamment aux États-unis.
Forman et Kaplan (1 994) et McGraw (1 994) reportent que dans ce pays,
dans la dernière décennie, les compagnies ont investi plus de 500 milliards de
dollars am&icains3 dans l'implantation des NTIC. Comme I'aff irment Forman et
Kaplan (1 994), la productivit6 et I'efficacit6, loin d'avoir augmenté, ont diminu6.
"In fact, the average per capita output of information workers actually fell between 5% and 10% du@ this penod." (Forman et Kaplan, 1994, p.6).
Les auteurs estiment que les causes de cette mauvaise performance
sont liées B la difficult6 d'utilisation de la technologie. Les systbmes sont de plus
La ressource d'aide l'utilisation a CtE dtfinie comme Ctant i'cnxmble dcs moyens pour assister l'usager l'emploi de l'environnement infomatis& de téi&lormation (voir chapitre 1).
( D'aprts McGraw (1994). il s'agit de plus de 800 milliards de doiim.
en plus puissants et complexes, ce qui devient une surcharge de travail pour
l'utilisateur.
"Overload occurs because operators are asked to process more information than they can manage, select from an ovewhelming choice of functions, or operate the system under high environmental stress". (McGraw, 1994, p.4).
Plusieurs chercheurs (Forman et Kaplan, 1994; Mader, 1992; Gery, 1991)
partagent l'idée que ce malaise est en relation avec la qualité des systemes
informatiques implantés. McGraw (1 994) estime que souvent les systemes sont
conçus :
avec des interfaces compliquées;
O pour un public universel;
O intégrant diverses fonctions et différentes tâches;
O pour donner trop d'informations lorsque I'usager demande de l'aide;
avec des fonctionnalités étendues.
La raison invoquée par tusher pour expliquer le manque de productivité
avec les nouvelles technologies est que les employés ne savent pas comment
les utiliser et qu'ils n'ont pas d'aide pour le faire (Lusher, dans Korzeniewski,
1994, p.66).
II faut remarquer que depuis ta dernière décennie on a fait nombreux
efforts dans l'élaboration de ressources d'aide. Diverses solutions ont été
proposées pour aider I'usager à utiliser les systèmes informatiques. Bien que
i'approche et la présentation de l'information dans chaque type de ressource
soient différentes, ils semblent partager une caractéristique : ils ne répondent
vraiment pas aux attentes et besoins de I'usager.
Cette situation a été amplement dénoncée (Stolovitch et Vanasse, 1989;
Wright, 1991; Carroll, 1990; De la Teja, 1990; Vanasse 1990; Ridway, 1987;
Guillemette, 1986). Elle a amené de nombreux chercheurs à se pencher sur ce
qui est la cause du manque d'aide efficace. Une brève analyse des différents
types d'aide permettra de mieux comprendre les faiblesses des RDA et facilitera
l'identification des caractéristiques de la RDA souhaitée. Dans un premier
temps, l'analyse porte sur les ressources d'aide humaines, puis elle se
concentre sur les ressources d'aide "non-humainesn.
2.2.2 Ressources d'aide humaines
En général, I'aide que I'usager reçoit des ressources humaines se fait dans un
contexte formel, tel que la formation et l'assistance téléphonique eüou
télématique, mais elle peut être aussi de type informel. C'est le cas de I'aide
donnée par les pairs.
2.2.2.1 Formation
Dans le contexte de la formation, les ressources humaines sont organisées pour
encadrer I'usager dans l'apprentissage de l'utilisation de la technologie (voir
Bourdeau, 1985). D'après Olfman (1 987)' la formation est la ressource préférée
par I'usager pour apprendre un systeme informatique, malheureusement, elle
n'est pas toujours disponible aux petites compagnies, les établissements
d'enseignement et les individus en général.
Judd (1986) considère que la formation préalable à l'utilisation d'un
systeme n'est pas suffisante pour résoudre le problème de recherche d'aide, car
son but est d'informer les utilisateurs des différentes fonctions du systeme et de
leur permettre de voir la relation entre ces fonctions et les tâches qu'ils peuvent
réaliser. L'usager peut rencontrer des difficultés qui n'ont pas été traitées dans
la formation. De plus, des problèmes complexes peuvent demander une
solution <<longue>>, difficile à retenir.
2.2.2.2 Assistance téléphoniqueltélématique
Afin d'assister I'usager ayant un problème d'utilisation, certaines organisations
ont mis sur pied un service des ressources humaines disponibles A I'usager qui
demande à résoudre une difficulté spécifique. C'est le cas des services "hot
line", qui peuvent fournir à I'usager une réponse <<immédiate>> a son
probléme. Étant donné que I'assistance se réalise principalement par
téléphone, souvent I'usager doit sortir de son environnement de travail lorsqu'il
ne dispose que d'une seule ligne téléphonique et qu'elle doit servir autant pour
accéder à l'environnement et à l'assistance.
L'utilisation du réseau informatique pour demander de I'aide à une
personne ressource peut pallier à ce problème; par contre, cela peut impliquer
pour I'usager l'attente d'une réponse à un probleme dont il requiert une solution
immédiate.
2.2.2.3 Pairs
Un autre type de ressources humaines se trouve dans les pairs, les collègues et
enfin, dans tous ceux qui de façon informelle aident I'usager à employer la
technologie.
Bien que les ressources humaines soient parmi les moyens d'aide les
plus employés par I'usager pour résoudre un probleme d'utilisation (Olfman,
1987)' il faut rappeler qu'elles ne sont pas toujours disponibles et n'ont pas
toujours la réponse à tous les problèmes.
A la recherche des moyens pour donner a I'usager l'information
pertinente lorsqu'il la demande, les auteurs se tournent vers les ressources
d'aide "non-humaines".
2.2.3 Ressources d'aide "non-humaines"
Les ressources non-humaines sont composées par les différents moyens
conçus pour faciliter a I'usager l'utilisation de la technologie sans besoin d'avoir
recours a d'autres personnes (Kearsley, 1988; O'Malley 1986). Ce type de
ressources est souvent référé dans la littérature comme <<aide>>. L'aide vise a
faciliter «la solution des problèmes liés à la tache, sans avoir besoin d'envoyer
I'usager A l'école ou à la bibliothèque>> (Aron, 1989, p.34).
Selon Kearsley (1988, p.3)' I'aide c'est un ou plusieurs programmes dont
le design vise à fournir de I'assistance à I'usager, Cette assistance est intégrée
dans un programme ou dans un système informatique. Quant à I'information
fournie par I'aide, Aron (1 989) considère qu'elle est en relation avec la résolution
de problèmes dans un contexte spécifique d'apprentissage.
Y. . (information) ... is typically sought as a means of ameliorating an individual's ability to solve task-reiated probiems in work or instructional settings. " (ibid. p. 32).
II existe différents types de ressources d'aide non-humaine. Les plus
connues sont maintenant décrites,
2.2.3.1 Documentation imprimée
Selon la synthèse faite par Aron (1989), la documentation imprimée présente
plusieurs difficultés, entre autres : le grand volume d'informations, sa désuétude,
la difficulté a localiser l'information et le besoin d'interrompre le travail à l'écran
pour consulter la documentation (ibid. p.33). En principe, les réponses aux
problèmes de la documentation imprimée pourraient se trouver dans I'aide sur
demande.
2.2.3.2 Aide sur demande
La ressource d'aide sur demande donne de l'information à I'usager au moment
ou celui-ci le sollicite. En général, la requête se fait à partir d'une clé du clavier
(Aron, 1989) ou d'un bouton conçu à cet effet (le bouton d'aide aussi connu
comme He@ ou On-iine Heip). II existe plusieurs façons pour indiquer I'aide
dont I'usager a besoin. Une de plus connues consiste à sélectionner un mot
représentatif du sujet problématique a partir d'une liste qui apparaît lorsqu'on
demande de I'aide.
Ridway (1987) signale que I'aide sur demande est «sous-utilisée-
pour trois raisons :
1. changement de tâche (lorsque I'usager demande de I'aide, il
interrompt ses pensées pour accomplir autre tâche);
2. changement d'écran (I'usager se retrouve souvent dans une
hiérarchie de navigation différente).
"(. ..) in this new environment, the user &en forgets the question that brought her to help in the first place." (ibid. p.86);
3. changement d'expectative (I'usager n'obtient toujours la bonne
réponse).
"Experience suggests that people have a low tolerance for unhelpful help, and that their initial expectations are quickly revised downward." (Ridgway, 1987, p.87-88).
Une autre raison expliquant la sous-utilisation de I'aide sur demande est
le fait qu'elle est statique et non dynamique. Dans les mots de Aron (1 989)
l'aide dynamique implique la participation de I'usager pour définir et pour
exprimer le type d'aide sollicitée.
".. .(dynamic help). . . is often invoked by the individual who requests help about a specific concept through a menu of possible terms. When a problem arises, a determination must be made as to the correct help terms to look for in the help function. The help information is quite separate from the work being perfarmed even though it is accessible from within the work". (Aron, 1989, p.34-35).
L'alternative à I'aide statique serait I'aide dynamique que l'on retrouve
dans les conseillers intelligents. Avant d'aborder ce type de ressource, il faut
signaler qu'un autre type de demande d'aide sur demande est actuellement très
utilisé : la FAQ (Frequently Asked Questions).
II s'agit d'une liste de questions que les usagers posent fréquemment sur
un sujet spécifique par exemple, l'utilisation d'un objet technologique. La liste
est généralement colligée par un spécialiste du sujet. Pour consulter cette
ressource, I'usager choisit dans la liste la question qui représente le mieux sa
demande d'aide. Certains systèmes proposent des questions à I'usager après
avoir analyse sa demande en langage naturel. C'est le cas des systèmes
d'exploitation Windows et Macintosh. Les FAQ sont particulièrement
intéressantes parce qu'elles se rapprochent de la stratégie utilisée par
l'apprenant lorsqu'il a un problème d'utilisation. Cet aspect sera traité dans une
section ultérieure.
Il existe peu d'études sur les FAQ. Cependant, elles sont de plus en plus presentes dans les systèmes informatiques. En effet, au moment de faire cette
recherche il est possible de trouver plusieurs centaines de FAQ dans le rdseau
Internet.
2.2.3.3 Conseillers intelligents
II a été établit plutôt dans cette recherche que l'aide dynamique implique un
effort de l'usager pour <<exprimer son problème a I'ordinateuw. D'après
certains auteurs (voir aussi Kearsely, 1988; Houghton, 1984), la demande d'aide
n'a pas besoin d'être parfaite.
". ..(dynamic help) ... provides relevant information about the specific problem encountered by the person using a program. This is accomplished without the user having fo completely facilitate the link between the problem and the correct help information.". (Aron, 1989, p.35).
Ce principe s'applique aux conseillers intelligents, qui peuvent
<<regarder sur l'épaule>> de l'usager, et l'assister en lui donnant des
informations selon les actions qu'il a réalisées et adaptées à ses intentions. Le
conseil peut <<apparaître>> à l'écran après que le système a analysé les traces
de I'apprenant ou bien il peut apparaître à la demande de I'apprenant. Cette
ressource semble prometteuse, mais elle aussi risque d'être <<sous-utilisée>>.
On ne possède pas de données sur l'efficace du conseiller intelligent contrôlé
par le système. Cependant, lors de la mise a l'essai d'un système d'aide au
design de matériel pédagogique, Aubin, Crevier et Paquette (1995)' ont constate
que lorsque I'usager avait une difficulté, il avait tendance a demander de I'aide a
une personne ressource et non pas au conseilIer intelligent.
2.2.3.4 Système de soutien a la performance
L'analyse des Bcrits ci-dessus montre que la plupart des études se concentrent
sur un seul moyen d'aide. Mais, d'après McGraw (1994), dans un système
informatique utilisant plusieurs technologies, les ressources isolées ne sont pas
satisfaisantes :
". . . on-line help, cornputer-based training, job aids.. . none of these alone provides the full support that the integration of Al technologies, hypermedia, and CBT could offer. l1 (McGraw, 1994, p.3).
Cette integration de ressources d'aide est souvent référée sous le nom
de système de soutien à la performance ou SSP (Performance System
Support).
Plus précisément, Gery (1991, p.34) les définit comme étant tout ce qui
est nécessaire pour générer de la performance et de l'apprentissage au moment
où on en a besoin ("whatever is necessary to generate performance and
learning at the moment of need.'?. Dans les mots de Mader (1992), les SSP
sont caractérisés de la manière suivante :
. . . "(Performance Support Systems are). . . information, software, guidance and tools available at the time of need to provide comprehensive and continuous support for a given task or group of tasks. "
Les travaux de ces auteurs ne fournissent pas d'indications sur
l'efficacité des SSP. II convient de signaler que dans les SSP, I'interface est
considérée comme une ressource d'aide très importante (Dickelman, 1995;
Forman et Kaplan, 1994).
2.2.3.5 Interface
Pour Hannafin et al (1994) la difficulté a utiliser les objets techniques peut
devenir un obstacle à l'apprentissage, et cette difficulté réside souvent dans le
fait que l'interface ne correspond pas aux besoins des apprenants.
"When interfaces fail to convey effectively the nature and utility of the devices they support, they complicate the user's task and become part of the problem." (ibid., p.51).
Mais, qu'est-ce que I'interface? Hannafin et al (1 994) avancent que l'interface
est le moyen employé pour rendre disponibles a l'usager les aspects
fonctionnels et tangibles de l'environnement.
Negroponte (1995, p.18) définit I'interface comme d o u t ce qui permet la
communication entre l'utilisateur et son ordinateur : les images (interface
graphique) ou les textes (interface texte) affichés a l'écran. Également ce qui
permet la communication entre deux appareils, par exemple entre un
magnétoscope et un lecteur de vidéodisque, ou entre un ordinateur et un
modem.>> (p.18).
La présente recherche s'intéresse uniquement a l'interface humain-
ordinateur. Afin d'alléger le texte, ce type d'interface est référé dorénavant par
le mot interface.
Les interfaces, dit Linderholm (1 992) sont en train de devenir des aides a
l'utilisation.
"Interfaces are becoming aids of our use of cornputers on current platforms.,." (ibid. p.46).
D'une façon générale, I'interface est un "lieu de rencontre" aménagé
entre plusieurs univers de connaissances. Laurel (1990) parle de l'interface
comme un site cognitif d'interaction entre l'humain et l'ordinateur (cognitive locus
of human-cornputer interaction).
L'intérêt dans le design de I'interface est relativement récent. En effet,
cette discipline est née du besoin de réduire les incornodités de l'interaction
entre l'humain et I'ordinateur.
"increased cognitive load", "bewildered and tired users" - these are the byproducts of the 'plethora of options and the interface conventions" faced by cornputer users. (Laurel, 1990, p.t 2).
En bref, le but du design de I'interface est de rendre l'ordinateur plus
facile a utiliser par I'usager nan spécialisé dans les sciences informatiques.
Pour ce faire, les auteurs s'accordent a dire que l'attention doit être
portée, de préférence, sur I'usager et non pas sur la technologie (Laurel, 1990).
Parmi les méthodes favorisées pour parvenir a ces fins se trouvent : la mise à
l'essai auprés de l'usager (Gomoll, 1990; Sellen et Nicoi, 1990), l'analyse des
tâches (Blake, 1990; Norman, voir Rheingold, 1990) et l'analyse des besoins en
contexte (Mountford, 1990; Schneidertnan, 1988).
Le design de I'interface requiert un effort multidisciplinaire (Dickelman,
1995). Pour Long (1989, p.6)' des disciplines telles que les mathdmatiques, la
logique et l'informatique fournissent les systbmes formels de reprdsentations et
de processus. Les sciences cognitives, l'intelligence artificielle et la linguistique
tentent d'expliquer et de prddire le comportement de l'usager. Erickson (1990,
p.3) intbgre dans le design de I'interface le travail de plusieurs spkialistes : psychologues, illustrateurs, dcrivains et designers industriels.
II est Ci remarquer que, en gdndral, l'étude des interfaces n'a pas 6t6
effectude dans un contexte d'apprentissage. Cela explique que le r61e du designer pédagogique a étd négligé jusqu'h présent dans le design de
I'interface.
Dans le cadre d'un systbme d'apprentissage, le design de I'interface ne devrait pas relever uniquement du designer pédagogique. Toutefois, celui-ci
doit s'assurer que I'interface est efficace, c'est-&dire qu'elle permet h l'apprenant d'accomplir ses tâches d'apprentissage dans le temps prévu pour
cet effet. De par ses methodes, le design pédagogique pourrait fournir des
données sur les difficult6s eprouvdes par I'apprenant afin de prendre de
décisions pour amdliorer l'interface. Essentiellement, il s'agit du même rdle qu'il
joue dans I'arn6lioration des RDA.
Cette considdration met en perspective une Btroite relation entre
I'interface et les RDA. Tout d'abord, I'am6lioration de I'interface et I'arndlioration
des RDA rdpondent aux mames besoins de faciliter l'utilisation des objets
technologiques afin de permettre A I'usager I'accomplissement des tâches,
Ensuite, les mdthodes utilisdes dans les deux cas sont centrdes sur l'usager et
s'appuient sur l'analyse de ses besoins.
Loin de s'opposer, I'inteiface et les RDA coexistent. D'après McGraw
(1994), plus l'interface est addquate, moins les autres ressources d'aide sont
nécessaires. Toutefois, plusieurs auteurs affirment qu'une bonne interface
n'élimine pas les autres ressources d'aide (Carroll, 1990; Wright, 1991 ).
D'autant plus que, comme le stipule Negroponte (1995)' c'est une fausse
croyance qu'il <<existe une interface universelle idéale pour toute situation
donnée>> (p.125). Dans ce sens, on peut considérer (1) que les RDA ne sont
pas seulement un palliatif à un design d'interface pauvre et (2) que I'interface,
comme l'indique Linderholm (1992, p.46), est une sorte de RDA .
Le design de I'interface relève notamment du domaine de l'ergonomie
(human factors) ccqui s'intéresse a la manière dont l'homme se sert de ses
sens et de son corps dans ses rapports avec les outils de son environnement
immédiat.>> (ibid, p.121). Cependant, le designer d'un EIT ne peut pas ignorer
que I'interface joue un rôle important dans l'environnement qu'il conçoit.
L'analyse des différentes RDA met en lumière l'importance de continuer
la recherche vers l'amélioration de ces ressources. Du moins, du point de vue
du designer car it y a une relation étroite entre le design du système et les
ressources d'aide. II est intéressant de remarquer que les différentes
ressources peuvent avoir des fonctions complémentaires. Dans l'ensemble, leur
but général est d'assister I'usager dans la réalisation des tâches à l'aide d'outils
techniques. Cet aspect se révèle une piste intéressante pour déceler la
spécificité des RDA efficaces.
Les RDA efficaces
Trois recommandations reviennent dans les écrits pour améliorer les RDA sur
demande et pour améliorer I'interface : juste a temps ÿust-in-time), pendant la
tâche (on-the-job ), et orientés vers I'usager (user targeted). Ces trois
caractéristiques sont intimement reliées.
<<Juste a temps>>, c'est la caractéristique qui réfère au fait de permettre
à I'usager d'interagir avec les informations nécessaires au moment voulu.
(McGraw, 1 994).
II existe un large consensus parmi les auteurs (Duffy, Palmer et
Mehlenbacher, 1992; Carroll 1990; Aron, 1989; Shneiderman, 1988;
O'Malley, 1986; Kearsley, 1988) qui considèrent que lors d'une difficulté
dans l'utilisation d'un système informatique, I'usager veut des réponses
immédiates à sa demande d'aide sans avoir à interrompre, autant que
possible ses tâches.
r <<Pendant la tâche>> c'est l'information correspondant à la tâche que
I'usager doit accomplir, tout en lui permettant d'atteindre son objectif de
performance immédiate.
Ridway (1987, p.87-88) signale que lorsque I'usager sollicite de
l'assistance, il ne veut pas briser la dynamique dans laquelle il est
engagé pour réaliser une tâche. De plus, il ne tolère pas l'aide inutile et il
n'est pas intéressé à changer d'écran ou à modifier l'environnement de
navigation.
Cet aspect est mis en relief par Forman et Kaplan (1994) lorsqu'ils
insistent sur te besoin d'intégrer les différents moyens d'assistance dans
une même plate-forme et de faciliter l'accès à I'information avec une
assistance minimale d'autres personnes.
Les obsewations conduites par Carroll (1990, p.78) confirment que
I'usager d'un systeme informatique n'est pas intéressé à apprendre à
utiliser le système, mais plutôt à se servir du systeme pour réaliser des
tâches. Selon cet auteur, l'apprentissage de l'utilisation d'un système
informatique est plus efficace lorsque I'usager a l'opportunité de se
concentrer sur ses propres tâches et non pas sur des tâches générales.
<<Orientés vers l'usager>> constitue la caractéristique des moyens
d'assistance assurant que l'information donnée à chaque usager est
adaptée a ses besoins particuliers.
II s'agit de l'orientation préconisée par de nombreux auteurs (entre autres
Linderholm , 1992; Nielsen, 1992; Bloomberg et Henderson, 1990; Carroll
1990; Gomez, Egan et Bowers, 1986; Shneiderman, 1982) pour assister
I'usager.
Ce relevé des écrits suggère que l'efficacité d'une RDA est déterminée
par sa capacité de permettre à l'usager de résoudre son problème d'utilisation
au moment voulu et sans sortir de son environnement de travail,
Parmi les indices servant à mesurer l'amélioration des RDA d'un
système informatique deux apparaissent fréquemment dans les écrits récensés : le temps d'accomplissement des tâches et le nombre d'erreurs commis par
l'usager ou bien le nombre de questions posées par I'usager pour réaliser une
tâche (voir Long, 1989; et Schneiderman, 1987, pour l'amélioration d'interfaces;
voir aussi Hill Duin, 1988; et Carroll, 1990; Davis, 1984; et Sullivan et Chapanis,
1983, pour l'amélioration des ressources d'aide).
L'information ainsi obtenue semble appropriée si l'on considère que
l'amélioration des RDA se traduit par une plus grande efficacité du système, et
que cette dernière est observable dans l'amélioration de la productivité d'un
individu eVou d'un organisme (Noe, 1986).
Suite à l'identification des caractéristiques des RDA, le cheminement de
la présente recherche conduit a regarder quelles sont les méthodes proposées
dans la littérature pour concevoir la ressource.
Les lignes qui suivent examinent les écrits portant sur les méthodes pour
concevoir les ressources d'aide (RDA). Le but est d'identifier les facteurs
propres au design des RDA pour les intégrer dans le cadre de l'élaboration des
environnements informatisés de téléformation (EIT).
2.2.5 Étapes du design
Le recensement des écrits réalisé par Wright (1991), permet de distinguer les
travaux de Redish, Felker et Rose (1981) et Duffy (1981), comme étant parmi
les premiers à proposer un modèle de design des ressources d'aide. Ce modèle
est composé de 4 étapes : analyse, planification, développement et évaluation.
Ces étapes se retrouvent, avec certaines modifications, dans d'autres modèles
pour concevoir/améliorer les RDA (Carroll et Rosson, 1987; Sullivan et
Chapanis, 1 983).
Dans cette étape, le designer spécifie la fonction de la ressource, il identifie le
contexte dans lequel elle sera utilisée et il précise les actions que I'usager
réalise avec la ressource.
Cette étape apparaît comme capitale pour la majorité des auteurs. Le
défi est de prévoir les difficultés que rencontrera I'usager et a quel moment.
Carroll et Rosson (1 987) recommandent d'identifier les tâches que I'usager veut
réaliser avec le système ainsi que les stratégies qu'il utilise lorsqu'il éprouve une
difficulté et qu'il demande de l'aide. Cela permet de concevoir les RDA
uniquement en fonction des difficultés que I'usager rencontrera. C'est pour cette
raison que le processus de design proposée par Carroll et Rosson (1987) est
connu comme ~cminimaliste>>. Les méthodes utilisées se concentrent sur
l'observation de I'usager et sur l'interview.
Afin d'identifier les difficultés que I'usager éprouve lorsqu'il utilise un
systéme informatique, Carroll insiste sur l'évaluation formative.
'The analysis of usability objectives is heuristically guided by the minimalist principles but is always largely empirical. Early testing (tradjiionally cailed formative testing; Scriven, 1967' can begin as soon as any coherent par? of the training is designed or prototyped. " (Carroll, 1990, p.92).
II est à noter que la participation de I'usager continue dans les autres
étapes du design.
Planification
C'est l'étape dans laquelle les décisions sont prises au niveau du contenu et de
la présentation (décisions de niveau ccmacro>>).
A ce sujet, Wright (1991, 1988) déplore le manque de fondements
théoriques pouvant faciliter la prise de décisions au designer. Elle suggère de
s'appuyer sur les stratégies utilisées par I'usager lorsqu'il consulte une RDA.
Cet aspect est traité plus en détail dans la partie dédiée aux stratégies de
I'usager de la présente recherche.
Développement
Cette étape porte sur la réalisation de la ressource. Les décisions prises dans
cette étape s'appuient sur les résultats de l'étape précédente et sur la
rétroaction de I'usager.
"Formative evaluation (obtaining feedback to guide design decisions) may be a necessary part of this development process. The te& has to be monitored for adequacy and coherence. Ways of doing this include drawing upon expert opinions and empirically pilot-testing the materials." (Wright, 1983, p.16).
L'évaluation constitue l'étape pour connaître la qualité globale de la ressource.
Elle permet de déterminer si la ressource est prête à étre diffusée.
Dans la perspective de Carroll et Rosson (1987), il y a deux types
d'évaluation. D'une part, il s'agit d'évaluer les habiletés de I'usager. Le
designer doit tester de façon empirique certains éI4ments de la ressource
auprès d'une clientèle représentative de I'usager. Le but est de garantir
l'optimisation des aspects considérés cca risque>>. D'autre part, l'évaluation
mesure l'efficacité globale de la ressource. Elle se veut une façon de comparer
la ressource d'aide originale et la ressource améliorée.
C'est le processus itératif de révision qui relie chacune des étapes du
design d'une RDA.
Le modèle de Sullivan et Chapanis (1983) est un des premier à faire
ressortir l'importance de l'évaluation itérative. Ces auteurs présentent le design
des RDA comme une série d'étapes. Ils la nomment ceédition par I'usagem
(User Edits) en raison de l'importance de la participation de I'usager du système
informatique dans le design itératif des RDA.
L'édition par I'usager consiste a mettre a I'essai la ressource auprès d'un
usager représentatif de la population-cible (end user). Le concepteur demande
à I'usager de rdaliser une tâche a l'aide des guides fournis. II est disponible
pour répondre aux questions. If note les questions posées ainsi que les points
présentant des difficultés. Après chaque cycle <cedit>>, le prototype des RDA
est révisé. Ce processus est répété jusqu'à ce que la documentation permette
aux usagers de travailler de façon satisfaisante.
Les résultats de l'expérimentation conduite par ces chercheurs montrent
que les versions révisées après la mise à l'essai sont plus efficaces - e n termes
de nombre de taches accomplies dans un temps déterminé- que la version
originale de la RDA. Ces résultats sont similaires à ceux obtenus par l'approche
Learner Verification and Revision dans l'amélioration des matériels
pédagogiques. Cet aspect sera traité dans la section 2.3.
II faut souligner que les différentes étapes de design des RDA rappellent
les étapes du design pédagogique. A cet égard, on peut énoncer que dans le
cadre d'un environnement informatisé de téléformation, la RDA est un produit
pédagogique dont l'objectif est de faciliter l'utilisation des objet techniques pour
permettre I'accomplissement des tâches d'apprentissage. II reste a savoir
comment le design des RDA s'intègre au design pédagogique de
l'environnement d'apprentissage. Avant d'aborder cet aspect, il convient de
signaler qu'en dirigeant son attention vers la participation de I'usager dans
l'amélioration des RDA, Sullivan et Chapanis (1983) mettent en lumière
l'interaction entre I'usager et la ressource d'aide.
En dirigeant son attention vers la participation de I'usager dans
l'amélioration des RDA, Sullivan et Chapanis (1983) mettent en lumière
l'interaction entre I'usager et la ressource d'aide.
2.2.5.1 Interaction de I'usager avec les RDA
A partir d'une série de travaux d'observation de I'usager en situation
d'apprentissage d'un système informatique (notamment un traitement de texte),
Duffy, Palmer et Mahlenbacher (1992) énoncent des directives servant de base
au designer des RDA. Les figures 7 et 8 montrent les actions que I'usager
réalise lorsqu'il tente de résoudre un problème d'utilisation.
(1. Se représente le problème 1 L
2. Accède au système d'aide
L 3. Sélectionne un sujet
(4. Balaie (pakourt) l'information 7 L
, Comprend I'information qui lui est présentée
(6. Choisit I'information dont il a besoin 1
vers des informations connexes
8. Transfère I'information vers le programme
d'application.
Figure 7. Actions réalisées par l'usager lonqu'il sollicite de I'aide P l'utilisation.
En bref, le designer doit comprendre chacune des actions réalisées par
I'usager lorsqu'il demande de I'aide.
Dans la figure 8 on retrouve les actions globales associées a la demande
d'aide identifibes par Wright (1983). Lors d'une difficulté dans l'utilisation,
I'usager entre en interaction avec la ressource d'aide dans un processus en trois
étapes :
f Recherche 7 [ Formule une question 0 Trouve une réponse tentative
L Compréhension Comprend l'information crée un plan d'action
Application Exécute le plan Évalue le résultat
Figure 8. Étapes d'interaction entre I'usager et la ressource d'aide.
C'est dans l'habileté de I'usager à formuler une question que réside en
grande partie l'efficacité d'une ressource d'aide.
"/t would seem that if online documentation is going to be really helpful it requires the ability of an "intelligent listenef to interpret the reader's questions. In this respect the interaction behvsen the user and the documentation when online may be closer to that of a conversation than to that more usually thought of as "reading': (Wright, 1 991 , p.349; voir aussi O'Malley, 1986).
Cette affirmation est appuyée par divers travaux ayant utilisé l'analyse du
dialogue entre I'usager et le système informatique a des fins de développement
de conseillers intelligents (Murray, 1993, Brunner et al, 1992; Parent, 1990).
"The most powerful and efficient method for both determining the user's experience and for obtaining useful suggestions for improvements to a system is to engage in dialogue with the user. " (Murray, 1 993, p.182).
On retient des écrits présentés ci-dessus que la conception des RDA est
un processus itératif, c'est-à-dire réalisé par approximations successives, et
dans lequel I'usager a une participation active. L'emphase sur l'identification
des difficultés par l'apprenant ainsi que sur l'analyse des stratégies de I'usager
lorsqu'il demande de l'aide a l'utilisation met en relief le besoin des procédures
empiriques pour recueillir des données dans les étapes d'analyse et
d'évaluation. Finalement, on remarque que la formulation de questbns est une
action primordiale de I'usager lors d'un problème d'utilisation.
2.2.5.2 Identification des difficultés dans l'utilisation d'un EIT
L'analyse du dialogue s'applique sans difficulté à des situations traditionnelles
d'apprentissage dans lesquelles il est possible d'obsewer directement
I'apprenant. Toutefois, son application n'est pas évidente lorsqu'il s'agit d'une
situation d'apprentissage coop6ratif à distance. II semble en effet difficile de
suivre un dialogue simultané avec plusieurs apprenants physiquement séparés,
travaillant de façon synchrone, tantôt individuellement, tantôt en équipe - comme
c'est le cas des environnements informatisés de téléformation (EIT) - et sans
interférer dans leur démarche d'apprentissage.
Dans une étude préalable (De la Teja et Liégeois, 1994)' on a identifié
deux types de dialogue <<spontané>>, c'est-à-dire s'intégrant de façon naturelle
dans la démarche d'apprentissage de I'usager. L'un correspond au travail
individuel, l'autre au travail en équipe. Dans le premier cas, I'usager établit le
dialogue avec le systeme; dans le deuxième, le dialogue a lieu entre pairs.
Afin de recueillir les difficultés identifiées par I'usager lors de l'utilisation
d'un produit pédagogique dans le cadre d'un EIT a partir du dialogue, on a utilisé
une aide interactive (<<Le Magicien d'Oz>>), une caméra vidéo et
l'enregistrement informatique de la session.
Le Magicien d'Oz permet a I'usager de poser des questions au systeme
en cas de difficultés. II s'inspire de la méthode connu sous ce nom (Gentner et
Norman, 1977). En bref, cette méthode consiste à dialoguer avec I'usager d'un
systeme informatique par le biais d'une aide intelligente simulée. Un agent
humain (le Magicien), situé généralement dans un endroit différent de I'usager,
répond aux questions posées par ce dernier. Le dialogue est conserve dans le
systeme et prêt à être analysé. II s'agit d'une technique qui a été utilisé dans le
cadre de design des systèmes d'aide intelligentes (Brunner, Whittemore, Ferrara
et Hsu, 1992; Winkels, 1992; et Sandberg, Breuker et Winkels, 1988) et dans la
modelisation d'un conseiller intelligent (Parent, 1990).
La demande d'aide posée par I'apprenant permet au Magicien d'identifier
le problème. Si plus de précisions sont nécessaires pour répondre a la
question, il est possible de la raffiner grdce à un dialogue en langue naturelle.
La réponse immédiate et spdcifique permet B l'usager de poursuivre ses
activitds sans interférence.
A mesure qu'une question posée par I'usager est reçue par le systhrne,
elle est simultanément placée dans les trois catdgories suivantes : le probléme,
le nom de I'usager et le contexte.
L'enregistrement vidéo des sessions a permis d'identifier de situations
probl8matiques vdcues par les apprenants gr2ice à l'analyse du dialogue entre
pairs. Toutefois, on a constaté que les questions posees lors de ce dialogue se
retrouvent dans le Magicien d'Oz, ce qui permet de penser que l'enregistrement
vidéo n'est pas nécessaire pour identifier les problbmes de I'apprenant, d'autant
plus que pour le concepteur pédagogique, le repérage des problèmes dans le
dialogue entre pairs reste difficile.
Dans une autre étude (De la Teja et Liégeois, 1995)' le Magicien d'Oz a
été modifie afin de permettre a I'usager de faire des commentaires ou des
suggestions au produit pédagogique. De plus, afin de faciliter B l'apprenant la
formulation de sa demande d'aide et dans le but de faciliter la tâche d'analyse
des données au designer, une fonction a été prévue permettant au Magicien
d'identifier le contexte et l'objet dans lesquels s'inscrit chacune des questions de
l'apprenant.
A l'aide de cette fonction, l'apprenant sélectionne le bouton d'aide et fait
glisser sur l'écran le curseur jusqu'a l'endroit problématique. Grâce a ce
mécanisme, I'apprenant peut formuler son problbme de façon générale, par
exemple, <<A quoi sert ce bouton?» ou <<J'ai un probléme>>.
La mise B l'essai d'un prototype de EIT a permis de mettre en Bvidence,
dans un contexte d'apprentissage collaboratif a distance, l'efficacité de la
technique du Magicien d'Oz pour recueillir, puis identifier les difficultés de
l'utilisation d'un EIT.
L'instrument de cueillette de données étant identifié, il convient
maintenant d'inscrire le processus d'amélioration des RDA dans le cadre du
design pédagogique.
2.2.6 Design pédagogique et élaboration d'une RDA
Le design pédagogique (instructional design) est composé de cinq phases
essentielles (voir le recensement de Stolovitch et Larocque 1983, pp.62-92).
Les grands traits de ces phases peuvent se résumer ainsi :
Analyse - L'analyse de l'information disponible permet d'identifier
l'existence ou l'absence d'un problème d'apprentissage. Le cas échéant,
il est décrit en termes observables et mesurables. Les différentes
composantes du problème sont aussi décrites.
Design - Les divers éléments identifies préalablement sont mis en
relation dans le design (plan) d'un système d'apprentissage.
Développement - Les matériels sont développés suivant le modèle
conçu.
Implantation du système - Le modèle concrétise est diffusé aux
destinataires et mis en opération.
Évaluation continue - Le résultat escompté est mesuré par rapport aux
objectifs cernés dans l'étape d'analyse. II s'agit de vérifier le succès du
nouveau système mais aussi de recueillir l'information pour assurer son
autorégulation.
Chaque phase est suivie d'un <<mécanisme de rétro-information pour
signaler si oui, ou non, le succès souhaité a été atteint. Le cas échéant on
procédera a des réaménagements (Bernard et Valois, 1980)>>. (Cité par
Scholer 1983, p.150).
Dans ce contexte, les étapes du design de systèmes d'apprentissage
sont intimement liées à l'évaluation.
Analyse HE\
Implantation \ Figure 9. L'évaluation dans le processus de design
Ce principe itératif de l'évaluation suivie de la révision réfère au concept
d'évaluation formative. II est donc possible de penser que l'amélioration des
RDA se fait dans le cadre de I'évaluation formative. D'autre part, si l'on
considère le cycle de révisions des RDA auprès de I'usager, comme une étape
essentielle de l'amélioration de la ressource, il s'agit d'une évaluation formative
centrée sur l'apprenant. Dans le contexte du design pédagogique, ce type
d'évaluation formative est souvent référée sous le nom de Learner Verifkation
and Revision ou L VR.
Avant de caractériser I'approche LVR, il faut remarquer que cette
approche ne va pas sans rappeler la démarche de prototypage mentionnée plus
tôt dans la présente recherche. Dans les deux cas, on retrouve I'approche
participative, centrée sur I'usager (user centered approach), préconisée entre
autres par Bloomberg et Henderson (1990)' Nielsen et al (1992a) et
Schneiderman (1980). Dans cette approche, I'usager final est intégré dans le
cycle de design/évaluation du système informatique et devient, en quelque
sorte, un CO-concepteur.
2.3 L'approche LVR
Dans le premier chapitre, il a été signalé que la LVR est une approche
d'évaluation formative centrée sur la rétroaction de l'apprenant. De plus, elle
apparaît être, à première vue, un outil approprié pour améliorer les ressources
d'aide à l'utilisation des EIT. Cette section a pour but de caractériser l'approche
LVR ainsi que de présenter les assises théoriques de cette approche afin de
distinguer les avantages et les limites de la LVR en regard de l'amélioration des
RDA.
Comme le lecteur pourra le constater, la plupart des études utilisant cette
approche ont été réalisées autour des années soixante-dix. Les travaux de
Rodriguez et Rodriguez (1982) et Larin (1981) en offrent une excellente
synthèse, Le recensement des écrits de la présente recherche reprend certains
aspects de ces travaux et tentent d'intégrer les études effectuées
postérieurement, qui d'ailleurs ne se font, en majeure partie, qu'au début de la
présente décennie.
Tout d'abord, cette section se propose d'abord de clarifier l'évaluation
formative au niveau conceptuel car c'est dans ce contexte que le modèle de la
LVR a pris forme. Ensuite les traits saillants de la LVR seront explicités.
2.3.1 Concept d'évaluation formative
Pour mieux comprendre l'évaluation formative tel que traitée dans la présente
recherche, quelque précisions s'imposent, d'autant plus que, dans le contexte
de la technologie éducationnelle, le concept d'évatuation formative est utilisé
dans deux sens différents.
D'une part, il réfère au processus de cueillette de données dans le but de
prendre de décisions pour améliorer un produit pédagogique. Ce processus
s'intègre dans le design pédagogique du produit et repose sur un cycle de mise
à l'essai du prototype suivi de l'analyse des données et de la révision du
prototype (Scriven, 1 967; voir aussi Flagg, 1 990).
D'autre part, le terme évaluation formative est souvent utilisé pour
signifier le processus réalisé au terme d'une tâche d'apprentissage afin
d'informer l'apprenant et le tuteur du degré de maîtrise atteint dans le but de
déceler les failles et, éventuellement, de remédier aux difficultés identifiées (De
Landsheere, 1979).'
La présente recherche porte sur l'évaluation formative dans le sens
évoqué par Scriven, c'est-à-dire un processus visant l'amélioration du produit
pédagogique.
Suite à cette clarification, il s'agit de relever les traits caractéristiques de
l'évaluation formative constituant la toile de fond de l'approche LVR.
Principes de l'évaluation formative
Pour cerner les fondements de l'évaluation formative, la littérature est examinée
à partir de i'oeuvre de quelques auteurs ayant contribué à façonner ce concept :
Tyler (1942), Hoban (1956), Rose et Van Horn (1956), Gropper et Lumsdaine
(1 96l), Cronbach (1963), Hastings (1 966), Markle (1967), Scriven (1 967) et
Stolovitch (1 978).
Cette liste d'auteurs n'est pas exhaustive mais représentative. En effet,
selon certains chercheurs (voir Tessmer, 1993; Williams, 1983; Cambre, 1981),
les premières activités d'évaluation formative remontent à 1921 , avec les
travaux de Lashley et Watson. Ces derniers avaient réalisé des études pour
obtenir les réactions des différents public-cibles auprès d'un film éducatif portant
sur l'éducation sexuelle. Les données obtenues à l'aide des questionnaires et
des interviews ont permis, entre autres, de repérer des problèmes de contenu et
de faire des recommandations pour améliorer la réalisation de films de même
nature, dans le futur (Cambre, 1981, p.6).
Néanmoins, il faut rappeler que les travaux de Lashley et Watson (1921)
avaient comme but de mieux connaître l'impact du médium sur la clientèle-cible
Certains auteurs réfèrent ?i cc type d'évaluation formative comme "Cvaluation formative des apprentissages" (voir Legendre. 1993, p. 583).
et que les suggestions d'amélioration du produit pédagogique étaient une
retombée des résultats obtenus. Pour cette raison, Larin (1981) prétend que les
travaux de ces auteurs <<semblent difficiles 4 étiqueter dans la catdgorie
'évaluation formative'>>. (p.29)
Dans cette perspective, il est possible de considérer que les premières
ébauches des principes de l'évaluation formative reviennent à Tyler (1942) et
que ce n'est qu'a la fin des années 1960 que ce processus d'évaluation -bien
que sous diffërents noms5- devient une méthode systdmatique de design du
produit pédagogique (voir Tessmer, 1993; Weston, 1986; et Larin, 1981).
Les lignes ci-dessous portent sur l'analyse de l'oeuvre des précurseurs
du concept d'évaluation formative plus haut mentionnés, en vue de dégager les
caractéristiques de ce concept.
2.3.2.1 Relation entre l'évaluation et les objectifs d'apprentissage
En 1942, Tyler publie un article intitulé "Eight-year evaluation study", qui aurait
une grande influence sur ses collègues. Dans cet article, l'évaluation est
présentée comme un processus dynamique, étroitement lié aux objectifs
d'apprentissage, pouvant servir à des fins de révision du produit et dans lequel il
est important de tenir compte des données provenant de l'apprenant :
"The process of evaluation is an integral part of the educational process. (...) It is a recurring process invoiving the formulation of objectives, their clearer definition, plans to study students' reactions in the light of these objectives, contiiiued eforls to interpret the results of such appraisals in terms which throw helpfui light on the educational program and on the individual student. This sort of procedure goes on as a continuhg cycle. Studying the results of evatuation often leads to a reformulation and some improvement in the conception of the objectives to be obtained. The results of evaluation and any reformuiation of objectivecc will suggest desirable modifications in the teaching and in the educational program itself." (Tyler, 1942, pp.13-14, dans Cambre, 1981, p.10).
-' Tessmer ( 1993. p. 17) signale que différents noms ont éte utilisés pour r退nr au processus d'évaluauon formaUve. enue autres : 'rqour '. 'developmenral tesring'. 'pifor resr' yomative assessrnent ', 'dry run', 'a lpidbeia resiing ', 'qicuiiry conrmi' et ï m e r ver@cution und revision'.
Tyler suggère l'utilisation de diffdrentes techniques lors de I'évaluation
d'un produit pédagogique telles que l'observation, les questionnaires et les
interviews. II signale l'importance de sélectionner les techniques selon le
comportement h mesurer.
2.3.2.2 Importance du feed-back dans I'évaluation
Déjà dans ses premières études, Hoban (1938) considère I'évaluation comme
un processus subjectif, appuyé sur des données empiriques (Hoban, 1938,
pp.328-329, dans Cambre, 1981 p.9). Plus tard, en 1956, il reconnait dans
I'évaluation une démarche de recherche qu'il nomme "evaluation research".
L'objectif est d'obtenir du fesd-backdans le but de réviser ou de faire approuver
un produit pédagogique.
Afin d'atteindre cet objectif, Hoban propose la méthode "Prerelease
Evaluation", qui consiste à cueillir des données sur le produit pédagogique avant
sa diffusion. Les données peuvent provenir de différentes sources (par
exemple, l'apprenant, l'enseignant et I'évaluateur). L'observation et le
questionnaire se trouvent parmi les techniques de cueillette de données
favorisées.
Hoban met en évidence la pluralité des acteurs (et des intérêts) dans
l'élaboration d'un produit pédagogique de type audiovisuel. II suggère que la
prise de décisions sur les révisions (s'il y a lieu), se fasse conjointement entre
l'équipe d'évaluation et l'équipe de production (Hoban, 1956, p.18. Dans
Cambre, 1981, p.16).
2.3.2.3 Modalités d'évaluation
Rose et Van Horn (1956) s'intéressent a identifier le moment le plus approprié
pour conduire I'évaluation lors de l'élaboration d'un produit pédagogique
audiovisuel. Ils formulent une série de recommandations, connue comme
"Preproduction Testing", dans laquelle il est suggéré que I'évaluation commence
au niveau du scénario.
La source des données peut provenir d'un petit groupe, de plusieurs
petits groupes ou d'un grand groupe. Invariablement, les participants sont
soigneusement choisis pour assurer qu'ils sont représentatifs du public-cible.
Les méthodes de cueillette de données utilisées par ces auteurs visent
l'obsewation du comportement. Ils reconnaissent que l'utilisation des outils pour
recueillir les données dépendent des caractéristiques du public-cible : les
questionnaires a choix multiple sont recommandés lorsque le contenu est concis
ou lorsque le public-cible ne peut pas générer des réponses, les questions
ouvertes sont suggérées pour le public-cible hautement verbalisé.
2.3.2.4 Efficacité de l'évaluation formative
Dans une série d'études, ces auteurs ont révisé des produits pédagogiques
télévisés à partir des données obtenues des apprenants a l'aide d'un prétest,
puis d'un post-test. Ensuite, ils ont comparé I'efficacité de la version révisée
avec I'eff icacité de la version originale. L'efficacité a été mesurée en comparant
des notes obtenues par deux groupes d'apprenants. Chaque groupe ayant
visionné la version révisée ou la version originale, passait un test. Les résultats
montrent que le groupe ayant utilisé la version révisée a obtenu des plus hautes
notes que le groupe qui avait visionné la version originale.
Les travaux de Gropper et Lumsdaine (1961) ont contribué a confirmer
empiriquement l'efficacité de It&aluation dans le but d'améliorer un produit
pédagogique ainsi qu'à prendre l'apprenant comme source de données fiable.
Egalement ils ont contribué a instaurer la comparaison de la version révisée
avec la version originale comme méthode pour mesurer I'efficacité des révisions
réalisées.
La méthode utilisée par Gropper et Lumsdaine (1961) se retrouve dans
plusieurs études sur l'approche LVR, par exemple, Picard, 1992; Rodriguez et
Rodriguez, 1983; Dupont, 1980; Henderson et Nathenson, 1976; Abedor, 1972.
2.3.2.5 Distinction des fonctions de l'évaluation
L'oeuvre de Cronbach (1963) et de Hastings (1966) se situe au même niveau :
la différentiation des rôles de I'6valuation. It s'agit d'un point charnier dans
l'émergence du concept d'évaluation formative.
Comme l'indique Larin (1981, p.33), Cronbach ceétablit clairement une
distinction entre les activités d'évaluation dans la phase de développement et les
activités d'évaluation une fois la phase de développement d'un produit
pédagogique terminé.>>
Hastings, pour sa part, considère l'évaluation comme un processus
globale, par lequel on obtient des données dans le but de prendre des décisions.
A l'intérieur de ce processus, Hastings distingue deux fonctions : prendre des
décisions afin de valider un produit et prendre des décisions pour améliorer le
produit.
2.3.2.6 Appellation de chaque fonction de l'évaluation
La démarcation suggérée par Cronbach (1963) et Hastings (1966) amène
Scriven, en 1967, à donner une appellation différente a chacun des rôles. t e
processus d'évaluation ayant comme objectif de recueillir des données dans le
but de valider un produit pédagogique dans sa phase terminale est nommé
<cevaluation sornmative>>. La cueillette des données dans te but de reviser le
produit pédagogique afin de l'améliorer dans sa phase de développement reçoit
le nom <<d'8valuation formative>>.
A partir de ce moment, dans les écrits, ces termes apparaissent comme
deux processus de I'évaluation différents.
Évaluation Évaluation sommative
2.3.2.7 Intégration du processus d'évaluation au design du produit pédagogique
Ce qu'il faut retenir des études de Markle (1967) est l'intégration du prétest
(emprical tyout) et de la revision dans le processus d'élaboration du produit
pédagogique. Cette approche s'inscrit dans le cadre du mouvement de
l'enseignement programmé, dans lequel le feed-back occupe une place capitale
pour concevoir et pour améliorer le produit par une série d'approximations
successives (voir Skinner, 1958).
D'après Markle, le feed-back de l'apprenant est une condition du contrôle
de la qualité d'un produit. Pour ce faire, Markle propose un processus connu
comme developmental tesling. Les données recueillies dans ce processus sont
utilisées à des fins de révision. Markle insiste sur le caractère empirique de ce
processus.
Contrairement aux recherches précédentes favorisant la mise a l'essai
du produit pédagogique auprès d'un groupe, Markle prdne la cueillette des
données auprès des individus. Afin de recueillir le maximum d'informations, elle
suggére d'utiliser le magnétophone (dans Larin, 1981, p.35).
2.3.2.8 Relation entre l'évaluation formative et l'évaluation sornrnative
La distinction conceptuelle introduite par Scriven (1967) ne serait pas complète
sans établir le rapport entre les deux types d'évaluation qu'il a énoncés. Les
travaux de Stolovitch abordent cet aspect.
Stolovitch (1976) reconnaît que I'évaluation formative et l'évaluation
sommative ont une fonction différente mais il considère qu'elles sont reliées par
le processus de design pédagogique. II s'agit d'un continuum dans lequel une
série de variables se conjuguent pour conduire d'une forme d'évaluation a
l'autre. Cet auteur propose un schéma de la chronologie de l'évaluation
illustrant cette transition :
Évaluation à court terme Évaluation j. lone terme
e h Test su, le Surveillance à
Banc Banc temin long terme
d'essai
Comme le signalent Stolovitch et Larocque (1983), <<Le schéma
suppose que la dépendance à l'égard des experts diminue progressivement
pour faire place aux informations en provenance des usagers eux-mêmes; le
nombre d'étudiants se modifie aussi, de quelques sujets à de larges effectifs.
La forme conique du diagramme représente ce passage progressif, des petits
nombres aux grands nombres, de l'expert a l'usager, du court terme au long
terme.>> (Stolovitch et Larocque, 1983) p.167).
Plusieurs variables intervenant dans le processus d'évaluation ressortent
dans cette interprétation : la séquence des activités de mise a l'essai et de
révision, la source des données de rétroaction, les modes de cueillette de
données (tuteur, groupe, etc.), le nombre d'apprenants qui fournissent les
informations et la cessation des activités d'évaluation.
Ces variables sont au coeur de la problématique confrontée par
I'6valuation formative depuis les années quarante : tenter de contrôler le plus
efficacement possible les variables inhérentes au processus d'évaluation. C'est
dans ce contexte que surgit l'approche Learner Verification and Revision.
Avant de traiter cette approche, un bref résumé de la rétrospective
esquissée jusqu'à présent semble opportun a ce moment de l'exposé afin de
circonscrire les bases de l'évaluation formative sur lesquelles repose la LVR.
Au début de cette section, il a été mentionné que l'analyse des travaux
des précurseurs du concept d'évaluation formative pourrait aider à identifier les
principes sur lesquels il s'appuie et à cerner les conditions d'émergence de
l'approche LVR. Dans cette orientation, le recensement des écrits a permis de
constater que, depuis le début du siMe, I'importance d'utiliser la mise à I'essai
des produits pédagogiques dans le but de recueillir de l'information afin de les
améliorer est manifeste.
L'intérêt à contrôler la qualité des produits pédagogiques a amené
plusieurs chercheurs à se pencher sur le besoin de clarifier les objectifs du
processus d'évaluation et de dissocier I'évaluation visant & améliorer le produit
pédagogique en terme d'atteinte des objectifs pendant l'étape de
développement de I'évaluation ayant comme but de valider ou rejeter le produit
dans la phase terminale d'élaboration. Cette distinction a été formalisée lorsque
Scriven (1 967) nomme ces processus <<évaluation formative>> et ccévaluation
sommative» respectivement.
Parmi les bases de I'évaluation formative qu'on retrouve dans les travaux
recenses dans cette section se trouvent les suivantes :
O I'évaluation formative vise t'amélioration du produit pédagogique afin
d'assurer l'atteinte des objectifs d'apprentissage;
O l'amélioration du produit pédagogique se fait par approximations
successives à l'aide de la mise à l'essai du produit suivi de la révision
du produit pédagogique;
la population cible est une source de feed-back importante pour
l'amélioration du produit;
I'évaluation formative est un processus continu intégré au design
pédagogique;
O la sélection des techniques de cueillette de données des objectifs de
1'8valuation dépend des caractéristiques du public-cible ainsi que du
comportement à mesurer.
C'est dans ces bases que I'approche LVR prend sa source. La section
ci-dessous présente un recueil de l'état de la recherche sur cette approche et en
cerne les principales caractéristiques.
2.3.3 Caractéristiques de I'approche LVR'
Qu'est-ce que I'approche LVR? Pour répondre à cette question, un premier
regard sera porté sur le travail de Komoski (1966, 1971), a qui revient la
paternité du concept. Ensuite, l'analyse de la littérature permettra de cerner les
aspects qui distinguent cette approche.
2.3.3.1 Définition de I'approche LVR
L'implication de Komoski (1 966, 1 971 ), dans la recherche en évaluation
formative est cruciale. En 1966, étant directeur de l'organisme Educational
Products Information Exchange, Komoski dénonce la faible qualité des produits
pédagogiques dans les écoles et il insiste sur le besoin de mettre a l'essai ces
produits, auprès de la population-cible avant sa diffusion.
Lors de sa participation à un projet de recherche, Komoski avait constaté
l'efficacité de l'évaluation formative dans l'amélioration des produits
pédagogiques télévisés conçus selon les processus de mise a l'essai et de
révision utilisés dans l'enseignement programmé (Komoski, 1966). D'après les
résultats obtenus, et a la suite d'une série de tâtonnements, Komoski propose
au gouvernement américain, en 1971, une approche pout réaliser l'évaluation
formative. Cette approche est connue sous le nom de Learner Verification and
Revision (LVR).
La définition de Kornoski et Woodward (1 985), se lit ainsi :
"The LVR process of instructional materials is an ongoing effort at the improvement of instructional materials based on systematic feedback from -as the primary source- learners who have used the materiais." (dans Larin, 1981, p.16).
"'expression Lemer Venfication and Revision peut être tnduite comme : Mise h l'essai et révision auprès des Çtudiants. (Beauchamp-Bellefeuille, Larriviére. et Stolovitch. 1980).
Le modèle de I'approche LVR a été représenté par Stolovitch et
Larocque (1 983, p.154) dans la figure 10, à la fin de ce chapitre.
L'originalité de I'approche d'évaluation formative proposée par Komoski
réside dans :
r l'accent mis sur I'apprenant comme source primaire des données
pour recueillir le feed-back sur le produit pédagogique;
O le cycle de mise a l'essai ininterrompu qui va au-delà de la diffusion
du produit.
Le détail sur ces deux aspects sont traités dans les lignes qui suivent.
2.3.3.2 L'apprenant comme source de données
La synthèse faite par Rodriguez et Rodriguez (1982)' révele le manque de
consensus dans les années 1960-1970 quant à la source de données a
privilégier lors de l'évaluation formative. Ceux qui favorisent I'expert comme
source de données (Basescu, 1963 et Lumsdaine, 1964) sont d'avis que les
informations recueillies auprès des apprenants ne sont pas suffisantes pour
déceler toutes les dysfonctions que pourrait comporter le produit pédagogique.
D'autre part, Montague, Ellis et Wulfeck (1983) proposent la méthode de
révision par I'expert. D'après ces auteurs, les données fournies par les experts
setvent a vérifier la pertinence du contenu, la séquence du contenu et la qualité
technique du matériel à tester. Ils ajoutent que le rapport coût-efficacité de cette
méthode est plus grande, comparé à la méthode qui favorise l'apprenant comme
source de données.
Toutefois, la recherche de Rothkopf (1963) conclut ii une corrélation
négative entre les recommandations faites par les experts sur un matériel
pédagogique et la performance des apprenants à t'aide de ce matériel. Weston
(1 987), Markle (1967) et Thiagarajan (1 978)' parmi d'autres, recommandent
d'utiliser les données de I'expert en combinaison avec ceux de I'apprenant.
Abedor (1972)' pour sa part, réalise une recherche qui montre que les
apprenants sont capables de déceler les failles d'un matériel pédagogique et
meme de proposer des solutions. De plus, Frase, de Gracie et Poston (1974)'
démontrent que la méthode de révision par {'expert a comme désavantage un
manque possible d'objectivité et une incapacité d'anticiper les problèmes des
apprenants.
Tessmer (1 993) considère que l'intervention de I'expert dans l'évaluation
formative est appropriée pour identifier les problèmes relatifs au contenu. Par
contre, il recommande que les faiblesses du matériel pédagogique au niveau de
l'utilisation soient décelées par I'apprenant. Dans ce sens, il est clair que la
participation de I'expert ou de I'apprenant dans l'évaluation formative dépend de
l'objectif d'évaluation recherché (Saroyan, 1993).
Toutes ces études appuient l'idée de considérer I'apprenant comme
source de données de rétroaction valide. D'autre part, elles mettent en relief
l'importance de la relation entre l'objectif de l'évaluation formative et la source
des données.
Si l'on regarde le schéma de la LVR proposé par Stolovitch (figure IO),
on constate que l'expert a une place dans le design d'un systéme
d'apprentissage. Toutefois, il se situe en dehors du champ d'application
proprement dit du LVR. Or, la participation de I'expert se limite notamment au
niveau de l'identification des besoins et a la vérification de l'exactitude du
contenu.
L'approche LVR n'est pas la seule forme d'évaluation formative qui utilise
les apprenants comme source de données (voir Weston, 1986). Henderson et
Nathenson (1976) proposent I'approche Developmental Testing (terme tiré des
travaux de Markle, 1967)' dans laquelle une version préliminaire du produit
pédagogique est mise à l'essai auprès des apprenants (individuellement ou en
groupe). Dick et Carey (1990) prônent I'approche connue comme <<modèle en
trois étapes>> (Three Stage Model). Cette approche consiste à mettre à l'essai
le prototype auprbs d'un apprenant. Puis, la version corrigée est soumise à un
groupe d'apprenants. Finalement, une deuxième version révisée est testée
dans une situation similaire aux conditions réelles dans lesquelles le produit sera
diffusé,
Quelle est donc la caractéristique originale de la LVR?
La prochaine Btape dans la démarche de caractérisation de la LVR
touche le deuxième aspect qui ressort dans la définition de I'approche LVR : le
cycle de mise à I'essai.
2.3.3.3 Cycle de mise à l'essai
Selon Weston (1995)' l'efficacité de l'évaluation formative n'est pas affectée ni
par le moment dans lequel les processus de mise à I'essai et de révision du
produit ont lieu ni par la fréquence avec laquelle ces processus sont réalisés.
Ainsi, l'évaluation formative peut être faite :
a tout au long du design du produit pédagogique (McAlpine, 1992b);
à un moment spécifique du design (Dick et Carey, 1990);
a pendant le design du produit et au-delà de sa diffusion (Komoski et
Woodward, 1 985).
Parmi les différentes formes d'évaluation formative favorisant l'apprenant
comme source de données, l'approche LVR est la seule à continuer le
processus d'évaluation après la diffusion du produit pédagogique testé
(Bordeleau, 1 978-79).
Stolovitch (1982) trouve dans cette caractéristique de la LVR des
applications intéressantes. Par exemple, l'adaptation à un matériel existant et
l'ajustement des nouvelles situations (une autre culture, un public-cible
différent, des nouveaux outils de communication, etc.), peut se traduire par des
économies d'effort et d'argent.
Dans le domaine du matériel pédagogique informatise, cet aspect qui
distingue la LVR s'avère particulièrement important. Dringus (1 995) signale le
besoin d'évaluer régulihrement l'environnement d'apprentissage tout au long de
son cycle de vie afin d'améliorer l'interface.
"By following a routine process for iterative usability evaluation of online course interfaces, insfructors will improve their course interfaces based on meaningful data and, in turn, strengthen the distance learner's opportunity for having a rich and an effective learning environment." (Dringus, 1995 p.14).
2.3.4 Modalités d'application de l'approche LVR
La LVR a suscité l'intérêt de nombreux travaux qui ont été conduits pour vérifier
l'efficacité de cette approche ainsi que pour clarifier les modalités d'application
de I'approche LVR. Parmi les sujets abordés, on distingue les suivants : la
nature du produit pédagogique, le stade de développement, le type d'apprenant,
le nombre d'apprenants, le type d'information, l'analyse de l'information et la
cessation de révisions.
2.3.4.1 Nature du produit pédagogique
Les travaux de Larin (1981) font ressortir que le matériel expérimental des
études utilisant la LVR comme approche d'évaluation formative porte
notamment sur des produits pédagogiques de type <<intégré>> (instructuring
materials)' et privilégie l'enseignement programmé.
Cet auteur s'intéresse a la ccgénéralisation>> des résultats de cette
approche. II réalise une expérimentation dans laquelle un produit pédagogique
de type <<formel>> (instructional material) est évalué à l'aide de la LVR. Les
résultats obtenus montrent que cette approche s'applique aussi bien aux
produits pédagogiques formels qu'aux produits intégrés.
Quant B l'assistance du produit pédagogique, on constate que I'approche
LVR a été employée efficacement pour améliorer différents types de matériels.
Un regard sur les écrits montre qu'autour des années soixante-dix, la grande
majorité des Btudes se concentrent sur du matériel pédagogique imprimé et, --
' Le matériel intégré (instructuring maierials) a comme canctéristique d'être cctds stmctur6 et destiné uniquement B I'enseignement (...il...) se différencie du matériel d'enseignement formel p m c qu'il est construit en fonction d'une "théorie d'apprentissagew>>. (Larin, 1981. p.23).
plus tard, sur l'audiovisuel. Une synthèse de travaux de Rodriguez et Rodriguez
(1 982) et Larin (1 981) montre les études suivantes :
O imprimé (Beauchamp-Bellefeuille et ai, 1980; Basescu, 1963; Abedor,
1972);
O audiovisuels et films (VanderMeer, 1964; Flemming, 1963; Rose et
Van Horn, 1956; Hovland et al, 1949);
programmes télévises (Burton et Aversa, 1979; Palmer, 1974;
Gropper et Lumsdaine, 1961);
O jeux et simulations (Stolovitch, 1976).
A la fin des années quatre-vingt et au début de la présente décennie, on
peut constater l'intérêt des auteurs pour l'évaluation formative du matériel
pédagogique assiste par ordinateur avec la participation de I'apprenant (Mauldin,
1996; Dringus, 1995; Northrup, 1995; Byrum, 1992) et des systèmes tutoriels
intelligents (Murray, 1993; Mark et Greer, 1993). Dans cette période, les travaux
s'inspirent en grande partie des test d'utilisabilité et du design d'interfaces (par
exemple : Nielsen, l992b; Gould, 1988; Winkels, 1 992).
II faut souligner que la plupart de ces auteurs ne font pas réference au
processus d'évaluation formative, tel que définie par Scriven. De plus, l'évaluation
porte uniquement sur I'utilisabilité du système. Elle vise l'identification des
problèmes majeurs au niveau de l'ingénierie du systeme. La tâche a accomplir est
rarement considérée (voir Kellog, 1989).
2.3.4.2 Stade de développement
Dans les années soixante-dix, on ne savait trop si i'état des prototypes avait ou
non une influence sur les données fournies par I'apprenant.
Stolovitch (1976) et Thiagarajan (1971) sont du même avis et ils
recommandent que le processus LVR soit entame le plus t6t possible dans le
développement du matériel pédagogique. Mais, est-ce que l'approche LVR est
aussi efficace lorsqu'elle débute dans une autre phase du développement?
La plupart des Btudes qui appliquent I'approche LVR ont évalué le
produit pédagogique au stade du prototype, ce qui ne permettait pas de
répondre à la question. Par contre, la recherche de Rodriguez et Rodriguez
(1981) qui visait cette question, conclut que I'approche LVR est efficace en
terme d'atteinte des objectifs à trois stades différents (scénario, document
intermédiaire et prototype). Néanmoins, ils suggèrent que si I'approche LVR est
appliquée une seule fois, qu'elle le soit au stade du storyboard. L'évaluation à
cette étape, selon ces auteurs, s'avère moins coûteuse et atteint le même
résultat en terme d'efficacité des révisions.
2.3.4.3 Type d'apprenant
Bien que la pertinence d'utiliser les apprenants comme source de données dans
l'évaluation formative soit généralement acceptee, il ne semble pas avoir
consensus sur le type d'apprenant a interroger.
Thiagarajan (1976), Komoski (1974) et Dick (1968) croient que les
apprenants brillants et <&es verbalisés>> (qui s'expriment bien) sont les
meilleures sources de données lors de l'évaluation formative. Cependant, la
recherche de 8erthelot (1978) montre qu'il n'existe pas de différence
significative entre un matériel r6visé a l'aide d'un étudiant moyennement ou
faiblement <<verbalisé>>. D'autre part, Wager (1983), trouve que l'apprenant
moyen est plus utile au designer.
2.3.4.4 Nombre d'apprenants
Parmi les études intéressées au nombre d'apprenants pour participer au
processus d'évaluation formative figure celle de Robeck (1 965)' qui met à I'essai
un texte d'enseignement programmé auprès d'un seul élève. Suite à la révision
du texte, il procède a sa mise a I'essai auprès d'un autre élève. Cet auteur
conclut que l'utilisation d'un seul élève pour la révision est efficace, mais que les
révisions doivent tenir compte «du niveau de verbalisation de l'élève et de son
potentiel intellectuel ainsi que du nombre de révisions nécessaires pour
l'obtention d'un programme valable.>> (Larin, 1981, p.34).
Sur un autre plan, les études se sont préoccupées pour connaître quel
mode de cueillette de données (tutoriel ou de groupe) était le plus efficace. Les
résultats des recherches (Kandaswamy, 1976b; et Baghdadi, 1981 ) indiquent
qu'il n'existe pas de différence significative dans l'efficacité, en terme d'atteinte
des objectifs, entre deux produits pédagogiques révisés a l'aide de l'un ou de
t'autre mode respectivement.
Plus tard, Weston (1986) a conduit une étude qui compare le mode
tuteur avec deux types de mode de groupe (deux apprenants et six apprenants).
Elle conclut que le mode de groupe avec deux apprenants est préférable car il
fournit plus d'informations. Cependant, les résultats dépendent d'autres
variables : le rde de I'évaluateur et de I'apprenant lors de la cueillette de
données ainsi que le type de I'apprenant. Nous reviendrons plus tard sur cet
aspect.
Dans la même orientation, Byrum (1992) compare l'efficacité du mode
tuteur avec le mode de groupe lors de l'évaluation formative d'un didacticiel. II
conclut qu'il n'y a pas de différence significative entre les notes obtenues par les
apprenants dans le post-test des produits révisés selon te mode tuteur et les
notes obtenues par ceux utilisant les produits révisés d'apres le mode de
groupe.
Bien que les études ne démontrent pas qu'une méthode de cueillette de
données soit supérieure a l'autre, elles suggèrent que l'évaluation formative
résulte dans des produits pédagogiques améliorés par rapport aux produits
n'étant pas soumis à ce type d'évaluation (Weston, 1986, p.6).
2.3.4.5 Séquence des modes de cueillette de données
Kandaswamy (1976b) et Baghdadi (1 980) réussissent a démontrer que <<l'ordre
de passage du mode tuteur (one-to-one) avant le mode de groupe (groupe
testing) ou vice versa n'a pas d'influence>> (voir aussi Larin, 1981).
Les recherches montrent qu'il n'est pas nécessaire d'utiliser les deux
modes de cueillette de données. Le mode tuteur s'avère suffisant. Ceci a été
confirmé par les recherches de Byrum (1992) et de Wager (1983). Mais,
comment sélectionner le mode de cueillette de données à utiliser? L'approche
LVR préconise que le choix d'un mode s'étabtit d'apres le type de données
recherchées.
2.3.4.6 Type de données
D'après Thiagarajan (1 976)' plus le nombre d'informations recueillies est grand,
plus elles seront utiles lors de la révision du matériel pédagogique. Dick (1968),
pour sa part, pense qu'il conviendrait mieux d'utiliser des informations de type
affectif en plus des informations de performance.
La recherche de Dupont (1977) vient confirmer ces propositions. Elle
indique que la version du matériel pédagogique révisée a I'aide des informations
provenant d'un post-test criterié et d'un questionnaire de rétroaction est plus
efficace que la version tenant compte des résultats du post-test uniquement.
Larivière, Beauchamp et Stolovitch (1980), appliquent l'approche LVR a
trois produits pédagogiques. Les informations sont obtenues d'après un
questionnaire de rétroaction et d'exercices d'application. Ils concluent que
ccplus la qualité des informations est élevée, meilleures seront les améliorations
apportées au document initial.>> (p.81).
De plus, l'étude expérimentale de Medley et Weston (1988) compare la
nature (quantitative et qualitative) des données obtenues a I'aide de deux
méthodes de cueillette de données d'apres l'approche LVR : le mode tuteur et le
mode groupe.
Les auteurs signalent que le mode tuteur permet d'identifier un plus
grand nombre de failles dans un produit pédagogique que le mode groupe.
L'apprenant en situation de mode tuteur identifie des problèmes de détail, mais
les problèmes identifiés ne le sont pas nécessairement pcur d'autres
apprenants. Les données recueillies dans le mode groupe portent sur des
problèmes redondants.
2.3.4.7 Le rôle de I'apprenant et le rôle de I'évaluateur
Apprenant
Weston (1986) pense que le rdle que jouent I'apprenant et I'évaluateur lors de la
cueillette de données détermine le type d'information recueillie. Leur rôle se
situe quelque part dans un continuum allant du passif au actif. Le tableau 1
présente quelques caractéristiques des rôles se trouvant dans les deux
extrêmes.
Evaluateur r Passif Actif
Tableau 1. CaracttMstiques du rdle de l'apprenant e l du rôle de I'dvaluateur lors de ta cuelllrtte de donn6es (volr Weston, 1906).
Réalise les tâches indiquées dans le matériel pédagogique
Administre la mise à l'essai, distribue le matériel pédagogique.
2.3.4.8 Révision
Pose des questions, avance des commentaires et des suggestions, fait des révisions.
Explique, donne des exemples, avance des commentaires et des suggestions, fait des révisions.
L'aspect de systématisation de la révision est une caractéristique souvent
négligée de l'évaluation formative. Néanmoins, certains recommandations ont
été avancées. Pour Thiagarajan (1976) la révision consiste à simplifier le
langage, augmenter les illustrations et les exemples, améliorer la présentation et
offrir des alternatives (dans Larin, 1981, p.52). Debert (1 979) présente une liste
de types de révisions dans laquelle on distingue trois catégories : (1) ajouter
(illustrations, rétroaction, etc.), (2) simplifier (combiner les matériels en unités
plus grandes, réduire le niveau de complexité, etc.), et (3) autres (changer le
format).
Dupont (1980) propose une méthode d'interprétation des données des
apprenants pour procéder a la révision de produits pédagogiques. II se base sur
le modèle de Gropper (1975). Par contre, l'efficacité de ce modèle n'est pas
significative dans la révision des produits. II est à noter que le modèle s'avere
plus utile aux réviseurs qui possèdent moins d'expérience qu'à ceux qui sont
plus expérimentés.
2.3.4.9 Cessation des révisions
L'article de Weston (1986) met en relief l'absence d'études empiriques pour
déterminer la fin du cycle de mise a l'essai et révision de l'évaluation formative.
L'apport de la LVR sur ce sujet provient de la recherche d'Abedor (1972)' qui
recommande d'arrbter les r6visionç du produit pédagogique lorsque le taux
d'échec des apprenants est réduit à 30%. 11 faut préciser qu'il s'agit d'un
pourcentage arbitraire.
La recherche conduite par Larivière, Beauchamp et Stolovitch (1 980)
démontre qu'on obtient une amélioration du matériel pédagogique en termes
d'objectifs atteints dans les versions révisées selon I'approche LVR. En général,
cette amélioration est progressive au fur et a mesure des modifications. Les révisions cessent dbs qu'on atteint le 80% de réussite. Ce pourcentage est
arbitraire.
Picard (1992)' pour sa part, a réalisé une étude longitudinale qui s'est
déroulée de 1982 à 1988. Elle développe un produit pédagogique d'après des
étapes du processus d'apprentissage et applique I'approche LVR. Le cycle de
révision et mise à l'essai s'effectue cinq fois. Ses résultats confirment que
l'efficacité s'améliore avec les révisions (la quatrième version est plus efficace
que les précedentes en termes de performance des élèves). En général, sa
recherche indique que le groupe expérimental avec qui on a utilisé I'approche
LVR a atteint des meilleurs résultats que le groupe contrôle.
2.3.4.10 Méthodes de cueillette des données
Dans le tableau de recommandations pour obtenir le feed-back de I'apprenant,
Weston (1 986) signale les méthodes de cueillette des données suivantes :
enregistrement sonore ou écrit des interactions (verbales et non
verbales) entre l'apprenant et le concepteur;
passation d'un prétest et d'un post-test pour mesurer l'apprentissage;
application d'un questionnaire d'attitudes pour obtenir des
informations sur la réponse affective de I'apprenant;
debriefing sessions, afin de recueillir des commentaires additionnels.
McAlpine (1987), pour sa part, favorise la pensée a voix haute (think
aloud protocol) comme méthode pour identifier les difficultés éprouvées par les
apprenants lors de la mise à l'essai du produit pédagogique. II s'agit
d'encourager I'apprenant à verbaliser toutes ses pensées pendant qu'il réalise
une tâche d'apprentissage. (Voir aussi Gomoll, 1990).
Cette méthode a été utilisée par Vanasse (1990) dans le cadre du
développement des ressources d'aide sur demande, enrichies d'exemples.
Saroyan (1993) a employé le think aloud protocol pour recueillir la rbtroaction
d'experts participant à l'évaluation formative d'un produit. L'auteur prétend que
cette méthode permet l'obtention des informations sur la structure cognitive des
processus impliqués dans la réalisation d'une tâche. Par contre, tout comme
d'autres auteurs (voir Black, Galambos et Reiser, 1984; Cooper et Hotzman,
1985; Ericsson et Simon, 1984), elle reconnaît que, lors de l'utilisation de cette
méthode, le temps d'accomplissement de la tâche peut être rallongé. Pour cette
raison, la pensée à haute voix peut être un inconvénient lorsque la variable "time
on task" est importante lors de I'évaluation.
Medley-Mark et Weston (1988) ont constaté que lorsque I'apprenant
participe à l'évaluation formative dans un mode tuteur, en verbalisant sa pensée,
la cueillette de données peut être très ardue pour le concepteur. Étant donné
que I'apprenant parle sans interruption pendant au moins une heure, il est
difficile de faire la transcription des informations.
Comme il a été mentionné à la section 2.2.5.1, selon Murray (1993)' la
méthode la plus appropriée pour obtenir des données sur les processus cognitifs
et pour identifier les difficultés des apprenants en vue d'une amélioration d'un
systéme informatique est le dialogue avec l'usager. Dans cette optique, de la
Teja et Liégeois ont mis au point une technique de cueillette de données
nommée -<<Magicien d'Oz>>, permettant d'identifier la difficulté à partir de
questions (demandes d'aide) formulées par les apprenants, dans un contexte
d'environnement informatisé de téléformation.
II convient de remarque que dans la recherche de Hill Duin (1988), les
difficultés ont été aussi identifiées à partir des questions posées par les
apprenants.
2.3.4.1 1 Résumé
La deuxième section de ce chapitre a tenté de définir I'approche LVR et de
cerner la pertinence d'utiliser cette approche dans l'amélioration des RDA dans
le cadre des EIT. Les écrits recensés ont mis en évidence que l'approche LVR
répond au souci constant d'améliorer l'efficacité du matériel pédagogique. De
plus, elle semble efficace dans divers type de matériel.
L'approche LVR se caractérise par la participation de I'apprenant dans
l'identification des difficultés d'un produit pédagogique. Elle se distingue par son
intérêt a continuer le cycle de mise à l'essai et révision au-delà de la diffusion du
produit pédagogique. Cette orientation répond aux besoins imposés par les EIT
: la transformation constante de la technologie, le changement de méthodes
pédagogiques, l'accroissement des connaissances et la diversité de clientèles.
Si l'on considère les recommandations qui se dégagent de ce chapitre
concernant le design des RDA, on constate qu'elles correspondent aux principes
de la LVR, à savoir :
a procéder à la mise a l'essai continuelle du prototype, le plus tôt
possible dans le développement et dans une situation réaliste;
utiliser des sujets du public-cible;
a recueillir les données sur la difficulté des que l'apprenant l'identifie;
a réviser le prototype à partir des difficultés identifiées;
0 évaluer l'efficacité de la révision à l'aide d'une mise à l'essai.
Étant donné que, jusqu'à prdsent, la LVR a été utilisée pour améliorer le
produit pédagogique et non pour améliorer la ressource d'aide à t'utilisation, il
apparaît important de vérifier l'efficacité de la LVR dans ce contexte. C'est le
thème qui sera abordé au chapitre 3. Mais avant, il convient de faire ressortir
les principales définitions opérationnelles dégagées de l'état de connaissances
dont le présent chapitre fait l'objet.
Environnement informatisé de téleformation (EIT) Organisation spatiale et
temporelle des ressources technologiques, humaines et pédagogiques
ayant pour but la formation a distance. Les ressources technologiques
(en particulier les objets techniques tel que l'ordinateur, les logiciels, les
didacticiels, etc.) setvent d'intermédiaires dans les relations entre les
autres ressources.
Interface Sorte de ressource d'aide. Site cognitif d'interaction entre l'apprenant
et I'ordinateur. En général, ce site se trouve à l'écran de I'ordinateur.
Fequently Asked Questions (FAQ) Sorte de ressource d'aide. Liste recueillant
les questions que les usagers posent fréquemment sur un sujet
spécifique. Cette liste peut être consultée lors d'une difficulté à
l'utilisation.
Learner Verification and Revision (LVR) Approche d'évaluation formative
employant les données fournies par les apprenants pour réviser un
produit pédagogique.
Ressources d'aide à l'utilisation (RDA) Ensemble de moyens non humains
pour assister l'apprenant a l'utilisation de l'environnement informatisé de
t61éformation. Dans le cadre d'un EIT, la RDA est un produit
pédagogique dont i'objectif est de faciliter l'utilisation des objet
technologiques pour permettre I'accomplissement des tâches
d'apprentissage.
Ressource d'aide sur demande Sorte de ressource d'aide. Fourni des
renseignements sur le sujet sollicité par l'apprenant, au moment ou
celui-ci fait la demande.
Ressources technologiques d'un EIT Ensemble de moyens informatisés
employés pour mettre en relation les différentes ressources (humaines
et pédagogiques) d'un EIT. Les ressources technologiques sont
composées par des objets techniques informatisés (ordinateurs,
programmes, logiciels, didacticiels, etc.), les procédés de conception,
de production ou d'utilisation desdits objets.
1 non
Rdsuitats Dlagnosliquer les lacunes i
Proiolype matdriel
pddagogique
Elleefuer 1 montage tinal
- .
Evaiuation somrnative
OUI
Figure 10. Modèle de I'approche LVR (Stolovitch et Larocque, 1983, p.154)
Modifier le maleriel pedagogique
Vdrificatlon '
-- -. - - -. L A
. - - - v
Essai aupres de l'apprenant
Recueil de donnees
A
Prescrire les modificalions ,
1
CHAPITRE 3
Cadre expérimen ta1
Suite à la recension des écrits réalisée dans le chapitre 2, le chapitre 3 se
propose premièrement d'énoncer les hypothèses de la présente recherche, puis
de décrire les variables ainsi que le design expérimental retenu pour vérifier les
hypotheses.
3.1 Hypothèses
Au début de ce projet, le besoin se fait sentir d'aborder le problème posé par la
difficulté à utiliser la technologie dans le cadre d'un environnement informatisé
de téleformation (EIT), plus particulièrement, sous l'angle de l'amélioration des
ressources d'aide (RDA) avant la diffusion du matériel pédagogique. Une
solution a été proposée permettant au designer de faciliter a I'apprenant
l'utilisation de la technologie. Elle consiste a intégrer l'évaluation formative; plus
précisément, elle propose I'approche Learner Verification and Revision (LVR),
dans le processus de développement d'un EIT.
De la est née la question générale de la recherche énoncée ainsi :
L'intégration de I'approche LVR au développement du matériel
pédagogique dans le cadre d'un environnement informatisé de
téléformation améliore-telle l'efficacité des ressources d'aide?
Pour répondre a cette question, l'état des recherches a été examiné. II
ressort que les deux aspects intervenant dans l'amélioration des RDA
correspondent aux caractéristiques essentielles de I'approche LVR :
l'identification des difficultés de l'apprenant dans un contexte d'utilisation réaliste
et la révision itérative du prototype de la ressource auprès de I'apprenant.
Divers auteurs ont contribu4 & accrdditer I'idde :
1. que I'approche LVR ameliore I'efficacitd du materiel pedagogique en
terme de temps d'accomplissement et de nombre de problhmes
rencontrés (Baghdadi 1 980; Picard, 1992);
2. que les RDA ameliorees diminuent le temps d'accomplissement de la
tâche et diminuent le nombre de problhmes d'utilisation rencontres
par l'usager (Carroll, Smith-Kerker, Ford et Mazur-Rimetz, 1987-
1988; Sullivan et Chapanis, 1983; Byron, 1992; Murray, 1993).
Les dcrits consultés mettent en Bvidence que, jusqu'h présent,
I'approche LVR a été utilisée pour arndiorer le materiel pddagogique dans son
ensemble. L'efficacité de cette approche appliquee I'am6lioration des RDA n'a
pas 4t6 testée. De plus, i'am6lioration des RDA n'a pas été réalisde dans le
cadre d'un environnement informatis6 de tdl8formation.
A la lumière de ces considdrations, nous émettons I'hypothése générale
suivante :
Hypothh générale
L'intégration de I'approche LVR au développement des RDA, dans le cadre d'un EIT, améliore l'efficacité des ressources d'aide en terme de réduction du temps d'accomplissement des tâches et de rdduction du nombre de problèmes d'utilisation.
Raisonnement de soutien
Des nombreuses études ont montre que la LVR est une approche d'8valuation
formative efficace permettant d'assurer l'atteinte des buts du matériel
pddagogique dvalue par l'identification des aspects probldmatiques puis, par la
révision du matériel (entre autres : Picard, 1992; Byrum, 1992; Larin, 1981 ;
Rodriguez et Rodriguez, 1982; Dupont, 1980; Beauchamp-Bellefeuille et al,
1980; Abedor, 1972; Kandaswarny, 1976a, 1976b; Baghdadi, 1981).
La LVR a été testée sur divers types de matériel pédagogique, mais pas
sur les ressources d'aide à l'utilisation. Cependant, il est plausible que la LVR
favorise l'atteinte des buts des RDA car plusieurs travaux suggèrent que ces
ressources peuvent être développees et améliorées par un processus dans
lequel la mise a l'essai et la révision se succèdent de façon itérative (Wright,
1991; Redish, Felker et Rose, 1981 ; Duffy, 1981; Carroll et Rosson, 1987;
Sullivan et Chapanis, 1983).
Comme ce processus s'avère efficace pour réduire le temps
d'accomplissement des tâches et pour diminuer le nombre de problemes
d'utilisation, et que ce processus a une grande similitude avec celui proposé par
I'approche LVR, il y a lieu de croire que la LVR puisse être efficace a ces deux
niveaux.
A partir de ce raisonnement, il possible d'émettre deux premières
hypotheses. L'hypothèse 1 concerne le temps d'accomplissement des tâches et
l'hypothèse 2 porte sur le nombre de problemes d'utilisation rencontrés. Un
rejet de l'une de ces deux hypotheses ne signifie pas nécessairement la non-
efficacité de I'approche LVR.
Puisque le développement de ia ressource d'aide sur demande se fera à
partir de l'identification des difficultés a l'utilisation du prototype d'un matériel
pédagogique, on peut penser que les révisions peuvent servir à améliorer le
prototype même.
A cet égard, on peut supposer que les révisions visant a réduire le temps
d'accomplissement des tâches ainsi qu'à diminuer le nombre de problemes
d'utilisation rencontrés, peuvent se faire au plan de l'interface. De plus,
plusieurs études indiquent que l'amélioration de l'interface peut être faite au
moyen d'un processus similaire à celui proposé par la LVR (Nielsen, 1 W2b;
Winkels, 1992; Gould, 1988). Ce qui nous amène aux hypotheses 3 et 4.
Comme il a été signalé dans le recensement des écrits, la plupart des
études concernant l'amélioration des RDA se concentrent sur les RDA
imprimees et sur les RDA sur demande. L'absence de travaux sur I'amélioration
de la RDA <<interface>> justifie l'intérêt a vérifier ces hypothèses.
L'intégration de I'approche LVR au développement des RDA d'un EIT
amdlfore I'efficacitd de la ressource d'aide sur demande en terme de
réduction du temps d'accomplissement des taches.
D'après cette hypothèse, l'amélioration de la ressource d'aide sur
demande devrait être observée par le temps que l'apprenant utilise pour réaliser
une tâche. Les travaux de Carroll (1992) montrent que la version améliorée de
la ressource d'aide résulte dans un matériel permettant a I'usager d'accomplir
des taches dans un temps plus court que l'usager utilisant la ressource d'aide
originale (Training Wheels, dans Carroll, 1990, p.204).
De plus, les écrits recensés indiquent que la consultation de la ressource
d'aide fait diversion à I'accomplissement d'une tache car elle détourne l'attention
originale de l'usager (Carroll et Rosson, t987; Ridway, 1987; McGraw, 1994).
Dans ce sens, il est possible de penser qu'il existe une relation entre la
ressource d'aide améliorée et le temps d'accomplissement d'une tâche dans le
contexte d'un EIT.
3.1.4 Hypothèse 2
L'intégration de l'approche LVR au développement des RDA d'un EIT
amhllore l'efficacité de fa ressource d'aide sur demande en terme de
rdductian du nombre de problémes d'utilisation rencontrés.
Considérant que :
(1) le développement des RDA se fait par la mise à l'essai du prototype et par
des révisions itératives, (Sullivan et Chapanis, 1983)'
(2) l'usager rencontre moins de problèmes lorsqu'il utilise un système
informatique avec une aide sur demande améliorée, que I'usager utilisant le
même systhrne avec l'aide sur demande originale, (Carroll, 1992, 1990),
la relation entre la ressource d'aide améliorée et le nombre de problémes
d'utilisation rencontrés est avancée.
3.1.5 Hypothese 3
L'intégration de l'approche LVR au développement des RDA d'un EIT
améliore l'efficacité de I'interface du matériel pédagogique en terme de
réduction du temps d'accomplissement des tâches.
La plupart des écrits consultés sur l'amélioration de I'interface d'un
systéme soulignent I'efficacité de mettre à l'essai le prototype auprès de la
population cible, et ensuite de faire les r6visions (Dringus, 1995; Nielsen,
1992a). Lors de la mise au point d'un instrument pour identifier les difficultés de
I'apprenant Si distance, De la Teja et Liégeois (1995) ont constat6 que les
difficultés de l'utilisation d'un EIT permettent de réviser I'interface de
l'environnement. L'apprenant utilisant I'interface améliorée a réalisé un plus
grand nombre de tâches dans un temps plus court que I'apprenant utilisant
I'interface originale. Suite à ces considérations, il semble possible d'envisager
une relation entre le développement des RDA d'aprés I'approche LVR et
I'amélioration de I'interface au niveau du temps d'accomplissement.
3.1.6 Hypothese 4
L'intégration de I'approche LVR au développement des RDA d'un EIT
améliore l'efficacité de I'interface du matériel pédagogique en terme de
rdduction du nombre de probkmes d'utilisation rencontrés.
Cette hypothèse est énoncée sur la base de l'étude de De la Teja et
Liégeois (1995) déjh mentionnée, dans laquelle on obtient des résultats
favorisant I'interface amélior6e au niveau de la diminution du nombre de
demandes d'aide venant de I'apprenant, comparativement à I'interface originale.
t'intérêt de cette hypothhse se trouve dans le fait que I'amélioration de
I'interface n'a pas été testée dans le cadre du developpernent des RDA.
3.2 Variables
Les variables qui découlent des hypothéses sont présentées dans le tableau 2.
LVR, - absence de vérification LVR, - premibre vbrification LVR, - deuxième verification
Hypothèse
Hl
Nombre de problèmes d'utilisation rencontrés.
Variables indépendantes
LVR, - absence de vérification LVR, - premiere vérification LVR, - deuxième vérification
Temps d'accomplissement des taches.
Nombre de problèmes d'utilisation rencontrés.
Variables dépendantes
Temps d'accomplissement des thches.
H3
H4
Tableau 2. Variables indépendantes et variablas ddpendantes retenues dans la prdsente recherche.
LVR, - absence de vérification LVR, - première vérification
LVR, - absence de vérification LVR, - premiere verification
3.2.1 Variables indépendantes
La variable indépendante est constituée par l'emploi ou non emploi de la LVR au
développement de la RDA. On distingue trois conditions d'emploi :
LVR,- consiste au non emploi de la LVR (identification des difficultés
sans révision du prototype).
LVR, - consiste a l'emploi l'approche LVR au niveau de l'identification
des difficultés et de la révision du prototype.
LVR,- consiste a l'emploi la LVR pour identifier les difficultés et réviser
la premiere version de la RDA.
Dans les hypothèses 1 et 2 l'approche LVR est appliquée d'abord au
déueloppement de la ressource d'aide sur demande, ensuite a l'amélioration de
cette ressource. Ces hypothèses définissent ainsi un réseau de relations dans
lequel interviennent les trois conditions de ta variable : LVR, LVR, et LVR,. Dans
ce réseau, la variable LVR, est la première vérification du prototype mais elle est
aussi absence de vérification de la ressource d'aide. Dans ie premier cas, elle
permet d'établir le rapport entre l'absence de vérification du prototype (LVR,) et
la première rdvision du prototype. Dans le deuxibme cas, elle met en relation fa
ressource d'aide sans vérification avec la ressource d'aide vérifiée (LW,).
3.2.2 Variables dependantes
Les variables dépendantes sont au nombre de deux :
1. Temps d'accomplissement des tâches - consiste à mesurer (en
minutes) l'intervalle de temps employé par chaque participant pour
accomplir l'ensemble des tâches demandées.
2. Nombre de problèmes d'utilisation - consiste a mesurer le nombre de
fois que l'apprenant demande de l'aide pour résoudre une difficulté a
l'utilisation.
3.3 Design expérimental
Pour vérifier les hypothèses énoncées, quatre groupes d'apprenants
représentatifs de la clientèle cible, sélectionnés au hasard (RI ) ont participe a
l'expérimentation. Chaque groupe a été compose de huit sujets. Les
participants ont été assignés, au hasard, l'un des quatre traitements (X,). Les mesures correspondantes à chaque traitement (O, ) sont représentées dans le
tableau ci-dessous.
Tableau 3. Mesures retenues pour chaqua traitement.
La colonne X, représente les quatre traitements suivants :
x, Prototype du ElT
x 4
Les traitements
Prototype du EIT + prototype d'aide
sur demande
Prototype du EIT + prototype d'aide
sur demande révisée
EIT révisé
X, , X, . et X, correspondent au processus de
développement de la ressource d'aide sur demande, selon l'approche LVR. Le
traitement X, constitue I'interface révisée du système. La figure 11 représente le
processus de développement de la ressource d'aide et de l'amélioration de
l'interface.
.................. DéveIoppemcnt de la ressource d'aide sur demande
............ Amélioration de l'interface
Figure 11. Processus de développement de la rssource d'aide sur demande ci de I'méliorption de l'interface.
D'autre part,
0, 0, O, et 0, représentent la mesure du temps d'accomplissement
de l'ensemble des tâches;
O O, , 0, O, et 0, représentent la mesure du nombre de problèmes
d'utilisation rencontrés par rapprenant.
3.4 Le contexte d'expérimentation
Étant donné que la présente recherche s'intéresse à l'amélioration des RDA
dans le contexte des EIT, un matériel expérimental correspondant à l'intention
de cette recherche s'avère nécessaire. Les caractéristiques du matériel
employé sont brièvement décrites dans les lignes ci-dessous.
3.4.1 Matériel expérimental
Compte tenu de la participation de I'auteure dans l'équipe d'élaboration d'un
cours de la Télé-université dans un contexte de <<Campus Virtuel>>, et compte
tenu que le processus de design utilisé permet l'intégration de l'approche LVR
dans le design du développement des RDA, le choix du matériel expérimental
porte sur le cours <<Formation et compétitivité>>.
Ce cours est réalise par le Centre de recherche LlCEF (Laboratoire
d'informatique cognitive et environnements de formation), de la Télé-université.
II s'agit d'un cours de premier cycle dans le domaine de l'économie. L'objectif
général du cours est d'initier I'apprenant aux éléments de base intervenant dans
l'analyse du modèle de formation d'un pays à partir d'une approche théorique et
d'une approche empirique.
Le cours a été conçu en utilisant la métaphore d'un colloque. Les
activités d'apprentissage se déroulent dans un environnement virtuel. En bref,
I'apprenant doit soumettre une communication et, si elle est retenue par le
comité d'arbitrage du colloque (l'équipe de tuteurs), il doit la présenter au groupe
lors d'un panel. Si la communication n'est pas retenue, il doit participer
activement dans les débats des différents panels du colloque. La synthèse que
I'apprenant réalise pour chaque panel lui permet de se préparer pour la
passation de l'examen à la fin du cours.
Le Colloque Virtuel (CoVi) est un environnement informatisé de
téléformation dans lequel I'apprenant peut participer a des ateliers afin de
rédiger sa communication. Dans cet environnement, I'apprenant peut utiliser
différentes technologies pour consulter les documents (CD ROM, base
documentaire, réseau Internet). Divers outils de communication lui permettent
d'accéder de façon synchrone et asynchrone à ses pairs et aux tuteurs
(messagerie, vidéoconfërence, téléconférence). De pius, il dispose de plusieurs
applications tels un traitement de texte et un logiciel de présentation.
t'apprenant travaille tant& individuellement, tantôt en équipe. Le
cheminement de I'apprenant est déterminé par le choix du sujet de la
communication qu'il propose et par les résultats obtenus lors de la sélection des
communications.
Le grand nombre d'outils techniques à utiliser que requiert le Colloque
virtuel pour la réalisation des activités d'apprentissage, ainsi que l'apprentissage
en groupe font du cours <<Formation et compétitivité>> un matériel
expérimental pertinent à la vérification des hypothèses de recherche du présent
projet.
Pour les besoins de l'expérimentation, seules certaines activités du
colloque ont été retenues. Elles correspondent au scénario d'apprentissage
conçu pour tester l'environnement technologique dans sa phase de prototype.
Ces activités correspondent aux modules ccinscription au colloque>>,
<<rédaction d'une corn muni cation^^, <<participation au colloque>> et
<<évaluation de la communication>>. Le tableau 4 montre les tdiches a
accomplir dans ces modules.
Tâche 1. S'inscrire au colloque
1 communication 1 thématiques multimédia. 1
Activitb Sélectionner un thème pour rédiger une communication. Compléter le formulaire d'inscription.
2. Rédiger une Envoyer le formulaire d'inscription. Rechercher l'information dans les kiosques
Commentedannoter le document de l'autre membre de l'atelier. Établir une discussion avec l'autre membre de
3. Participer au colloque Rédiger une synthèse préliminaire. Déposer la communication dans I'atelier.
1 communication 1 d'évaluation. 1 4. Faire évaluer sa
Tableau 4. Taches que l'apprenant doit accomplir lors da l'expérimentation.
l'atelier. Déposer sa communication dans le bureau
3.4.2 Site de I'expérimentation
Les installations retenues pour i'expérimentation se trouvent au Centre de
recherche LICEF. L'équipement utilisé consiste en cinq ordinateurs Pentium 75
ayant un minimum de 16 Meg de mémoire libre, équipes d'un disque dur de 30
Meg, avec le systbme Windows 95, camkra vidéo, haut parleurs, microphone,
LUI
logiciel MS Office et le logiciel Connectix. Étant donné les contraintes dans le
nombre d'ordinateurs disponibles possédant ces caractéristiques, le nombre de
participants dans chacun des traitements (huit) a été scindé en deux. Cela a
donné lieu a deux séances par traitement, permettant à quatre personnes de
travailler en équipe. La figure ci-dessous représente la distribution des postes
de travail des sujets participants.
Poste de Poste de
.....................,.................+...... Poste de ........................... .................................... j
Poste de Poste de travail de travail de
Figure 12. Disidbution des postes de invail lnrs de I'erpérimentaiion.
Les apprenants sont situés dans différents bureaux. Pour communiquer
entre eux, ils disposent de divers outils : vidéoconférence, messagerie
synchrone du type <<chab> . Lors d'une difficulté d'utilisation, ils peuvent
écrire une demande d'aide au Magicien d'Oz, qui est un expérimentateur situé
dans une autre salle.
3.4.3 instruments de cueillette de données
Temps d'accomplissement
Le temps d'accomplissement a été mesuré en nombre de minutes, en calculant
l'intervalle de l'accomplissement de I'ensemble des taches demandées.
L'horloge int6gré a l'ordinateur de chaque participant a été employé pour
indiquer le moment signalé comme départ de la mise à l'essai. Le temps
d'arrivé a été mesuré au moment où l'apprenant déposait sa communication
dans le bureau d'évaluation. Le logiciel MS Mail servant a la réalisation de cette
tâche enregistrait le temps de I'accomplissement de la tâche et pouvait être lu
par les exp6rimentateurs.
Nombre de problems
Le nombre de problèmes rencontrés par les participants a été mesuré au moyen
de la technique du Magicien d'Oz.
La technique du Magicien d'Oz a été décrite au chapitre 2 de la présente
recherche. En bref, lorsque l'usager rencontre une difficulté, il peut demander
de l'aide par le biais d'une aide intelligente simulée. Un agent humain (le
Magicien d'Oz), situé généralement dans un endroit différent de l'usager, répond
aux questions posées. Le dialogue (question-réponse) est conservé dans le
système pour être analysé par la suite.
Étant donné que le matériel expérimental se trouvait en phase de
prototype, il a fallu considérer la possibilité qu'apparaissent de probtemes
techniques. Le cas échéant, les demandes d'aide étaient acheminées aux
expérimentateurs, qui solutionnaient les problèmes rencontrés, puis, les
consignaient dans une grille.
La somme de demandes d'aide faites au Magicien eüou aux
expérimentateurs donne la mesure du nombre de problèmes rencontrés par
participant.
Cueillette des données
Les données, recueillies a chaque mise a l'essai, ont servi a tester les
hypothèses énoncées précédemment. Le tableau 5 montre le type de données
recherchées dans les différents traitements (T) ayant été employés pour tester
chacune des hypothéses (H).
H Donnée recueillie
1 Temps d'accomplissement des tâches
2
3.4.4 Traitements
Nombre de problèmes d'utilisation rencontrés
3
4
Dans le traitement 1, les participants utilisaient le prototype du cours Formation
et compétitivité pour accomplir les taches demandées. Les participants du
traitement 2 accomplissaient ces tâches au moyen du prototype du cours mais il
comprenait une ressource d'aide sur demande. Dans le traitement 3, les
participants utilisaient le prototype du cours avec une version r6visee de la ressource d'aide sur demande. Enfin, dans le traitement 4, les participants
employaient le prototype du cours avec une interface révisée. Le tableau 6 offre
une synthèse du matériel expérimental ayant servi a chaque traitement.
Temps d'accomplissement des tâches
Nombre de problèmes d'utilisation rencontrés
Traitement C---
Tableau 5. Données recherchhs par traii
Matériel expérimental
Prototype
Prototype + FAQ
Prototype + FAQ révisée
Prototype avec interface révisée
Tableau 6. Maldrkl expdrlmsntal amployd dans chacun des traitements.
Les traitements ont été mis à l'essai dans l'ordre présenté au tableau ci-
dessus. Bien que le traitement 1 sert pour développer le traitement 2 et que
celui-ci permet le développement du traitement 3, il faut remarquer que le
traitement 4 découle du traitement 1 et non pas du traitement 3.
La ressource d'aide sur demande développée avec l'approche LVR est
de type Frequently Asked Questions (FAQ). Comme il a été mentionné au
chapitre 2, une FAQ est une liste des questions posées fréquemment par un
groupe ayant les mêmes intérêts. L'usager cherche la question qui représente
le mieux sa demande d'aide. En général, pour obtenir la réponse, il suffit de
sélectionner la question avec le curseur.
Le choix de cette ressource d'aide dans la présente recherche est motivé
par les travaux de Wright (1991) qui, comme il a été dit au chapitre 2, ont mis en
lumière que pour résoudre un problème d'utilisation, les usagers d'un système
informatique commencent par formuler une question. De plus, la FAQ
correspond aux ressources des logiciels utilisés dans l'expérimentation. En
effet, MS Office offre une aide dans laquelle l'usager peut écrire sa demande et
la préciser a partir des questions qui lui sont suggérées. Une FAQ s'avère
appropriée à une clientèle hétérogène dont les connaissances en informatique
sont diverses.
3.4.5 Sujets
Les participants à l'expérimentation correspondent au profil de la clientèle visée
par le cours Formation et compétitivité version Campus virtuel. Ce cours a été
développe en tenant compte d'une clientèle variée au niveau d'âge et de
scolarité. La scolarité minimale correspond au niveau CEGEP ou équivalent, ou
possédant une expérience directe en matière de formation prafessionnelle.
D'autre part, dans ce cours il est possible aussi de trouver des individus avec un
doctorat, intéressés à mettre ses connaissances B jour etlou à explorer les NTlC
dans la formation.
On peut supposer que la clientèle éventuelle de ce cours a un intérêt
manifeste pour les technologies informatisées puisque le cours existe aussi
dans une version <<traditionnelle>>, ne nécessitant pas de l'utilisation de
l'ordinateur et que le choix de la version du cours revient à l'apprenant. De ce
fait, ils ont une connaissance de base des ordinateurs, dont I'utilisation du
clavier.
La moyenne d'âge des participants a l'expérimentation est de 38 ans.
Les participants ont été recrutés parmi les apprenants et employés de la
Télé-université, par une invitation affichée dans le babillard électronique et par
des invitations personnelles. Au début de la recherche quarante individus
étaient prévus pour participer à l'expérimentation. Uniquement trente-sept
personnes ont répondu aux sollicitations et deux d'entre elles se sont désistées.
Étant donné que le design pédagogique nécessitait des équipes de quatre
personnes, trois candidatures ont été éliminées, ce qui ramène à trente deux le
nombre de participants.
3.5 Protocole de l'expérimentatian
Les trente deux participants ont ét6 divisés de façon aléatoire en quatre groupes
de huit individus. Chaque groupe a été assigné au hasard a un des quatre
traitements prévus. Toutefois, quelques permutations ont di1 ètres faites car,
pour certains participants, l'heure evou la date proposés ne convenait pas,
Le déroulement de I'expérimentation s'est effectué en quatre parties. Le
scénario général comporte les étapes essentielles du modèle de l'approche
LVR: mise à l'essai du prototype, cueillette des données auprès des participants,
analyse des données, prescription des modifications et modification du matériel
pédagogique (voir figure 10 a la fin de ce chapitre). Comme le montre la figure
13, le scénario a été modifié pour la troisième partie ainsi que pour la quatrième
partie, puisqu'elles s'arrêtent a la cueillette des données.
Chaque participant a été informé de la date, l'heure et l'endroit auxquels
il devait se présenter à l'expérimentation.
Lorsque les quatre participants étaient réunis dans le lieu convenu, ils
recevaient un ensemble de documents (voir annexe 1). Un expérimentateur
lisait à haute voix les principaux points de I'expdrimentation, et rdpondait aux
questions des participants. Aprbs avoir signe l'accord de participation, ils
compldtaient un questionnaire sur des renseignements personnels. Ensuite,
chaque apprenant etait assigne au hasard C1 un poste prepard à l'avance pour
I'expdrimentation.
Au signal de depart, et à partir de la page 4cran de présentation du
cours, l'apprenant commençait ses tgches. L'expdrimentateur notait I'heure et la
minute affichde dans l'ordinateur du participant. Pour réaliser les tâches,
l'apprenant suivait les indications à I'ecran. Aprbs avoir compl6td les taches, les
participants remplissaient un questionnaire (annexe 2). Ce questionnaire setvait
aux expdrimentateurs pour animer la discussion en groupe afin de mieux cerner
la nature des diificultds rencontrees et de faciliter les r6visions.
A la fin de I'expdrimentation, les participants étaient monnayés pour leur
collaboration.
Du cet6 des expdrimentateurs, ils avaient une grille permettant d'inscrire
les demandes d'aide qui, pour des raisons techniques, ne pouvaient pas dtre
fornuldes au Magicien d'Oz (voir grille en annexe 3). Les consignes aux expdrimentateurs dtaient : intervenir seulement à la demande du participant,
rdpondre uniquement à la demande formulée, repondre de façon concise,
annoter le nom du participant ainsi que la demande et sa rdponse.
Un expdrimentateur &ait assigne au poste du Magicien d'Oz pour
répondre aux questions posdes par les participants. II suivait les
<cd4placements>> des participants dans le colloque afin de reperer les
problbmes techniques et d'intervenir rapidement. Par exemple, il pouvait voir
que quelqu'un s'&ait ddconnectd du serveur, alors, il demandait à un autre
expdrimentateur d'aller ddpanner ce participant.
3.6 Traitement statistique
Le modele statistique principal sdlectionn6 pour verfier les hypothhses est l'analyse de variance (ANOVA). Dans les hypothhses 1 et 2, le test de Duncan a
servi pour determiner quels traitements Btaient différents desquels.
CHAPITRE 4
Développement du matériel expérimental
t e présent chapitre établit la charnière entre i'énoncé des hypothèses et les
résultats de l'expérimentation. II rapports les résultats et analyse les données
conduisant au développement, à l'amélioration de la FAQ et a l'amélioration de
l'interface.
Ce chapitre commence par une description du processus général de
révision du prototype dans la démarche proposée par I'approche LVR, puis il
présente les résultats de I'analyse des données conduisant à la révision du
prototype : le développement de la FAQ, la révision de la FAQ et la révision de
I'interface.
4.1 Processus général de révision
Les révisions du prototype du cours <<Formation et compétitivité>> ont été
réalisées selon les étapes préconisées par I'approche LVR lors de l'amélioration
d'un matériel pédagogique (voir figure 10). En bref, ces étapes consistent en :
recueillir les données, identifier les problèmes, formuler des prescriptions,
analyser les prescriptions et réaliser les révisions. Comme il a été mentionné au
chapitre 3, certains ajustements ont été réalisés afin d'adapter la démarche au
schéma expérimental de cette recherche (voir figure 13).
II convient de rappeler que le résultat de l'analyse des données
recueillies lors de la mise à l'essai du traitement 1 est le point de départ pour
développer la FAQ ainsi que pour réviser I'interface. Quant à l'amélioration de la
FAQ, elle est fondée sur l'analyse des données de la mise a l'essai du
traitement 2.
4.2 Développement de la FAQ et révision de l'interface
4.2.1 Cueillette des données
Pour Ie traitement 1, le nombre de problbmes a étB compilé a partir des
demandes d'aide posées par les participants 1) au moyen de la technique du
Magicien d'Oz, et 2) par le biais des expérimentateurs. Afin de recenser
uniquement les problémes d'utilisation, on a Bcarté les demandes d'aide se
rapportant h un bug (par exemple, ecj'obtiens l'erreur 401 lorsque je veux communiquer avec ma partenaire>>), ainsi que les commentaires exprimés par
tes participants (par exemple, <<C'est par l'exploration de différents boutons que
j'ai trouvé où se cachaient les thémes>>).
4.2.2 Identification des problemes
Le tableau 7 montre que les participants au traitement 1 ont posé 66
demandes d'aide. Cependant les demandes d'aide liées à I'utilisation sont au
nombre de 59. Suite a une première analyse des demandes, il ressort que dans
deux cas, la demande formulée référait à deux problèmes, ce qui monte a 61 le
nombre de problèmes à I'utilisation compilés lors de la mise à t'essai du
prototype.
Dans le but de préciser le type des difficultés rencontrées, les problemes
d'utilisation ont été classifiés d'abord par tâches d'apprentissage. Le rationnel
de cette opération est que les usagers ne sont pas intéressés à apprendre à
utiliser un outil informatique perse, mais pour réaliser une tâche.
Demandes d'aide
Demandes d'aide liées à l'utilisation
Problèmes d'utilisation
66
59
6 1
Tableau 7. Nombre de demandes d'aide B l'utilisation posdes par les participants (traitement 1).
"/dentifLing with an activity is a pawerfui source of motivation that can enhance learning (Bruner, 1966a; Lepper and Malone, 1988; Papert, 1980: Rogers, 1981). This is achieved when the learning task is the learner's task (. . .)" (Carroll, 1 990, p.78).
Les résultats obtenus par ce procédé sont présentés au tableau ci-
dessous, dans lequel on peut observer que les tâches d'apprentissage les plus
problématiques sont la 3 et la 2.
Nombre de demandes
d'aide
Code Tache
1 2 1 Rédiger une communication 1 j 4 1
1 S'inscrire au colloque
3
4
Tableau 8. Nombre de demandes d'alde par tâche posées par les parîlcipanls (traitement 1).
2
Total
Force est de constater que cette classification laisse de côte des
demandes d'utilisation qui n'appartiennent pas a une tâche d'apprentissage
spécifique (par exemple, <<Ou suis-je?>>, cccomment agrandir l'écran?>>,
ccPourquoi voit-on apparaître à certains moments une flèche et à d'autres
moments le curseur?>>). De plus, cette classification globale, ne donne pas de
précisions sur les difficultés tout en rendant difficile la prise de décisions pour
réviser le prototype.
--
Participer au colloque
Faire évaluer sa proposition de communication
43
Pour pallier à ces inconvenances on a élaboré une grille de catégories.
Elle comprend les tâches d'apprentissage, les activités liées A ces tâches et
quatre autres catégories : établissement de la connexion au serveur, utilisation
des ressources d'aide, communication avec les participants (à l'extérieur des
tâches dans lesquelles il fallait communiquer avec les coéquipiers), et utilisation
de l'interface. Le détail de la grille permet d'identifier les procédures d'utilisation
des différents outils employés dans les activités.
. - - - -- -
25
2
4.2.3 Nature des problèmes
A l'aide de cette grille, il ressort que des problèmes majeurs (dont le seuil a été
fixé arbitrairement à 3 demandes d'aide ou plus) se concentrent dans les
catégories suivantes : 3.3, 2.1, 3.1, 6, 3.2, 7.2, 7.3, et 7.4. Les résultats
présentés au tableau 9 réfèrent à l'annexe 5.
Nombre de demandes
d'aide
Code Catégorie
15
12
5
5
3.3
2.1
3.1
6
3.2
7.2
Tableau 9. Nombre de domandes d'aide par catdgorie posées par les participants (traitement 1).
. - -- - .. . .
Discussion synchrone avec un autre membre de l'atelier
Recherche de l'information
Dépôt d'un document dans l'atelier
Communication avec un participant au colloque
4.2.4 Prescriptions et analyse des prescriptions
- - --
Commentairelannotation d'un document
Modification de la taille des fenêtres
3
3
7.3
7.4
Les prescriptions pour développer la RDA et pour améliorer l'interface ont
découlé des résultats de l'identification des problèmes. Les résultats des
questionnaires et les commentaires émis par les participants lors de la session
de discussion ont servi pour confirmer certains indices. En résumé, il ressort le
besoin d'une ressource pour faciliter l'utilisation de i'environnement. Plus
particuliérement, les participants ont suggéré une visite guidée. Ils
souhaiteraient que les procédures pour communiquer avec ses pairs soient plus
précises. Enfin, ils regrettent la couleur de l'écran qui ne permet pas de lire les
consignes et la taille réduite des fenêtres car elle rend la lecture difficile.
4
4 -- -- - -
Navigation
Utilisation du scénario
Une prescription a été formulée pour chacune des catégories identifiées
comme les plus problématiques et suite à l'analyse de ces prescriptions des
décisions ont été prises pour développer la FAQ et pour apporter des révisions à
l'interface.
Les prescriptions faites pour développer la FAQ s'appuient sur les
recommandations faites pour développer une ressource d'aide minimaliste
(Carroll, 1990) :
faire référence aux tâches réelles
permettre aux apprenants de réaliser la tâche immédiatement
4 réduire le verbiage
permettre de sauter l'information
O faciliter la coordination entre le matériel et la ressource
Les questions formulées pour développer la FAQ se trouvent en annexe
7. 11 convient de rappeler que la décision de développer une ressource d'aide
sur demande sous forme d'une FAQ (Frequently Asked Questions) a été prise
lors de l'élaboration du schéma expérimental de la présente recherche (figure
Quant aux prescriptions pour améliorer l'interface, elles ont été orientées
vers la précision du langage pour distinguer les outils de communication, vers
l'augmentation de feedback (par exemple, indiquant au participant qu'il était
connecté, qu'il était inscrit au colloque, et donnant le nom des membres de leur
atelier). Les contraintes de temps et de ressources ont limité les révisions de la
FAQ.
4.3 Révision de la FAQ
La révision de la FAQ s'est effectuée à partir des prescriptions de révision
établies par l'analyse des difficultés identifiées lors de la mise a l'essai du
traitement 2 (prototype avec FAQ). Les conditions expérimentales ainsi que les
instruments de cueillette des données sont les mêmes qu'on trouve au
traitement 1.
4.3.1 Cueillette des données
Comme le montre le tabîeau 10, les participants au traitement 2 ont posé 44
demandes d'aide, dont 34 sont des problèmes d'utilisation.
Demandes d'aide
Probkmes d'utilisation
tableau 10. Nombre de demandes d'aide à I'utilisatlon poséos par les partlcipants (traitement 2).
4.3.2 ldentif ication des problémes
Se servant de la grille de classification ayant servi pour développer la FAQ il
ressort que les principaux problèmes se trouvent dans les catégories suivantes :
3.3, 3.1 et 2.1. Les résultats présentés au tableau ci-dessous réfèrent a
l'annexe 5.
Code demandes
d'aide
Catégorie
3.3
3.1
2.1
Tableau 11. Nombre de demandes d'aide par catégorie posdes par les partlcipants (traitement 2).
Discussion synchrone avec un autre membre de l'atelier
Dépôt d'un document dans l'atelier
Recherche de l'information
II est intéressant de noter que seulement trois catégories comptent avec
trois demandes d'aide ou plus, et qu'elles sont les mêmes catégories qui ont été
identifiées comme les plus problématiques au traitement 1.
4.3.3 Nature des problémes
L'analyse du questionnaire de rétroaction et l'analyse des commentaires des
participants révèlent que les outils de communication écrite sont plus faciles a
utiliser que la vidéoconférence. En général, les remarques portent sur l'interface
: I'environnement semble intéressant mais l'icône des yeux ne représente pas
bien les participants. En ce qui concerne les consignes, les opinions sont
partagées. Les uns trouvent qu'elles sont pertinentes, d'autres aimeraient avoir
plus de précisions, notamment sur les outils de communication et les outils
disponibles dans la valise. Enfin, le Magicien d'Oz n'est pas facile a utiliser.
4.3.4 Prescriptions et analyse des prescriptions
Les prescriptions pour améliorer la FAQ s'inspirent des recommandations faites
par Thiagarajan (1976). Elles sont les suivantes : simplifier le langage,
augmenter les illustrations et les explications, améliorer la présentation et
présenter des alternatives (voir aussi Larin, 1981, p.52). En bref, les révisions
ont amené à éviter la répétition de la question <<Comment...>> autant que
possible et à regrouper les questions par sujet afin de faciliter sa localisation.
Pour mieux préciser les procédures, des illustrations ont été ajoutées et les
consignes ont été rédigées pour indiquer I'écran de départ et l'écran d'arrivée.
En regroupant les outils de communication dans une seule question on a voulu
présenter les différentes possibilités pour établir le contact avec ses pairs. Une
attention spéciale a été donné au fait de distinguer entre communiquer avec un
individu et avec plusieurs personnes.
Les prescriptions et l'analyse des prescriptions pour améliorer la FAQ se
trouvent en annexe 6. La version imprimée de la FAQ révisée peut être
consultée à l'annexe 8. 11 faut indiquer que les participants au traitement 2 ont
eu de nombreux problèmes techniques (bugs) qui ont provoqué ou qui
requéraient la déconnexion du serveur. En conséquence, ils devaient délier la
connexion, rétablir la connexion a nouveau; et parfois il était nécessaire d'ouvrir
I'environnement <<Formation et compétitivité- et même de se re-inscrire au
colloque. On a pu constater que les participants ne savaient pas comment
réaliser toutes ces opérations. Cela a créé trois nouvelles questions dans la
FAQ révisée.
En bref, I'analyse des données pour réviser le prototype rend état de la
démarche proposée par la LVR pour améliorer un produit pédagogique. Dans le
cas de la présente recherche, I'analyse de données a permis de développer la
FAQ, de réviser la FAQ et de revoir l'interface. Maintenant, il s'agit de cerner
l'effet de ces révisions dans Ie chapitre qui suit.
Résultats
Ce chapitre présente les résultats de l'expérimentation réalisée pour vérifier les
hypothèses émises au chapitre 3. Pour chaque hypothèse, la structure de la
présentation débute par le rappel de l'énoncé et des variables mesurées,
Ensuite, le lecteur trouvera la démarche utilisée pour vérifier les hypothèses, et
finalement les résultats suivis de la discussion.
5.1 Vérification de I'hypothese 1
5.1.1 Rappel de l'hypothèse 1 L'intégration de I'approche LVR au développement des RDA d'un EIT améliore
l'efficacité de la ressource d'aide sur demande en terme de réduction du temps
d'accomplissement des tâches.
Comme il a été indique au chapitre 3, dans cette hypothèse on retrouve
les trois conditions de la variable indépendante :
l'absence de vérification du prototype, soit le non emploi de
l'approche LVR,
O la premiere révision du prototype, soit l'emploi de la LVR au niveau
de l'identification des difficultés,
O la deuxième révision du prototype, soit l'emploi de la LVR pour
identifier les difficultés et réviser la premiere version de la ressource
d'aide.
5.1.2 Résultats
Pour tester cette hypothèse, on a comparé trois traitements en terme de
temps d'accomplissement des tâches :
Traitement 1 = le prototype,
0 Traitement 2 = le prototype avec ressource d'aide développée avec
l'approche LVR (la ressource a été développée sous forme de FAQ
(Frequently Asked Questions),
0 Traitement 3 = le prototype avec FAQ améliorée (FAQ').
La comparaison a été réalisée A l'aide d'une analyse de variance de type
ANOVA, dans le but de déceler une éventuelle différence significative entre les
traitements en terme de temps d'accomplissement des tâches.
Le résultat obtenu montre qu'il n'y a pas de différence significative entre
les traitements pour la variable dépendante cctemps d'accomplissement des
tâches>>, à un niveau de signification 0,05% (F=0,65).
Tableau 12. Rhulîats du test ANOVA pour le traitement 1.
5.1.3 Discussion
Degré de liberté
2
19
L'analyse statistique réalisée ne permet pas de confirmer l'hypothèse de départ
puisque les traitements expérimentés ne sont pas réellement différents en terme
de temps d'accomplissement des tâches.
Parmi les facteurs pouvant expliquer ce résultat, trois ont été retenus : la
validité des instruments de mesure, les consignes d'expérimentation et le
comportement des participants.
Somme des carrés
S.C.inier = 1 128'51
S.C.inrer = 1 7969'30
Carrés moyens
C.M.inm= 614,25
C.M.inrm= 945,75
F
0,65
5.1.3.1 Instruments de mesure
On peut se demander si l'utilisation d'un chronomètre intégré 21 l'ordinateur était
approprié pour mesurer le temps d'accomplissement des taches. Malgr6 les
mises a l'essai préalables a I'expérimentation visant à ccdebugger>> le
prototype, on a trouvé de nombreux problèmes techniques (bugs) pendant
I'expérimentation. Ces problèmes pouvaient varier d'une machine a l'autre et ils
n'étaient pas nécessairement les mêmes dans tous les traitements. Le temps
passé attendant que les bugs soient réglés par les expérimentateurs a été
mesuré comme temps dépensé a l'accomplissement des tâches. Cette situation
a pu fausser la mesure du temps d'autant plus qu'elle affectait non seulement le
temps d'accomplissement de fa personne prise avec des bugs mais aussi le
temps d'accomplissement des participants qui travaillaient en équipe avec elle et
qui devaient attendre que le problème de leur coéquipier soit résolu pour
accomplir les tâches.
De plus, le temps d'accomplissement de l'ensemble des tâches
demandées dans I'expérimentation a été mesuré par I'accomplissement d'une
tâche spécifique (te dépôt de la communication au bureau d'évaluation). II s'agit
de la dernière tâche a accomplir une fois que les autres ont été réalisées.
Cependant, aucun contrdle n'a été prévu pour assurer que le participant avait
accompli les tâches préalables à la tâche spécifique. Ceci explique des
données de temps trop courts par rapport au reste du groupe (voir annexe 4).
C'est le cas du participant ayant obtenu un score de 78 minutes (voir traitement
2 dans l'annexe 4)' qui avait déposé sa communication au bureau d'évaluation
au lieu de la déposer dans l'atelier.
II y a lieu de croire que la mise au point des instruments permettant de
colliger te temps d'accomplissement des tâches d'une façon plus précise
permettrait de mieux vérifier l'effet de l'approche LVR dans le développement
des RDA en terme de temps d'accomplissement.
5.1 A 2 Consignes
Quant aux consignes d'expérimentation, on peut supposer qu'elles n'ont pas été
assez précises pour recueillir les renseignements voulus. C'est le cas de la consigne demandant de rédiger une communication entre 20 et 30 lignes.
Plusieurs participants ont déployd des efforts à apprendre le contenu alors que
cela n'était pas nécessaire pour identifier les difficultés d'utilisation de
l'environnement d'apprentissage. Un exemple d'une situation pouvant affecter
la mesure de I'accomplissement des tâches c'est le cas du participant qui a
rédigé une communication de deux pages et qui a réalisé une recherche sur le
sujet par Internet.
5.1.3.3 Comportement des participants
Une autre variable non contrôlée pouvant influencer le résultat obtenu est le
comportement des participants lié au moyen employé pour résoudre leurs
problèmes d'utilisation.
Afin d'examiner le comportement des participants, un rappel des
différents moyens pour se dépanner pouvant être employés par les participants
s'impose.
Comme le montre le tableau 13, dans les trois traitements, les
participants pouvaient, selon leurs besoins et leurs préférences, procéder par
exploration et tâtonnement, consulter le Magicien d'Oz, consulter les
expérimentateurs ou consulter les autres participants à l'expérimentation. Les
participants au traitement 2 pouvaient, en plus, consulter la FAQ, c'est-&-dire
une ressource d'aide sur demande, développée avec l'approche LVR. Quant
aux participants au traitement 3, ils pouvaient consulter la FAQ' (version
améliorée de la FAQ).
1 Traitement 1 1 Traitement 2 1 Traitement 3
1 Tatonnement 1 Tâtonnement 1 Tatonnement l t
Magicien d'Oz 1 Magicien d'Oz 1 Magicien d'Oz 1 1
Expérimentateurs 1 Expérimentateurs 1 Expérimentateurs 1 1
Pairs 1 Pairs 1 Pairs
Tableau 13. Dlffdrents moyens pour risoudre une difflcuitd h I'utllbation lors de I'exp~rimentatlon.
Puisqu'il n'y a pas eu de diffdrence majeure entre les trois traitements au
niveau du temps d'accomplissement, on peut se demander s'il existe une
relation entre le temps d'accomplissement des tâches et l'emploi ou non de la
ressource d'aide développée avec l'approche LVR. Dans cette perspective, il
est important de déterminer si les participants ont utilisé la FAQ etlou la FAQ*.
La réponse semble diverger dans le traitements 2 et 3.
Du côté du traitement 2, le taux de participants qui ont déclaré avoir
utilisé la FAQ est de 87%. Comment expliquer alors qu'ils ont accompli les
taches dans un temps similaire a celui établi par le groupe du traitement 1, qui
n'avait pas de FAQ?
Parmi les tentatives de réponse, on peut en considérer deux. L'une veut
que la FAQ ait remplace un autre moyen (ou plusieurs autres moyens) pour
résoudre les problèmes d'utilisation. Le cas échéant, le temps d'utilisation de la
FAQ serait équivalent a l'emploi des autres moyens. Cette tentative
d'explication reste, pour le moment, non vérifiée; dans ce cas elle requiert la
révision de l'instrument de mesure du temps d'accomplissement.
L'autre tentative de réponse propose que la FAQ aurait facilité l'usage
des outils et des instruments de l'environnement d'apprentissage expérimenté.
Ce faisant, certains participants auraient pu explorer d'avantage
l'environnement, réaliser plus d'échanges ou encore faire une recherche
d'information plus riche comparativement au traitement 1. Cette tentative de
réponse n'exclut pas la précédente. Comme il a déjà été indiqué, l'instrument
de mesure du temps ne permettait pas de recueillir des données sur la
réalisation des tâches particuliéres. II serait intéressant de préciser, dans une
recherche postérieure, si la ressource d'aide développée avec I'approche LVR,
dans le cadre d'un EIT, enrichit l'utilisation de t'environnement.
A la lumière de ces considdrations, i'hypothèse telle qu'énoncée est
partiellement confirmée.
5.2 Vérification de l'hypothèse 2
5.2.1 Rappel de l'hypothèse 2 L'intégration de l'approche LVR au développement des RDA d'un EIT améliore
l'efficacité de la ressource d'aide sur demande en terme de réduction du nombre
de problèmes d'utilisation rencontrés.
Dans cette hypothèse on rencontre les trois conditions de la variable
indépendante de I'hypothese 1. Les traitements comparés pour tester cette
hypothese sont les mêmes que ceux de I'hypothese 1. L'analyse statistique a
été réalisée à l'aide du test ANOVA, dans le but de préciser si la LVR avait eu
un effet sur le nombre de problèmes d'utilisation rencontrés. II est pertinent de
rappeler que le recueil du nombre de problèmes d'utilisation rencontrés a été
effectué par la compilation des demandes d'aide formulées au Magicien d'Oz et
des demandes d'aide faites aux expérimentateurs.
5.2.2 Résultats
Le tableau ci-dessous montre qu'il existe une différence significative
entre les traitements pour la variable dépendante <<nombre de problèmes
d'utilisation rencontrés>>, à un niveau de signification 0,05% (F=4,15).
Degré de liberté 1 Somme des carrés 1 Carrés moyens 1 F 2
21
Tablaau 14. Rbsultats du test ANOVA (traitement 2).
S.C.,n,er = 1 17,25
S.C.rn1, = 296,38
S.C.T.= 41 3,62
C.M.inte~ 58'63
C.M.inm= 14,11
4,15
L'analyse effectuée permet de voir que les moyennes des trois
traitements diffbrent significativement, mais elle ne permet pas de determiner
comment les moyennes diffèrent entre elles. Pour ce faire on a analysé les
données par le biais du test de Duncan.
Comme l'indique le tableau 15, il n'y a pas de différence significative
entre A et B (traitements 3 et 2) ni entre B et C (traitements 1 et 2), mais C est
significativement différent de A (traitements 1 et 3).
Tableau 15. RBsullats du teat de Duncan (traitement 2).
Moyennes
Puisque uniquement une seule comparaison des trois combinaisons
possibles est significative, doit-on pour autant rejeter I'hypothese nulle voulant
qu'il n'y a pas de différence entre les trois traitements expérimentés?
L'interprétation des données s'avère nécessaire pour prendre une décision,
d'autant plus que l'écart observé entre les traitements indique une tendance
positive.
5.2.3 Discussion
A
(Traitement 3)
2,13
A la lumière des résultats obtenus, il ressort que I'hypothese 2 a été confirmée
partiellement. Dans les trois comparaisons réalisées, le résultat significatif
obtenu suggère que la LVR a comme effet une réduction dans le nombre de
problèmes d'utilisation dans le groupe ayant employé le prototype avec l'aide
améliorée (FAQ*) par rapport au groupe ayant employé uniquement le prototype.
Par contre, on ne perçoit pas une réduction significative dans le nombre
de problémes d'utilisation lorsqu'on compare 1) le groupe ayant utilisé le
prototype avec le groupe ayant employé le prototype avec ressource d'aide
B
(Traitement 2)
4,25
C
(Traitement 1)
7,5
Eca rt
significatif le
plus court :
développée à l'aide de l'approche LVR ou FAQ, et 2) le groupe qui a utilisé le
prototype avec FAQ et le groupe utilisant le prototype avec FAQ'.
Faut-il pour cela conclure qu'il n'y a pas eu d'amélioration dans
l'efficacité de la ressource d'aide sur demande en terme de réduction du nombre
de problemes d'utilisation rencontrés? Autrement dit, faut-il accepter
l'hypothèse nulle? II est peut-être trop hâtif de se prononcer sur ce sujet car la
comparaison du nombre des difficultés de chaque aspect problématique révèle
qu'entre les traitements 1 et 2 (voir annexe 5) :
0 il y a 5 aspects présentant moins de problèmes d'utilisation dans le
traitement 2 que dans le traitement 1 ;
0 il y a 1 aspect présentant autant de problèmes d'utilisation dans le
traitement 2 que dans le traitement 1;
0 il y a un aspect présentant plus de problemes d'utilisation dans le
traitement 2 que dans le traitement 1.
D'autre part, si l'on réalise la même comparaison entre les traitements 2
et 3, on constate :
r qu'il y a 5 aspects dans lesquels on remarque une réduction du
nombre de problemes dans le traitement 3;
0 qu'il y a 1 aspect dans lequel le nombre est le même pour les deux
traitements;
r qu'il y a 1 aspect qui montre une augmentation.
Ces données suggèrent une certaine amélioration autant dans la phase
de développement de la FAQ que dans la phase d'amélioration de la FAQ; mais
alors, pourquoi le résultat obtenu n'est pas significatif? II y a lieu à penser que
les conditions expérimentales y sont pour quelque chose.
D'abord, il est possible que le petit nombre de participants n'ait pas
permis de mettre en évidence de façon significative les améliorations
éventuellement apportées par l'approche LVR lors du développement d'une
ressource d'aide sur demande.
Ensuite, au niveau du comportement des expérimentateurs, il se peut
que lors de leurs interventions personnelles pour aider à résoudre les problèmes
des participants, quelques questions aient été échappées.
De plus, au niveau des traitements, on peut se demander s'ils étaient
suffisamment différenciés. En effet, la révision de la FAQ, comme il a été
indiqué au chapitre 4, a consisté surtout a ajouter des illustrations, a réécrire les
consignes et à ajouter quelques questions. On peut imaginer qu'avec une
ressource d'aide sur demande conçue sous une autre forme, les différences
auraient pu être plus grandes.
Enfin, il est probable que les participants, contrairement a ce qui leur
avait été demandé, aient consulté le Magicien d'Oz ou l'expérimentateur avant
d'avoir tenté de résoudre leur problème d'utilisation a t'aide de la FAQ. Pour
répondre a cette question, on peut examiner le comportement des participants
en relation avec l'utilisation de la FAQ. Cet examen a été réalisé d'abord dans
le cadre du traitement 2, puis dans le contexte du traitement 3.
5.2.3.1 Comportement des participants dans le cadre du traitement 2
Comme il a été mentionné lors de l'interprétation des résultats de l'hypothèse 1,
le taux de participants ayant employé la FAQ dans le traitement 2, a été de
87'5%. Cependant, il est possible de croire que l'utilisation de la FAQ n'a pas
toujours été satisfaisante. Les scores attribués par les participants à la FAQ
montrent que l'information qu'elle contenait n'était pas tout a fait suffisante (2,16
dans une échelle de 1 à 4, 1 = très suffisante, et 4 = pas du tout suffisante).
Probablement que la FAQ ne répondant pas aux besoins des participants, ces
derniers ont fait appel au Magicien d'Oz ou à l'expérimentateur. Cette
explication est d'autant plus plausible que lorsqu'on analyse les aspects les plus
problématiques dans les traitements 1 et 2, on découvre qu'ils sont, dans l'ordre,
les mêmes (participation au colloque, rédiger une communication et utilisation
de l'interface). (Voir details en annexe 5).
5.2.3.2 Comportement des participants dans te cadre du traitement 3
L'analyse comparant le prototype avec FAQ avec le prototype avec FAQ' révèle
que le nombre de problémes d'utilisation rencontres par le groupe utilisant le
prototype avec FAQ n'est pas plus petit par rapport au groupe prototype avec
FAQ'. On ne peut donc pas déduire que l'emploi de la LVR pour améliorer la
FAQ d'un EIT a pour conséquence une réduction du nombre de problèmes
d'utilisation.
Pour expliquer ce résultat au niveau du comportement des participants
dans les deux traitements expérimentes, on a compare le taux d'utilisation du
groupe prototype avec FAQ (traitement 2) avec celui du groupe prototype avec
FAQ' (traitement 3). Tout d'abord, le groupe du traitement 3 affiche moins de
participants ayant utilisé la ressource d'aide développée que dans le traitement
2 (50% vs 87,5%). De plus, comme il a déjà été indiqué, dans le traitement 3,
trois des quatre participants, ayant utilisé la FAQ', ont déclaré ne pas être en
mesure de donner une appréciation sur l'information de cette ressource d'aide
car ils ne l'avaient pas utilisé suffisamment.
On peut donc supposer que l'utilisation de la FAQ* a été beaucoup plus
mince que l'utilisation de la FAQ. Si c'est le cas, comment se fait-il que les
participants du traitement 3 ont réussi a accomplir les tâches demandées, alors
qu'on ne décèle une réduction significative du problemes d'utilisation que dans
le traitement 1 n'ayant pas de FAQ? Peut-on penser que dans le groupe du
traitement 3, il s'est développé une dynamique de groupe favorisant aide entre
pairs? Le cas échéant, cela présuppose une bonne maîtrise des outils de
communication.
En analysant le nombre de problèmes par aspect problématique on
constate que le traitement 3 n'indique que deux problemes au sujet de la
communication avec un autre membre de i'atelier tandis que dans le traitement
1 on y trouve dix problèmes. De plus, dans le traitement 3 aucun problème n'a
été consigné pour communiquer avec un membre du colloque en général, alors
que dans le traitement 1 on y compte cinq problèmes liés à ce sujet. Quant aux
caractéristiques du groupe, on peut en effet se demander si le profil du groupe 3
facilitait plus l'entraide comparativement aux autres traitements comparés. II
serait intéressant de vérifier cet aspect dans des recherches postérieures.
Suite à la présentation des résultats on s'est posé la question a savoir s'il
fallait accepter ou rejeter l'hypothèse nulle voulant que les trois traitements
comparés soit égaux. Les remarques énoncées lors de la discussion font
ressortir que I'hypothése 2 a été confirmée partiellement. On est porté a croire
encore une fois que cette hypothese demeure a vérifier dans des conditions
expérimentales plus favorables.
5.3 Vérification de l'hypothèse 3
5.3.1 Rappel de l'hypothèse 3
L'intégration de I'approche LVR au développement des RDA d'un ElT améliore
l'efficacité de I'interface du matériel pédagogique en terme de réduction du
temps d'accomplissement des tâches.
Les conditions de la variable indépendante de cette hypothese sont l'absence de
vérification, soit le non emploi de I'approche LVR, et la première vérification du
prototype, soit l'emploi de I'approche LVR au plan de I'interface.
5.3.2 Résultats
Cette hypothèse a été testée en comparant le prototype (traitement 1) et le
prototype avec interface améliorée (traitement 4) au niveau du temps
d'accomplissement des tâches. L'analyse statistique a été réalisée a l'aide de
I'analyse de la variance. Les résultats obtenus montrent une différence
significative entre les traitement comparés à un niveau de signification de
0'05%' (F=6,98). Le tableau 16 présente les résultats de l'analyse.
5.3.3 Discussion
Degr6 de liberté
1
13
L'analyse statistique révèle qu'il y a eu une différence significative entre les
traitements comparés. En effet, le temps d'accomplissement des tâches du
groupe utilisant le prototype sans vérification est plus grand que le temps
d'accomplissement des tâches du groupe qui a employé le prototype avec
I'interface améliorée. En conséquence, il se dégage que I'approche LVR permet
d'améliorer l'efficacité de I'interface du EIT en terme de temps
d'accomplissement des tâches. L'hypothèse telle qu'énoncée est confirmée.
Bien que le résultat obtenu soit significatif, il importe de préciser que,
dans le traitement 3 on trouve les mêmes contraintes exp4rirnentales soulevées
dans les hypothèses 1 et 2. Dans cette optique, pour assurer une validité plus
grande aux résultats obtenus, il serait préférable de realiser l'expérimentation
dans des meilleures conditions.
Tableau 16. R6sultats du test ANOVA (tialtemint 3).
Somme des carrés
S.C.inter = 661 3'62
S.C.inter = 12317,30
S.C.T.= l8WOI93
5.4 Vérification de l'hypothèse 4
5.4.1 Rappel de l'hypothèse 4
L'intégration de I'approche LVR au développement des RDA d'un EIT améliore
I'efficacité de I'interface du matériel pédagogique en terme de réduction du
nombre de problémes a l'utilisation rencontres.
Carrés moyens
C.M.lnter 6613'63
C.M.inim= 947,48
Les conditions de la variable indépendante de cette hypothèse sont le non
emploi de la LVR, soit l'absence de vérification du prototype et la première
vérification de I'interface.
F
6'98
Le test ANOVA a servi pour vérifier cette hypothèse. Le traitement 1 (prototype)
a été comparé au traitement 4 (prototype avec interface améliorée) au niveau du
nombre de problemes d'utilisation rencontrés. Le tableau 17 présente les
résultats de l'analyse montrant une différence significative entre les deux
traitements comparés a un niveau de signification de 0,05%, (F=12,97).
1 Degré de liberté 1 Somme des carrés 1 Carrés moyens 1 F
Tableau 17. Résultats du test ANOVA (traitement 4).
5.4.3 Discussion
Le groupe du traitement 4 a rencontré moins de problemes d'utilisation par
rapport au groupe du traitement 1. Puisque le nombre de problèmes à
l'utilisation rencontrés par le groupe utilisant le prototype sans vérification est
plus grand que le nombre de problèmes à l'utilisation décelés dans le groupe
utilisant le prototype avec l'interface améliorée, il semble possible de déduire
que l'intégration de l'approche LVR au développement des RDA d'un EIT peut
avoir comme effet l'amélioration de l'interface. L'hypothèse telle qu'énoncée est
confirmée.
Tout comme dans l'hypothèse 3, on ne peut pas ignorer les contraintes
présentes dans l'expérimentation, ce qui amène a limiter les résultats au
contexte de la présente recherche.
En bref, le présent chapitre avait pour but de présenter les résultats statistiques
obtenus lors de l'expérimentation. Le tableau 18 montre une synthèse de ces
résultats.
1 1 tûches 1 rencontrés 1
Traitements comparés
Résultat statistique de l'efficacité de l'approche LVR en terme de.. .
L . . . . . . . - . - . . - - . . .- - -
- - ---- . 4. Prototype vs Prototype + 1 Significatif 1 Significatif 1
. .. réduction du temps d'accomplissement des
1. Prototype vs Prototype + FAQ 2. Prototype + FAQ vs Prototype
+ FAQ révisée 3. Prototype vs Prototype + FAQ
réviske
I interface révisée I I I
.. . diminution du nombre de problèmes
tableau 18. RBsultats statistiques de I'efficacltB de l'approche LVR selon les mat8rlels pduagogiques compar6s.
Non significatif Non significatif
Non significatif
Des explications pour chacun des résultats obtenus ont été avancées.
Parmi les variables ayant joué une probable influence sur les résultats il ressort
le comportement des apprenants et les instruments de mesure. Les conclusions
qu'on peut tirer des résultats sont présentés au chapitre 6.
Non significatif Non significatif
Significatif
Chapitre 6
Conclusions
Pour commencer, le chapitre 6 se propose de faire une synthèse de la présente
recherche, ensuite il expose les conclusions qui se dégagent de la démarche
suivis. Enfin, ce chapitre avance des recommandations pour enrichir la
recherche dans te domaine des ressources d'aide dans le contexte des
environnements informatisés de teleformation.
6.7 Résume
Cette recherche s'intéresse a connaître l'efficacité de I'approche d'évaluation
formative Learner Verification and Revision (LVR) pour améliorer un
environnement informatisé de téléformation (EIT). Plus précisément, elle porte
sur l'amélioration de l'utilisation de I'EIT. Pour ce faire, tes deux moyens
proposes sont : le développement d'une ressource d'aide sur demande (RDA) et
l'amélioration de l'interface.
Le recensement des écrits révèle que tes recommandations pour
améliorer une RDA ainsi que les recommandations pour améliorer l'interface
d'un systbme informatique correspondent a la demarche d'amélioration d'un
produit pédagogique mise en avant par I'approche LVR : réviser te produit de
façon itérative a partir des difficultés identifiées par les apprenants lors de la
mise à l'essai du produit et identifier les difficultés le plus tôt possible dans le
déueloppement du produit.
Quatre hypotheses ont été formulées. En résume, les hypotheses
avancent que l'intégration de I'approche LVR au développement des ressources
d'aide sur demande, dans le cadre d'un EIT, améliore :
pour l'hypothèse 1, I'efficacité de la ressource d'aide sur demande en
terme de réduction du temps d'accomplissement des tâches;
0 pour l'hypothèse 2, I'efficacité de la ressource d'aide sur demande en
terme du nombre de problemes d'utilisation rencontrés;
pour I'hypothese 3, I'efficacité de l'interface en terme de réduction du
temps d'accomplissement des tâches;
r pour I'hypothese 4, I'efficacité de l'interface en terme du nombre de
problemes d'utilisation rencontrés.
Afin de tester tes hypothèses, trente deux sujets ont été repartis en
quatre groupes. Chaque groupe a mis à I'essai un des traitements suivants :
0 Traitement 1 - prototype d'un EIT.
Traitement 2 - prototype d'un EIT avec ressource d'aide sur
demande.
0 Traitement 3 - prototype d'un ElT avec ressource d'aide sur demande
améliorée.
O Traitement 4 - prototype d'un EIT avec interface améliorée.
Les traitements 2 et 4 ont été créés à partir des difficultés d'utilisation
identifiées par les participants lors de la mise à l'essai du premier traitement, et
le traitement 3 découle des difficultés d'utilisation dégagées de la mise à I'essai
du deuxième traitement.
Les difficultés d'utilisation ont été recensées au moyen de la technique
du Magicien d'Oz et par les demandes d'aide posées par les participants aux
expérimentateurs. Un chronomètre intégré à l'ordinateur a servi pour mesurer le
temps d'accomplissement des tâches.
6.2 Conclusions
Les résultats rapportés au chapitre 5 nous amènent a remarquer que,
sur le plan statistique,
a l'hypothèse 1 n'a pas été confirmée puisqu'il n'y a pas eu de
différence significative entre les traitements comparés au niveau du
temps d'accomplissement des tâches.
a l'hypothèse 2 a été confirmée partiellement puisque les apprenants
ayant utilisé le prototype avec la ressource d'aide sur demande,
développée et améliorée par le biais de I'approche LVR, ont eu moins
de problèmes d'utilisation par rapport aux apprenants qui ont
employé le prototype. Par contre, le groupe utilisant le prototype ne
présente pas de différence significative par rapport au groupe
prototype avec ressource d'aide sur demande. De plus, les résultats
du groupe prototype avec ressource d'aide sur demande versus le
groupe prototype avec ressource d'aide améliorée ne présentent pas
une différence significative. Cependant, l'écart observé montre une
tendance positive, corroborant ainsi les travaux de Larin (1 981) qui
veulent que la deuxième révision d'un document pédagogique a l'aide
de I'approche LVR, comparativement à la version O et à la version 1,
présente une différence significative.
O I'hypothese 3 a été confirmée puisque les apprenants ayant employé
le prototype avec I'interface améliorée ont accompli les tâches
demandées dans un temps plus court que les apprenants s'étant
servi du prototype sans révision de I'interface.
r I'hypothese 4 a été confirmée puisque les apprenants ayant employé
le prototype avec I'interface améliorée ont rencontré moins de
problèmes d'utilisation que les apprenants s'étant servi du prototype
sans révision de I'interface.
Les conclusions qui se dégagent de ces résultats sont les suivantes :
Hypothèse 1 : un environnement informatisé de téléformation (EIT) avec une
ressource d'aide développée au moyen de I'approche LVR ne semble pas
réduire le temps d'accomplissement des tâches, comparativement à un EIT qui
n'a pas été révise.
Hypothèse 2 : le nombre de problèmes d'utilisation d'un environnement
informatisé de téléformation diminue avec une ressource d'aide sur demande
développée et révisée selon I'approche LVR.
Hypothèses 3 et 4 : l'approche LVR est efficace pour améliorer l'interface d'un
environnement informatisé de téléformation en terme de temps
d'accomplissement des tâches ainsi qu'au niveau du nombre de problèmes
rencontrés par l'apprenant.
L'intérêt de ces résultats réside d'une part dans le fait que la mesure de
I'efficacité de I'approche LVR était, jusqu'a présent, concentrée sur des mesures
de performance (8aker et Schultz, 1973) et de rendement (Kandaswamy,
1 W6a, Larin, 1981). D'autre part, bien que de nombreuses études aient montré
l'efficacité de I'approche LVR dans l'amélioration de divers types de produits
pédagogiques, son efficacité n'avait pas été confirmée empiriquement au niveau
de l'interface d'un produit pédagogique.
Compte tenu des limites soulevés dans le chapitre 5, il est difficile de
généraliser les conciusions tirées dans cette recherche à une population et à
des conditions différentes de celles de la présente recherche. En effet, les
conditions expérimentales comportent plusieurs variables non contrôlées, ayant
pu influencer les résultats obtenus. Parmi ces variables ressortent les
instruments de mesure, le comportement des apprenants vis-à-vis la
consultation des ressources d'aide sur demande, la méthodologie expérimentale
et le nombre réduit de sujets.
6.2.1 En regard des instruments de mesure
En s'appuyant notamment sur le recensement des écrits (Weston, 1986; Wager,
1983), les instruments de cueillette de données dans cette recherche visaient à
recueillir les données lorsque l'apprenant les identifiait dans un contexte aussi
réaliste que possible, et en prenant soin de ne pas interferer sur son processus
d'apprentissage. De par ses caract6ristiquesI I'environnement informatisé de
tél8formatioti posait là une difficulté majeure. Comment maîtriser l'ensemble
des variables pour identifier, à distance, les problèmes d'utilisation chez les
apprenants qui travaillent tantôt individuellement, tant& en équipe? Comment
identifier ces problémes sans interMer dans la demarche d'apprentissage?
Comment mesurer le temps d'accamplissernent des tdches dans un
environnement dans lequel I'apprenant est libre de choisir son cheminement?
Les instruments de mesure proposés dans les écrits recenses (prétest, post-
test, questionnaire, interview, pensée à haute voix, etc.) n'offrent pas une
réponse appropriée a ces questions. Des instruments ont été conçus et testés,
mais ils requièrent d'être raffinés afin d'obtenir une mesure plus juste du temps
d'accomptissement des tâches et de l'utilisation de la ressource d'aide
développée avec I'approche LVR.
Malgré la faiblesse des instruments de cette recherche, il est possible de
penser qu'ils apportent une piste pour recueillir des données orientées sur le
processus d'apprentissage plutôt que sur les résultats de l'apprentissage,
comme c'est le cas de la plupart des études utilisant I'approche LVR jusqu'à
présent.
6.2.2 En regard du comportement des apprenants
La présente recherche s'était appuyée sur les études recensées (Duffy,
Palmer et Mahlenbacher, 1992; Wright, 1991; Carroll, 1990; et Wright, 1983)
mettant en relief les actions de I'apprenant associées à la demande d'aide.
Cependant ces études ne tiennent pas compte que les apprenants peuvent faire
le choix parmi plusieurs ressources d'aide. Cette dimension n'a pas été prise en
compte dans la présente recherche et semble avoir eu un effet sur le nombre de
demandes d'aide recueillies au moyen du Magicien d'Oz et sur l'utilisation
restreinte de la ressource d'aide développée avec I'approche LVR. De
l'interprétation des données, on peut retenir, d'une part, que dans
I'environnement informatise de téléformation, l'aide entre pairs semble être une
ressource fort sollicitée. D'autre part, l'utilisation d'un type de ressource peut
avoir une relation avec l'attitude de I'apprenant. D'aprés Fischbein et Ajzen
(1 975) ccl'attitude réfère à l'évaluation favorable ou défavorable d'une personne
face A un objet.>> (Dans Fontaine, 1988, p.12). L'attitude de l'usager a l'égard
des RDA pourrait donc être liée à l'utilisation efficace de la ressource.
Malheureusement, les données sur le temps d'accomplissement ou sur
le nombre d'erreurs n'indiquent pas quelle est l'attitude de I'usager à I'dgard des
RDA développées. C'est pourquoi il apparaît pertinent de revoir les modèles
proposés dans les écrits recensés. Dans ce sens, on pourrait se poser la
question de l'utilisation des differentes ressources d'aide pour les diffbrentes
tâches et pour les différents individus. Autrement dit, quelle est la combinaison
de ressources d'aide la plus efficace selon la tâche a réaliser et I'attitude de
l'individu?
6.2.3 En regard à la méthodologie expérimentale
Le stade de développement dans lequel se trouvait le matériel expérimenté
soulève la question de la pertinence de "déclencher le processus d'évaluation
formative le plus tôt possible", tel que suggéré par de nombreuses études (voir
Larin, 1981, p.46). Maintes révisions ont été réalisées sur le prototype avant la
mise à l'essai au plan technique; néanmoins, lors de l'expérimentation, de
nouveaux problémes sont survenus apparemment dus à des situations
d'utilisation non prévues. Les conséquences se sont fait ressentir notamment
au niveau de la mesure du temps qui était faussée.
II a été mentionne dans le chapitre 2 que, en général, le design du
materiel pédagogique ne prend que très peu en compte les problèmes
d'utilisation, ce qui explique que d'après Larin (1981) la forme du matériel "ne
doit pas être un obstacle au fait de débuter l'évaluation formative le plus tôt
possible." (ibid. p.46). La présente recherche confirme la faisabilité de
l'évaluation formative d'un environnement informatisé de téléformation en phase
de prototype. Néanmoins, il faut prendre en considération les contraintes reliées
a la phase de développement du matériel pédagogique.
6.2.4 En regard au nombre de sujets
Une autre limite de cette recherche se trouve dans le nombre réduit de sujets
participant à I'expérimentation, qui au plan statistique affecte la généralisabilité
des résultats. Comme il a été mentionné au chapitre 3, le nombre de
participants s'est vu contraint principalement par l'équipement disponible
possédant les caractéristiques nécessaires pour la mise à l'essai ainsi que par la
structure des tâches à réaliser qui devait se faire en équipes de quatre. Au plan
théorique, l'intervention d'un petit nombre de sujets se justifie par le fait que
l'évaluation formative est un processus en continuum dans lequel le nombre de
participants commence par quelques sujets et vise de larges effectifs permettant
de tester avec plus de sujets le produit pédagogique.
Cependant, des questions subsistent quant au nombre de sujets qui
doivent participer dans le processus d'évaluation formative d'un EIT afin
d'obtenir des données riches en nombre et en qualité, tel que préconisé par
Medley et Weston (1988)' Larivière, Beauchamp et Stolovitch (1980) et
Thiagarajan (1976). Les écrits n'offrent pas une réponse précise.
Dans cette recherche, la cueillette des données a été réalisée en groupe,
ce qui n'a pas permis de recueillir des informations au niveau individuel sur
I'utilisation des ressources d'aide. En général, la cueillette des données en
mode "tutoriel" est aussi efficace que la cueillette de "groupe" (Byrum, 1992;
Weston, 1986; Kandaswamy, 1 W6b; Baghdadi, 1981). Mais, dans quelle
mesure ces résultats s'appliquent a l'amélioration de la ressource d'aide a
l'utilisation d'un EIT? Est-il approprié d'utiliser le mode tuteur pour améliorer les
ressources d'aide alors que les apprenants interagissent les uns avec les autres
pour résoudre leurs problèmes d'utilisation? Pour le moment, les questions
restent en suspense.
En réalisant I'expérimentation dans un contexte aussi réaliste que
possible, et en utilisant des instruments conçus pour cette recherche, la
généralisation des résultats se voit limitde. Viau (1988) souieve le problème de
validité auquel cette recherche s'est heurtde également. "La recherche en
technologie de l'instruction est ainsi souvent prise dans le dilemme qui oppose
les validitds interne, externe et écologique. Plus on veut augmenter la validitd
écologique d'une recherche en expérimentant sur le terrain et dans des
situations réelles, plus les validtés interne et externe sont fragiles, ce qui oblige
souvent le chercheur à limiter la portde des résultats de son dtude." (ibid.,
p.112).
Au niveau de I'expdrimentation certaines difficultés méthodologiques ont
dté déceldes. Le lecteur trouvera dans i'annexe 9 quelques directives en vue de
guider des futures études utilisant la mdthode LVR dans l'amélioration des
ressources d'aide d'un environnement informatise de téléformation.
Du point de vue de la recherche, les limites constituent des indices sur le
besoin de faire d'autres études pour mieux comprendre l'éventuelle efficacité de
l'approche LVR dans l'amélioration des ressources d'aide. Mais ces indices ne
sont pas les seules contributions de cette recherche. Malgré les contraintes
mentionnées, la démarche suivie pour ddvelopper et amdliorer les ressources
d'aide d'un environnement informatisd de teléformation est un apport aux
mdthodologies de design qui s'intdressent à I'apprenant comme un participant
actif du design pddagogique. En proposant rapproche LVR comme moyen pour
améliorer les problémes d'utilisation, cette recherche intégre I'apprenant au
design et confère à I'am8lioration des ressources d'aide a l'utilisation une place
dans le processus de ddveloppement d'un environnement informatisé de
téleformation. Dans cette optique, l'évaluation formative est susceptible
d1acqu8rir une perspective diffdrente dans le design de ces environnements.
De plus, cette recherche a mis en Bvidence la difficulté inhdrente à
l'utilisation d'un environnement informatisd de téldformation, ce qui fait que
d'autres études visant A rdsoudre ce probléme s'avérent nécessaires. Enfin,
l'entraide s'est rBvbt6 comme une ressource d'aide privilégide par les
apprenants pour pallier aux difficultés d'utilisation. Cela suppose qu'une
emphase particulihre doit être mise pour assurer l'utilisation efficace des outils
de communication.
Dans un environnement informatisé de téléformation, I'apprenant peut
entrer en communication avec des tuteurs, des gestionnaires et des experts.
Cela suppose d'autres ressources d'aide Bventuelles qui puissent, elles aussi,
utiliser l'environnement de façon efficace. L'approche d'dvaluation formative
priviidgide dans cette recherche est centrde sur la cueillette des donndes auprbs
de l'apprenant. Mais on ne connaît pas son efficacite auprbs d'autres acteurs
de I'EIT. II est possible que la vocation de I'approche LVR passe de la revision
auprbs de l'apprenant h la revision auprbs de l'usager.
6.3 Recommandations
Les nombreuses questions soulevees dans cette recherche constituent
des indices dont il faut tenir compte dans les 6tudes visant à généraliser les
résultats obtenus dans cette recherche. Les recommandations qui se degagent
dans ce sens sont les suivantes :
poursuivre la recherche vers de meilleurs instruments de mesure,
notamment pour obtenir plus de prdcision quant au temps
d'accomplissement des tâches et h la nature des donndes à recueillir;
O realiser la cueillette des données auprés des différents acteurs de
l'environnement informatise de t6lbforrnation en vue d'am6liorer les
ressources d'aide à l'utilisation;
i tester I'efficacitb de I'approche LVR dans I'am6lioration de ressources
d'aide B la realisation des tâche;
mieux definir les diffdrents types de ressource d'aide en relation avec la
strategie des apprenants;
continuer & mettre à I'essai l'environnement inforrnatisd de
tel~fonnation afin de vdrifier I'efficacite de I'approche LVR dans
d'autres types de ressources d'aide, entre autres, pour la visite guidée;
O vérifier la g4ndralisabilit6 des modalitds d'application de I'approche
LVR en regard des environnements informatisés de tdléforrnation,
exemple : stade du ddveloppement du prototype h mettre à I'essai,
type d'apprenant, nombre d'apprenants, type de données.
Bvaluer l'attitude de l'apprenant 1'8gard des RDA dBvelopp6es au moyen de l'approche LVR. Finalement, dans un design centre sur
l'usager, c'est à ce dernier de signaler si les RDA correspondent ou ne
correspondent pas à ses besoins (Holcomb et Tharp, 1991, p.49).
Bibliographie
Abedor, A. (1972). Second-Draft Technology: Development and Field Test of a Model for Formative Evaluation of Self-Instructional Multi-Media Learning Systems. Viewpoints, 48(4): 9-44.
Aron, R. (1 989). The Relationship of Help-Seeking Behaviors and Cognitive Style while Performing a Computer Task. Thèse doctorale, Ohio State University.
Aubin, C., Crevier, F. et Paquette, G. (1995). Rapport d'évaluation de I'AGD. LICEF, Tété-université. Document interne.
Bag hdadi, A. (1 981 ). A Cornparison Between Two Formative Evaluation Methods. Thèse doctorale, University of Indiana.
Sasescu, B. (1963). On Frames and on Editing and Revising Programmed Instruction. Dans R.T. Filep (ed.), Prospectives in Programming, New York, MacMillan.
Basque, J. et Chomienne, M. (1994). Apprendre dans des environnements pédagogiques informatisés. Dans Apprendre dans des environnements pédagogiques informatisés, Les éditions logiques, Montréal.
Bates, T. (1994). Hello, Technology! Goodbye, Distance teaching institutions? Open Praxis, 2.
Bates, T. (1993). Theory and Practice in the Use of Technology in Distance Education. Dans Desmond Keegan (ed.), Theoretical Principles of Distance Education. Routledge. LondonINewYork: 39-58.
Beauchamp-Bellefeuille, S., Lariviere, C. et Stolovitch, H. (1980). L'apport des élèves a l'amélioration des documents pédagogiques qui leur sont présentés. Rapport GRERDAVE No. 15, Universite de Montréal.
Bélisle, C. et Linard, M. (1996). Quelles nouvelles compétences des acteurs de la formation dans le contexte des TIC? Education permanente, (1 27): 19-47.
Berthelot, S. (1978). Le niveau de verbalisation d'un sujet dans le cadre d'une évaluation L VR d'un document audiovisuel par le mode tutoriel. Thèse doctorale, Université de Montréal.
Black, J., Carroll, J. et McGuigan, S. (1987). What Kind of Minimal Instruction Manual is the Most Effective?. Dans CHl+Gi187 Conference Proceedings, Toronto: 159- 162.
< Black, J., Galarnbos, J. et Reiser, B. (1984). Coordinating Discovery and Verification Research. Dans D. Kieras et M. Just (Eds.), New Methods in the Study of
lmmediate Processes in Comprehension. Hillsdale, NJ: Lawrence Erlbaum Associates: 287-297.
Blake, T. (1990). Adventures with Hybrid Systems: lntegrating the Macintosh Interface with External Devices. Dans The Art of Human-Computer Interface. Brenda Laurel, Ed., MA: Addison-Wesley: 189-1 98.
Bloomberg, J. et Henderson, A. (1990). Reflections on Participatory Design: Lessons from the Trillium Experience. Dans CH1'90 Proceedings, Avril: 353-359.
Bordeleau, P. (1 994). L'intégration pédagogique de l'ordinateur pour une écologie de I'école. Dans Apprendre dans des environnements pédagogiques informatisés, Les Éditions Logiques.
Bordeleau, P. (1 978-1 979). Qu'en est-il du "Learner Verification and Revision"? Monographie sur l'évaluation des documents audio-scripto-visuels éducatifs. GRERDAVE, Rapport No. 10, Université de Montréal.
Bordeleau, P. et Meunier, C. (1981). Les effets secondaires des documents audio- visuels éducatifs: problématique d'une recherche. Les systèmes d'enseignement et d'apprentissage. CIPTE, les publications audiovisuelles: 146- 150.
Bott, R. (1979). A Study of Complex Learning: Theories and Methodologies. Thèse doctorale. University of California, San Diego.
Bourdeau, J. (1 985). Apprentissage conceptuel du traitement de texte à l'aide de jeu, simulation et tutorat. Thèse doctorale. Technologie educationnelle, Université de Montréal.
Boyd, G. (1993). A Theory of Distance Education for the Cyberspace. Dans Desmond Keegan (ed.), Routledge, Theoretical Distance Education. LondonINewYork: 234-253.
Brunner, H., Whittemore, G., Ferrara, K. et Hsu, J. (1992). An Assessrnent of WrittenAnteractive Dialogue for Information Retrieval Applications. Human- Computer Interaction, 7: 197-249.
Burge, E. (1994). Learning in Computer Conferenced Contexts: The Learners' Perspective. Journal of Distance EducatiodRevue de i'éducation à distance, 9(1):19-43.
Burton, J. et Aversa, F. (1972). Formative Evaluation lnformation From Scripts, Scratch Tracks and Rough Cuts: A Comparison. Educational Communication Technology Journal, (3): 191 -1 94.
Byrum, D. (1 992). Formative Evaluation of Computer Courseware: An Experimental Comparison of Two Methods. Journal of Educational Computing Research, 8(1): 69-80.
Cambre, M. (1981). Historical Ovenliew of Formative Evaluation of lnstructional Media Products. ECTJ, 29(1): 3-25.
Campbell, R. (1 989). Evaluating Online Assistance Empirically. Research 1 3421 0, User Interface Institute, IBM T.J. Watson Research Center.
Carroll, J. (1992). Minimalist Documentation. Dans Stolovitch et Keeps (Eds.), Handbook of Human Performance Technology: 331 -35 1.
Carroll, J. (1990). The Nurnberg Funnei: Designing Minimalist Instruction for Practical Computer Skill. The MIT Press, Cambridge, Massachusetts.
Carroll, J. (1985). Minimalist Design for Active Users. Proceedings of First IFlP Conference on Humamcornputer Interaction - Interact184, London, Septembre 4- 7, Amsterdam: North-Holland: 39-44.
Carroll, J. et Aaronson, A. (1988). Learning by Doing with Simulated Intelligent Help. Communications of the ACM, (31 ): 1064-1 079.
Carroll, J . et Carrithers, C. (1984). Blocking Learner Errors In a Training Wheels System. Human Factors, 26(4), 377-389.
Carroll, J. et Mack, R. (1983a). Actively Learning to Use a Word Processor. Dans W. Cooper (ed.), Cognitive Aspects of Skilled Typewritting. New York: Springer- Verlag: 259-281.
Carroll J. et Mack, R. (1983b). Learning to Use a Word Processor: By doing, by thinking, and by knowing. Dans J.C. Thomas et M. Schneider (Eds.), Human factors in Computing Systems. Norwood, NJ: Ablex.
Caroll, J. et Rosson, M. (1987). Paradox of the Active User. Dans J.M. Carroll (ed.), Interfacing Thought: Cognitive Aspects of Human Computer Interaction, Cambridge, MA: Bradford Books/MIT Press.
Carroll, J., Smith-Kerker, P., Ford, J, et Mazur-Rimetz, S. (1987-1988). The Minimal Manual. Human Computer Interaction, 3: 123-1 53.
Chen, M. (1995). A Methodology for Characterizing Computer-based Learning Environments. lnstructional Science, 23: 183-220.
Collis, B. et Verwijs, C. (1995). A Human Approach to Electronic Performance and Learning Support Systems: Hybrid EPSSs. Educational Technology, 35 (1): 5- 21.
Conseil de la science et de la technologie. (1995). Autoroute de l'information du Québec: plan d'action pour l'implantation d'une autoroute de l'information. Juillet.
Conseil supérieur de l'éducation (1 994). Rapport annuel 1993- 1994 sur l'état et les besoins de l'éducation.
Cooper, M. et Hotzman, M. (1985). Counterstatement Reply. College Composition and Communication, 36: 97-1 00.
Cronbach, L. (1 963). Course improvement through evaluation. Teacher College Record, 64: 672-683.
Davis, F. (1 985). A technology Acceptance Mode1 for Empirically Testing New End-user Information-systems: Theory and Results. Thèse doctorale, MIT.
De la Teja, 1. (1 990). Efficacité de différents types de documentation minimaliste pour l'apprentissage des systèmes informatiques. Mémoire de maîtrise. Université de Montréal, Département d'études en éducation et d'administration de I'éducation, Décembre.
De la Teja, 1. et Liégeois, S. (1995). Révision de la maquette du Campus Virtuel et de l'outil d'aide a l'utilisation, Rapport d'étape, LICEF, Télé-université, Août.
De la Teja, 1. et Liégeois, S. (1994). Mise au point d'une technique d'identification des difficultés B utiliser l'environnement technologique Campus Virtuel. Notes de Recherche. LICEF, Télé-Université, UQAM, Novembre.
De Landsheere, G. (1979). L'évaluation, partie intégrante de l'apprentissage: une entrevue avec le professeur Gilbert de Landsheere. Vie pédagogique, 5: 22-28.
De Laurentis, E. (1981). Qualitative Differences in Levels of Performance on a Computer-editing Task. Thèse de maîtrise. McGill University, Montréal.
Debert, R. (1 979). Revisionary Tactics. Performance and lnstructional Journal, 18(7): 8- 21.
Dede, C. (1995). The Evollrtion of Constructivist Learning Environments: Immersion in Distributed, Virtual Worlds. Educational Technology, 35(5): 46-52.
Dede, C. (1990). The Evolution of Distance Learning: Technology Mediated Interactive Learning. Journal of Research on Computing in Education, 22(3): 245-264.
Dick, W. (1968). A Methodology for the Formative Evaluation of lnstructional Materials. Journal of Educational Measurement, (2): 99-1 02.
Dick, W. et Carey, L. (1990). The Systematic Design of Instruction. (3ème ed.). Glenview, IL.: Scott, Foresman & Company.
Dickelrnan, G. (1995). Things that Help us Perform: Reviewing ldeas from Donald Norman by Gary J. Dickelman. Performance lmprovement Quarterly. 8(1).
Dringus, t. (1995). An lterative Usability Evaluation Procedure for Interactive Online Courses. Journal of lnteractive Instruction Development. 7(4): 10-1 4.
Douglas, S. (1983). Learning to Text Edit: Semantics in Procedural Ski11 Acquisition. Thèse doctorale. Stanford University.
Douglas, S. et Moran, T. (1983). Learning Text Editor Semantics by Analogy. Dans Human Factors in Computer Systems, CH1'83 Conf. Proceedings, Boston, Décembre: 12-1 5.
Duffy, T. (1981). Organising and Utilizing Document Design Options. Information Design Journal, 2.
Duffy, T. et Langston, M. (1985). On-line He$: Design Issues for Authorhg Systems. CDC Technical Report No. 18, Communication Design Center, Carnegie-Mellon University, Pittsburg, Novembre.
Duffy, T., Palmer, J. et Mehlenbacher, B. (1992). Online help: Design and Evaluation. Norwood, New Jersey: Ablex.
Duffy, T., Smith, G. et Post, T. (1 985). Technical Manual Production: An Examination of Four Systems. CDC Technical Report No. 19, Communication Design Center, Carnegie-Mellon University, Pittsburg, Novembre.
Duffy, T., Trumble, J., Isenberg, T., Janik, C. et Rodgers, K. (1985). Learning with On- line and Hardcopy Tutorials. CDC Technical Report No. 32, Communication Design Center, Carnegie-Mellon University, Pittsburg.
Dupont, D. (1 980). Développement et évaluation d'un modèle de révision de documents éducatifs. Thèse doctorale, Université de Montréal, rapport GRERDAVE No. 17.
Dupont, D. (1 977). €tude comparative de deux facons de recueillir les informations dans le cadre d'une évaluation LVR d'un document audio-visuel. Mémoire de maîtrise ès arts. université de Montréal, Rapport GRERDAVE, No. 4.
Dupont, D. et Stolovitch, H. (1 983). The effects of a systematic revision mode1 on revisers in terms of student outcomes. Performance & Instruction, 22(2): 5-20.
Edelson, D., Pea, R., et Gomez, L. (1996). Constructivism in the collaboratory. Dans B.G. Wilson (ed.), Constructivist Learning Environments: Case Studies in Instructional Design. Englewood Cliffs, NJ. Educational Technology Publications.
Edmonds, E. (1992). The Emergence of the Separable User Interface. Dans The Separable User Interface. Dans Ernest A. Edmonds, Ed. Londres: Academic Press: 5-18.
Ely, D. (1 973). Def ining the Field of Instructional Technology. Audiovisual Instruction, 1 8(3): 52-33.
Ericsson, K. et Simon, H. (1 984). Protocal Analysis: Verbal Reports as Data. MIT Press, Cambridge, Massachusetts.
Erickson, T. (1990). Working with Interface Metaphors. Dans The Art of Human- Computer Interface. Brenda Laurel, Ed., MA: Addison-Wesley: 65-74.
Fischbein, M., Ajzen, 1. (1 975). Belief, Attitude, Intention and Behavior: An Introduction to Theos, and Research. Reading MA.: Addison Wesley.
Flagg , B. (1 990). Formative Evaluation for Educational Technologies. Hillsdale, NJ: Lawrence Erlbaum Associates,
Flemming, M. (1963). Influence of Three Teaching Machine Factors: Feedback to Programmer, Participation by Learner, and Feedback to Learner on the Production and Utiiization of Science Films.Bloomington: Indiana University, Audio-Visual Center.
Fontaine, F. (1988). Mesure crifériée des croyances des futurs maitres a IEgard de I1évaluation des apprentissages. Thèse doctorale, Universi té de Montreal.
Forman, D. et Kaplan, S. (1994). Continuous Learning Environments: Online Performance Support Systems. Journal of Instruction Delivery Systems, printemps: 6-1 1.
Frase, L., de Gracie, J. et Poston, W. (1974). Product Validation: Pilot Test or Panel Review? Educational Technology, 1 9(8): 32-35.
Galbraith, J. (1967). New Industrial State, Boston: Houghton Mifflin.
Gentner, D. et Norman, D. (1977). The Flow Tutor: Schemas for Tutoring. Technical Report 7702, UC San Diego.
Gery, G. (1991). Electronic Performance Support Systems. Boston. Weingarten Publications.
Giardina, M. et Meunier, C. (1993). Dans Legendre, R. Dictionnaire actuel de l'éducation, 2eme édition. Guérin, Montreal.
Gomez, L., Egan, D. et Bowers, C. (1986). Learning to Use a Text Editor: Some Learnet Characteristics that Predict Success. Human-computer Interaction, 2(1): 1 -23.
Gomoll, K. (1990). Some Techniques for Observing Users. Dans The Art of Human- Computer lnterface. Brenda Laurel, Ed., MA: Addison-Wesley: 85-90.
Gould, J. (1988). How to Design Usable Systems. Dans M. Helander (ed.), Handbook of Human-Compter interaction, North-Holland: 757-789.
L Gropper, G. (1975). Diagnosis and Revision in the Development of instructional Materials. Englewood Cliffs, NJ: Educational Technology.
Gropper, G. et Lumsdaine, A. (1961). The Use of Student Response to lmprove Televised Instruction: An Overview. Studies in Televised Instruction. Pittsburg: American lnstitute Research.
Guilcher, K. et Johnstone, S. (1988). A Critical Review of the Use of Audiographic Conferencing Systems by Selected Educational Institutions. Washington, DC: AnnenbergfCPB Project and University of Maryland University College, Office of Instructional Tefecommunications.
Guillemette, A. (1986). The Meaning of Reading-to-do Documentation. lEEE Transactions on Professional Communications, 29(4): 33-36.
Hannafin, M., Hall, C., land, S. et Hill, J. (1994). Learning in Open-Ended Environments: Assumptions, Methods, and Implications. Educational Technology, 34(8): 48-55.
Hastings, J. (1966). Curriculum: The Whys of the Outcomes. Journal of Education Measurement, (3): 27-32.
Heeren, E. et Collis, B. (1993). Design Considerations for Telecommunications- Supported Cooperative Learning Environments. Journal of Educational Multimedia and Hypermedia, 4(2): 1 07-1 27.
Henderson, E. et Nathenson, M. (1976). Developmental Testing: Collecting Feed-back and Transforming it into Revisions. NSPl Journal, 19(3): 6-1 0.
Hill Duin, A. (1990). Cornputer Documentation-centering on the Learner. Journal of Compter-Based Instruction, 17(2): 73-78.
Hill Duin, A. (1988). Computer-assisted Instructional Displays: Effects on Students' Computing Behaviors, Prewriting and Attitudes. Journal of Compter-Based Instruction, 5(2): 48-56.
Hillman, D., Willis, D. et Gunawardena, C. (1994). Learner-Interface Interaction in Distance Education: An Extension of Contemporary Models and Strategies for P ractitioners. The American Journal of Distance Education, 8(2): 30-42.
Hoban, C. 11 956). Research and reality. A V Communication Review, 4(3): 3-20.
Hoban, C. (1938). Experimental Research in lnstructional Films. Dans E. Dale, F.W. Dunn, CF. Hoban, et E. Schneider (Eds.), Motion Pictures in Education, New York: Wilson.
Holcomb, R. et Tharp, A. (1991). What Users Say about Software Usability.
c lnternational Journal of Human-Computer Interaction, 3(1): 49-78.
c Houghton, R. (1984). On-line Help Systems: A Conspectus. Communications of the ACM, 27(2): 126-1 33.
Hovland, C., Lumsdaine, A. et Sheffield, F. (1949). Experiments in Mass Communications. Princeton, N. J.: Princeton University Press.
Judd, W. (1 986). Beyond the Menu Screen: What a Help System Can Be. Data Training, Julliet : 24-27.
Kandaswamy, S. (1976a). Evaluation of Instructional Materials: A Synthesis of Models and Methods. Educational Technology, 2O(6): 1 9-26.
Kandaswamy, S. (1976b). Learner Verification and Revision: An Experimental Com parison of Two Methods. A V Communication Review, 24(3): 31 6-328.
Kaptelinin, V. (1 993). Activity Theory: Implications for Human Cornputer Interaction. Dans Human-Machine Communication for Educational Systems Design. NATO, AS1 Series No. 129. Springer-Verlag.
Kearsley, 0. (1988). Online help systems: Design and lmplementation. Norwood, NJ: Ablex Publishing Corp.
Keegan, D. (1 993). Foundations of Distance Education. 2e. édition. New York: Routledge.
Kellog, J. (1 989). The Dimensions of Consistency. Dans J. Nielsen (ed.), Coordinathg User Interfaces for Consistency, Academic Press, Boston: 9-20.
Komoski, K. (1983). Formative Evaluation: The Empirical lmprovement of Learning Materials. Performance & lnstruction Journal, Juin: 3-4.
Kornoski, K. (1974). Shifting Educational Realties and Learner Verification of Instructional Materials. Evaluating Educational Programs and Pruducts, Englewood Cliffs, N.J., Educational Technology Publications.
Komoski, K. (1971). Statement to the U.S. House of Representatives Committee on Education and Labor. Hearings to Establish a National lnstitute of Education, 92nd Congress. Washington D.C., US. Governrnent Printing Office.
Komoski, K. (1966). A Demonstration Project of Programmed Television Instruction. Conducted by the lnstitute of Educational Technology, Teachen college, Columbia University, avec WETA-TV, Washington DC., contrat OE-4-16-034. United States Office of Education.
Komoski, K. et Woodward, A. (1985). The Continuing Need for Learner Verification and Revision of Textual Material. Dans D.H. Jonassen (ed.), The Technology of Text Vol. 2. Englewood Cliffs, NJ: Educational Technology Publications.
( Korzeniewski, P. (1 994). Help Desks To The Rescue. lnfonnation Week, (1 9): 64-74.
c Kozma, R. (1 991 ). Learning with Media. Review of Educational Research, 61 (2): 179-
211.
Larin, G. (1981). L'approche "Learner Verification and Revision" appliquée au matériel d'enseignement formel en primaire. Thèse doctorale, Université de Montréal.
Lashley, K. et Watson, J. (1921). A Psychological Study of Motion Pictures in Reiation to Venereal Disease Campaigns. Social Hygiene, (7): 181 -21 9.
Laszlo, A. et Castro, K. (1995). Technology and Values: Interactive Learning Environments for Future Generations. Educational Technology, 35(2): 7-1 3.
Laurel, B. (1990). Users and Contexts. Dans The Art of Human-Cornputer Interface. Brenda Laurel, Ed., MA: Addison-Wesley: 91 -93.
Legendre, R. (1 993). Dictionnaire actuel de I'éducation, 2e édition. Montréal.
Leibs, S. (1994). Why Can't PCs Be More Bun? Informationweek, (488): 27-30.
Leontiev, A. (1972). Le développement du psychisme. Paris, Eds. Sociales.
Lewis, C. et Mack Fi. (1982). Learning to Use a Text Processing System: Evidence from "Think Aloud" Protocols. Dans Proceedings of the Human Factors in Compter Systems Conference, Gaithersburg, M.D., Mars: 15-17.
Linderholm, O. (1 992). Mind Melding. Byte, Special Edition: 41-46.
Long, J. (1989). Cognitive Ergonornics and Human-computer Interaction: An Introduction. Dans Cognitive Ergonornics and Human-computer Interaction, Long J. et Whitefield, A. Eds. Cambridge Series on Human-compter Interaction. Cambridge University Press.
Lumsdaine, A. (1964). Educational Technology: Issues and Problems. Dans Lange, P.C. (ed.), Programmed Instruction: The Sixty Sixth Yearbook of the National Society for the Study of Education, NSSE, Chicago.
Lundgren-Cayrol, K. (1996). Computer-conferencing: A Collaborative Learning Environment for Distance Education Studies. Thèse doctorale. Université Concordia.
Mack, R., Lewis, C. et Carroll, J. (1983). Learning to Use Office Systems: Probloms and Prospects. ACM Transactions on Office Information Systems (1): 254-271.
McAlpine, L. (1992a). Cross-cultural Instructional Design: Using the Cultural Expert to Formatively Evaluate Process and Product. 29(4): 31 0-31 5.
( McAlpine, L. (1 992b). Highlighting Formative Evaluation: An lnstructional Design Model Derived from Practice. Performance and Instruction Journal, 31 (1 0): 1 6-1 8.
i. McAlpine, L. (1987). The Think Aloud Procotol: A Description of its Use in the Formative
Evaluation of Learning Materials. Performance and Instruction Journal, 26(8): 18- 21.
McGraw, K. (1994). Performance Support Systems: lntegrating Al, Hypermedia, and CBT to Enhance User Performance. Journal of Artificial Intelligence in Education, 5(l): 3-26.
Mark, M. et Greer, J. (1993). Evaluation Methodologies for Intelligent Tutoring Systems. Joumal of Artificial Intelligence in Education, 4(2/3):129-153.
Markle, S. (1 967). Empirical Testing of Programs. Dans P.C. Lange (ed.), Programmed Instruction. The 67th Yearbook of the National Society of the Study of Education, Part Il, University of Chicago Press.
Mauldin, M. (1996). The Formative Evaluation of Computer-based Multimedia Programs. Educational Technology, 36(2): 36-40.
Medley-Mark, V. et Weston, C. (1988). A Comparison of Student Feedback Obtained from Three Methods of Formative Evaluation of lnstructional Materials. Instructional Science. 17: 3-27.
Mitchell, 0. (1975). A System for Education Permanente Programme. Learning and Educational Technology, 12(5): 241 -254.
Montague, W., Ellis, J. et Wulfeck, W. (1983). Instructional Quality Inventory: A Formative Evaluation Tool for lnstructional Development. Performance 8 Instruction Journal, 22(5): 1 1 -1 4.
Moore, M. (1 989). Three Types of Interaction. The American Journal of Distance Education, 3(2): 1 -6.
Morrison, D. et Collins, A. (1995). Epistemic Fluency and Constructivism Learning Environments. Educational Technology, 35(5): 39-45.
Mountford, J. (1990). Toots and Techniques for Creative Design. Dans The Art of Human-Cornputer Interface. Brenda Laurel, Ed., MA: Addison-Wesley: 17-30.
Murray, T. (1993). Formative Qualitative Evaluation for "Exploratory" ITS Research. Journal of Adjficial Intelligence in Education, 4(213): 1 79-207.
Negroponte, N. (1 995). L'homme numérique. Robert Laffont (ed.), Montréal.
Nielsen, J. (1992a). Finding Usabililty Problems Through Heuristic Evaluation. CH1'92 Proceedings, Mai 3-7: 373 -380.
c Nielsen, J. (1 993). Usabi/ify Engineering. Boston: Academic Press.
Noe, Fi. (1 986). Trainees' Attnbutes and Attitudes: Neglected Influences on Training Effectiveness. Academy of Management Review, 1 1 : 736-749.
Northrup, P. (1995). Concurrent Formative Evaluation: Guidelines and implications for Multimedia Designers. Educational Technology, 35(6): 24-31.
Nowaczyk, R. et James, C. (1993). Applying Minimal Principles for Documentation of G rap hical User Interfaces. Journal of Technical Writing and Communication, 23(4): 379-388.
O'Malley, C. (1986). Helping Users Help Themselves. Dans D.A. Norman et S.W. Draper (Eds.), User Centered System Design: New Perspectives on Human- cornputer interaction. Hillsdale, NJ: Lawrence Earlbaum Associates.
Oettinger, A. (1 970). Run, Cornputer, Run. Cambridge, Harvard University Press, 2eme édition.
Olfman, L. (1 987). A Comparison of Applications-based and Construct-based Training Methods for DSS Generator Software. Thèse doctorale, Indiana University, Bloomington.
Olfman, L. et Bostrom, R. (1988). End-user Training: An Experimental Comparison of Seminar Methods. Information Science, The Claremont Graduate School, Claremont California.
Oliver, R. (1 996). Measuring Users' Performance with Interactive lnformation Systems. Journal of Computer Assisted Learning. 12: 89-1 02.
Palmer, E. (1 974). Formative Research in the Production of Television for Children. Dans D.E. Olson (ed.), Media and Symbols: The Forms of Expression, Communication, and Education, 73th Yearbook of the National Society for the Study of Education, University of Chicago Press.
Parent, A. (1 990). Collection and Analysis of Dialogue Protocols for the Question- answering Facil/ty of the Entity-relationship Modeling Advisor. Conseil national de recherches Canada, NRC, No. 31827, Octobre.
Peters, 0. (1993). Distance Education in a Postindustrial Society. Dans D. Keegan (ed .). Theoretical Principles of Distance Education. Routledge. London/NewYork: 39-58.
Picard, C. (1 992). Élaboration et évaluation d'un matériel didactique portant sur la notion de fraction en cinquième année du primaire. Revue des sciences de l'éducation, l8(l): 29-41.
Politis, M. (1 984). Techniques de la bureautique. Paris, Masson.
Redish, J. (1988). Reading to Learn to Do. The Technical Writing Teacher, 1988, 15: 223-233.
Redish, J., Battison, R. et Gold, E. (1 985). Making lnformation Accessible to Readers. Dans Odelle et Goswami (Eds.), Writing in Nonacademic Settings. New York: Guilford Press.
Redish,J., Felker, D. et Rose, A. (1981). Evaluating the Effects of Document Design Principles. lnformation Design Journal, 2.
Rheingold, H. (1990). An Interview with Don Norman. Dans The Art of Human- Computer Interface. Brenda Laurel, Ed., MA: Addison-Wesley: 5-1 0.
Ricciardi-Rigault, C. (1 991 ). Téléinformatique et applications télématiques. Télé- université, Université de Québec.
Ridway, L. (1987). Read My Mind: What Users Want from Online Information. IEEE Transactions on Professional Communication, 30(2):87-90.
Robeck, M. (1965). A Study of the Revision Process in Programmeci Instruction. Mémoire de maîtrise. Université de California, Los Angeles.
Rose, N. et Van Horn, C. (1 956). Theory and Application of Preproduction Testing. A V Communication Review, 4: 21 -30.
Rodriguez, A. et Rodriguez C. (1 982). Application de /'approche LVR a différents stades de la réalisation de matériel d'enseignement audio-visuel. Mémoire de maîtrise ès arts. Université de Montréal.
Rothkopf, E. (1963). Some Obsewations on Predicting lnstructional Effectiveness by Simple Inspection. lmproving Human Performance Quarterly, 2(3): 1 65-1 67.
Sandberg, J., Breuker, J., et Winkels, R. (1988). Research on Help-systems: Empirical Study and Mode1 Construction. €CA/-88. Munchen.
Saroyan, A. (1 993). Differences in Expert Practice: A Case from Formative Evaluation. lnstructional Science, 2 1 : 45 1 -472.
Satzinger, J. (1 994). A Research Framework for Exploring User Interaction with Multiple Applications. Accounting, Management and lnformation Technology, 4(4): 225- 243.
Savery, J. et Duffy, T. (1995). Problem Based Learning: An instructional mode1 and its Constnictivist Framework. Educational Technology, 35(5): 31 -38.
Scholer, M. (1 983). La technologie de /'éducation: concept, bases et application. Les Presses de l'université de Montréal.
Schriver, K. (1 984). Designing Computer Documentation: A Review of the Relevant Literature. CDC Technical Report No. 31, Communication Design Center, Carnegie-Mellon University, Pittsburg.
LJJ
(, Schweitzer, J., Witschital, P., Otto, B., Burgard, J., et Dietel, C. (1993). CL€:
Cooperative Learning in a Distributed Multimedia Environment. Elsevier Science Publishers, B.V., North Holland.
Scriven, M. (1967). Evaluation Models: Viewpoints in Educational and Human Services Evaluation. Boston: Kluwer-Nijhoff: Hingham, MA,
Selfen, A. et Nicol, A. (1990). Building User-centered On-line Help. Dans The Art of Human-Compter Interface. Brenda Laurel, Ed., MA: Addison-Wesley:l43-153.
Shale O. et Garrison, DA. (1990). Education and Communication. Dans Garrison et Shale (Eds.), Education at a Distance. Malabar, FL. Robert E. Krieger Publishing Company.
Shneiderman, B. (1 988). Designing the User Interface: Strategies for Effective Human- cornputer Interaction. Addison Wesley, MA.
Shneiderman, B. (1982). Software Psychology: Human Factors. Dans Cornputer and lnformation Systems. Cambridge, MA. Winthrop.
Skinner, B. (1 958). Teaching Machines. Science, 24: 89-97.
Spector, M., Muraida, D. et Marlino, M. (1992). Cognitively Based Models of Courseware Development. Educational Technology Research and Development, 40(2): 45- 54.
Stolovitch, H. (1982). Applications of the lntermediate Technology of Learner Verification and Revision. Perfomance & Instruction Journal, 21 (7): 1 6-22.
Stolovitch, H. (1 981). Technologie de la performance. Performance, 5(4): 9-12.
Stolovitch, H. (1 978). The lntermediate Technology of Learner Verification and Revision (LVR). Educational Technology, 1 8(2): 1 3-1 7.
Stotovitch, H. (1976). Formative Evaluation of Instructional Games. lmproving Human Performance Quarterly, 4(3):126-141.
Stotovitch, H. et Larocque, G. (1 983). Introduction à la technologie de I'instruction. diti ions Préfontaine, inc. Québec.
Stolovitch, H. et Vanasse, S. (1989). The Paradox of User Documentation: Useful, But Rarely Used. Performance and Instruction, 28(7): 19-22.
Sullivan, M. et Chapanias, A. (1983). Human Factoring a Text Editor Manual. Behaviour and Information Technology, 2(2): 1 13-1 25.
(- Szekely, J. (1988). lmplementation of a Program's Designer Model. Dans Cognitive Ergonomies and Human-computer Interaction, Long J., et Whitefield, A. Eds.
Cambridge series on human-computer interaction. Cambridge University Press: 31 3-330.
Tchounikine, P. (1994). Élaboration d'un modèle de raisonnement par prototypage à un niveau connaissance. Sciences et techniques Bducatives: l(4).
Thiagarajan, S. (1978). lnstructional Product Verification and Revision: Twenty Questions and Two Hundred Speculations. Educational Communication and Technology Journal; 26(2).
Thiagarajan, S. (1976). Learner Verification and Revision: What, Who, When and How? Audiovisual Instruction, 21 (1 ): 1 8-1 9.
Thiagarajan, S. (1971). The Programming Process: A Practical Guide. Worthington, Ohio: Charles A. Jones Publishing Company.
Tessme r, M. (1 993). Planning and Conducting Formative Evaluations. Kogan Page, London, UK.
Tyler, R. (1942). Purposes and Procedures of the Evaluation Staff. Dans E.R. Smith et R.W. Tyler (Eds.), Appraising and Recording Student Progress. New York: Harper & Brothers.
Vanasse, S. (1 990). Développement de ressources minimalistes enrichies d'examples pour l'apprentissage d'un système de prototypage. Thèse doctorale. université de Montréal, Département d'études en éducation et d'administration de l'éducation.
Vanderlinden, G., Cocklin, T.G. et McKita, M. (1988). Designing Tutorials that Help Users Learn Through Exploration. Proceedings of the International Professional Communications Conference: 195-1 99.
VanderMeer, A. (1964). An Investigation of the lmprovement of Educational Films Strips. The Effectiveness of these Media. Study No. 2. University Park, Pa: Pennsylvania State University.
Vazquez-Abad, J. et Winer, L. (1992). Emerging Trends in Instructional Interventions. Dans Stolovitch et Keeps (Eds.), Handbook of Human Performance Technology 672-687.
Vygotsky, L. (1978). Mind in Society. The Development of Higher Psychological Processes. M. Cole (ed.). Cambridge, Harvard University Press.
Wager, J. (1983). One-to-one and Small Group Formative Evaluation: An Examination of Two Basic Formative Evaluation Procedures. Performance and lnstructional Journal, 22(5): 5-7.
< Warner, J. (1988). The Effectiveness on Adult Leamers of Mhimalist Design Theory on Learning, Attitude, Anxiety, and Erne-on-task for Self-study Learning. Thèse doctorale. Michigan State University.
Weston, C. (1986). Formative Evaluation of Instructional Materials: An Overview of App roaches. Canadian Journal of Educational Communication, 1 5(t ): 5- 1 7.
W eston, C. (1 987). The Importance of lnvolving Expertsand tearners in Formative Evaluation. Canadian Journal of Educational Communication, 1 6(1): 45-58.
Weston, C., McAlpine, L. et Bordonaro, T. (1995). A Model for Understanding Formative Evaluation in Instructional Design. ETR&D, 43(3): 29-48.
W ifliams, J. (1 983). Formative Evaluation in Instructionai Design. Theory Versus Practice. Thése doctorale. Northern Illinois University, De Kalb, Illinois.
Wilson, B. (1 996). Constructivist Learning Environments: Case Studies in Instructional Design. Englewood Cliffs, NJ: Educational Technology Publications.
Wilson, B. (1995a). Metaphors for Instruction: Why We Talk About Learning Environments. Educational Technology, 35(5): 25-30.
Wilson, B. (1985b). Using Content Structure in Course Design. Journal of Educational Technology Systems, 14(2): 137-1 47.
Wilson, J. et Mosher, D. (1994). The Prototype of the Virtual Classroom. Journal of Instructions Delivery Systems, 8(3): 28-33.
Winkels, R. (1992). Explorations in Intelligent Tutoring and Help. Amsterdam, ISO Press.
Wright, P. (1991). Designing and Evaluating Documentation for I.T. Users. Dans Brian Shakel et Simon Richarson (Eds.), Human Factors for Informatics Usability, Cambridge University Press.
Wright, P. (1988). Issues of Content and Presentation in Document Design. Dans M. Helander (ed.), Handbook of Human Computer Interaction, North Holland Publishing.
Wright, P. (1983). Manual dexterity : A User-oriented Approach to Creating Computer Documentation. Dans CH183 Conference Proceedings, Boston, Décembre: 11- 18.
A N N E X E S
Annexe 1
Documents donnés aux participants avant la mise à l'essai
Test d'utilisabilité ''Cours Formation et compdtitivité, version Colloque VirtueP9
Merci de votre intérêt à participer aux tests d'utilisabilité d'un nouvel environnement informatisé d'apprentissage. il s'agit d'un cours de la Télé-université dans lequel l'apprenant aura à agir dans le cadre d'un Colloque virtuel. Le thème du colloque est Formation et compétitivité.
En participant iî ce test, vous aurez l'occasion d'intervenir dans un colloque virtuel utilisant des outils de communication (vidéoconférence, messagerie, "chat"), des outils de consultation (Netscape et Videoviewer) et des bases documentaires multimédia. Vous travaillerez en équipe, mais à distance, à partir des locaux de la Télé-université, 3. Montréal.
Votre contribution nous permettra d'identifier les avantages et les difficultés de l'interface.
Pour participer, aucune connaissance préalable en informatique n'est nécessaire. Cependant, afin de rendre efficace l'expérimentation il est important que le participant s'engage à consulter attentivement les documents pédagogiques du colloque et de s'impliquer dans la réalisation des tâches.
Pour les test d'utilisabilité, chaque participant au Colloque doit comparer la situation de Ia formation au Québec avec le modèle de formation japonais ou avec le modèle de formation allemand. Pour ce faire, il peut accéder aux kiosques thématiques du colloque où i1 consuItera des documents multimédia. Une fois sa communication préparée (en version préliminaire) chaque participant assistera à un atelier dans lequel il aura l'occasion de travailler en équipe afin d'obtenir du feedback sur sa communication et de donner des commentaires sur les communications des autres.
En général, chaque participant devra réaliser les tiches suivantes : s'inscrire au colloque virtuel sélectionner le sujet sur lequel portera sa communication (modèle japonais ou modèle allemand)
0 rechercher l'information dans une base documentaire multimédia et sur Internet 0 préparer une communication préliminaire (20 à 30 lignes) 0 soumettre sa communication aux membres de l'atelier virtuel
lire la communication d'un membre de l'atelier et faire des commentaires et suggestions.
Durée de l'expérimentation : 4 heures (maximum).
ACCORD DE PARTICIPATION
Lisez ce texte avec attention et signez-le si vous acceptez de participer au test d'utilisabilité tel que brièvement exposé ci-dessous.
But des tests d'utilisabilité Les tests d'utilisabilité du cours "Formation et compétitivité" (version colloque virtuel) visent à identifier les difficultés que peuvent rencontrer les étudiants lors de l'apprentissage à l'aide d'un environnement de téléformation multimédia. Les données recueillies permettront de prendre des décisions pour améliorer l'environnement d'apprentissage avant sa diffusion.
Votre participation On vous demande d'assister à une expérimentation de trente heures approximativement pour réaliser des tâches représentatives du cours "Formation et compétitivité" (version colloque virtuel). Pour ce faire, vous devrez suivre les consignes indiquées dans I'environnement d'apprentissage.
Préalablement à la réalisation de vos tâches, vous aurez à répondre à un questionnaire sur votre expertise en matière d'informatique et d'environnements de téléformation. Une fois vos tâches complétées, vous aurez à participer à une réunion synthèse.
Nous garantissons le caractère confidentiel de toutes les informations personnelles et de performance.
J'accepte de participer à cette étude.
Nom : Signature : Date : Responsable des tests d'utilisabilité :
Questionnaire
Renseignements personnels
Âge : Sexe :
Degré de scolarité atteint :
Occupation actuelle :
1. Avez-vous déjà suivi des cours de formation à distance?
- Oui
- Non
2. Avez-vous déjà suivi des cours de formation à distance à l'aide de l'ordinateur?
- Oui
- Non
3. Avez-vous déjà suivi des cours assistés par ordinateur'?
- Oui
- Non
4. indiquez le type d'ordinateur que vous avez utilisé dans les six derniers mois :
- IBMPC oucompatible
- Macintosh
- Unix
- Autre :
- Aucun
5. En moyenne, combien d'heures par semaine utilisez-vous l'ordinateur?
- là10 - I l à20
- 21 à30
- plus de 30
6. Quel domaine décrit Ie mieux votre utilisation courante des ordinateurs?
- Loisirs
- Travail
- Études
- Autre
7. Parmi les logiciels suivants, indiquez ceux que vous utilisez couramment ou que vous avez utilis6s dans les douze derniers mois :
- MS Mail
y Office (Word, Excell, P Point)
- Netscape
- Cuseerne
- Tdkshow
- Viewervideo
8. Indiquez le moyen que vous utilisez habituellement pour résoudre une difficulté reliée à l'utilisation de votre ordinateur (système, logiciel, outil de communication, etc.) : - Documentation imprimée
- Aide sur demande (on-line help)
- Ressource humaine
- Autre :
9. Indiquez quelle est la méthode que vous utilisez habituellement pour apprendre à vous servir d'un ordinateur ou d'un logiciel : - Documentation imprimée (manuel d'accompagnement)
- Par exploration
- L'aide d'un expert
- Cours de formation
- Visite guidée
- Autre :
Programme du colloque (Scénario)
Inscription au colloque Se renseigner sur les sujets du colloque Sélectionner le sujet de votre communication Rédaction d'une communication Recherche d'informations Rédaction de communication (version préliminaire) Dép6t d'une communication dans l'atelier Dépôt de communication au bureau d'évaluation Participation au colloque Préparation à la présentation d'une communication dans un panel OU
Préparation à la participation aux panels Présentation d'une communication au panel "Anaiyse théorique" ou Participation au panel "Analyse théorique" Présentation d'une communication au panel "Analyse empirique" OU
Participation au panel "Analyse empirique" Dépôt des synthèses Examen Passation d'examen
SITE
Bureau d'inscription
Bureau d'inscription
Kiosque multimédia Valise
Ateliers de préparation
Bureau d'évaluation
Valise Kiosque multimédia
Salle de présentation
Salle de présentation
Bureau d'évaluation
DOCUMENTS À CONSULTER/
PRODURE
Thèmes du colloaue Formulaire d' inscription
Selon le sujet Gabarit "Comrnunic.doc"
Gabarit "Communic.doc"
Gabarit "Communic.doc"
DATE EV. (%lo)
Annexe 2
Questionnaire d'appréciation
Votre expérience avec le Colloque virtuel,..
1. Indiquez Ie temps passé sur le cours "Formation et compétitivité" (heures et minutes) :
2. D'une façon générale que pensez-vous du cours "Formation et compétitivité" (entourez votre réponse) ?
2.1 La présentation est : très claire plutôt claire plutôt confuse très confuse
2.2 Se diriger aux différents sites du colloque est : très facile plutôt facile plutôt difficile très difficile
a Est-il nicessitire d'avoir tous ces sites?
2.3 Consulter les documents des kiosques thématiques est : très facile plutôt facile plutôt difficile très difficile
2.4 Communiquer avec Ies participants du colloque est : très facile plutôt facile plutôt dimcile très difficile
Vos suggestions ou commentaires :
3. Les consignes données sont (mettre une croix dans les cases de votre choix) :
[ suffisantes I
1 claires
Vos suggestions ou commentaires :
très (4) assez (3) un peu (2) pas du tout ( 1 )
4. Avez vous eu l'impression d'être perdu(e) (entourez
au début parfois souvent
précisez :
votre réponse)?
jamais
5. L'utilisation de l'aide sur demande est (entourez votre réponse) :
très facile plutôt facile plutôt dimcile très difficile
6. Les réponses reçues à partir de l'aide sur demande sont (mettre une croix dans les cases de votre choix) :
pertinentes suffisantes
I claires
7. Quels sont, selon vous, les trois points forts du cours Formation et compétitivité (version colloque virtuel)?
et les trois points faibles :
très (4) assez (3) un peu (2) pas du tout ( 1 )
8. Avez-vous apprécié la formule du Colloque virtuel ?
beaucoup assez pas beaucoup pas du tout
pourquoi?
9. Avez-vous apprécie la formule de l'aide sur demande (on-fine help) ?
beaucoup assez pas beaucoup pas du tout
pourquoi?
IO. Avez-vous utilisé le document d'aide à l'utilisation (He1p.doc) contenu dans votre valise?
1 t. L'information contenue dans le document d'aide est (mettre une croix dans les cases de votre choix) :
cIaire pertinente suffisante
très assez un peu pas du tout
Annexe 3
Grille de cueillette des problèmes d'utilisation identifiés par les participants
Annexe 4
Temps d'accomplissement des tâches
TRAITEMENT 2
Participant 1 a l b Ic Id 7a
TRAITEMENT 3
Début 9:35 9:39 9:41 9:43 205
Participant 3 a
Fia 12:40 1233 1227
445
Début 1 :43
Participant 5a 56 5c 5d 6a 6b 6c
Total (minutes) 174
Fin 4:37
Total (heures) 3:05 254 2:46 2:40 4: 45
Total (heures) 254
Début 230 222 220 228 9:43 950 9:47
Total (minutes) 102 92 1 03
Participant 7a 7b 7c
Total (minutes) 185 174 166 160 240
Fin 4:I5 4 3 7 4:18 350 1 2 1 1 12:07 1224
Début 10:08 1O:lO 10:11
Total (heures) 1 :15 215 1 5 8 1 :22 228 2: 17 237
Fin 1 1 :50 1 1 :42 1 154
Total (minutes) 105 135 118 82 148 137 157
Total (heures) 1 :42 1 :32 1 :43
Annexe 5
Type des difficultés identifiées par les apprenants
e) Fermer le document 1 1 1 1.2 Compléter le "Formulaire du colloque" 1 1
Difficulté O Se connecter au serveur
I b) Cliquer le bouton 1 1 1 Toul 1 2 1 2 1 ? 1 1 1 7
T3 2
T 1
a) Localiser le formulaire b) Ouvrir le formulaire c) Indiquer le théme choisi
1.3 Envoyer le "Formulaire du colloque" a) Localiser le bouton pour envoyer le formulaire
Diniculté 1 T 1 1 TZ 1 T3 1 TJ 1 Total
T3 1
2
2. Rédiger une communication 3.1 Rechercher l'information 2.1.1 Sélectionner les documents pertinents
a) Localiser les kiosques thématiques b) Accéder aux kiosques thématiques c) Identifier les documents pertinents au thème
T4
1
Total 3
1
I
1 3
1
1
I 1 1
1
I sélectionné 1 ! I
Diificuité 3. Participer au colloque 3.1 Déposer la communication dans l'atelier
a) Localiser l'atelier correspondant au thème
T 1 1 4 1
T2
4
I b) Accdder a l'atelier 1
d) Fermer la vdise 3.2 Commenter/annoter le document de l'autre membre de
I'atelier 3.2.1 Consulter le document de l'autre participant à l'atelier
a) Locdiser le document annoter b) Ouvrir le document c ) Lire le document
3.72 Faire des annotations au document de l'autre participant 8 I'ateIier a) Localiser la fonction d'annotation b) Déclencher la fonction d'annotation
Total 1
12 1
T3
4
1
2
cl Annoter le document 3.3 Etablir une discussion synchrone avec l'autre membre
T4
1 1 1 C) Glisser le gabarit de rédaction vers la table de
O 2
1
1
de I'aielier 3.3.1 Consulter les annotations faites par l'autre participant
1 1 1
3
B l'atelier a) Identiiier le document annoté b) Déclencher la fonction d'annotation C) Lire les annotations
3.3.2 Communiquer avec l'auue membre de l'atelier 3.3.2.1 Prendre rendez-vous
a) Localiser la fonction de prise de rendez-vous b) Sélectionner la personne à rejoindre
3.3.2.2 6tablir une communication directe o) Localiser la fonction de prise de rendez-vous
a) Se retrouver avec la personne à rejoindre dans un 1 I I I I
2
1
1
b) Sélectionner la personne à rejoindre 1 1 1 1 1
3
1
1
I
2 1 3 1
3.3.2.3 Effectuer une vidéoconférence
4
I l 1
t
1 2
2
site
1
b) Démarrer l'application de vidéoconférence 1 I
3 3 3 I
2
1
1 Diifîculté 1 T l 1 T2 1 T3 1 T4 1 Total 1 4, aire évaluer la proposition de communication par 1 2 1 I I 1 1 3 1
Diniculté 1 T 1 ] T2 1 T3 1 TJ 1 Total
le îuteur 4.1 Dkposer la communication dans le bureau d'bvaluation
a) Localiser le bureau d'4valuaiion b) Accéder au bureau d'évaluation c) Localiser le gabarit de rédaction (version révisée) dl Glisser le gabarit vers la rable du bureau
5. Uiiiiser l'aide 5.1 Magicien d'Oz 1 1
I
6.2 Messagerie 1 1 1 1 1 T o d 1 5 1 3 1 O 1 O l 8
Diifîculié 6. Communiquer avec les participanîs du coiIoque
6.1 Viddoconférence
2
T 1 5
1 1
3 1
T2 3
T3 T1 Tohl 8
1 1 I 1 I - TOTAL 1 61 1 33 f 17 1 8 1 119
7.5 Yeux Toul 12
1 7 1
1 PO
Annexe 6
Prescriptions
Développement de la FAQ et 'amélioration de l'interface
Catégorie 3.3 Discussion synchrone avec un autre membre de l'atelier
Nature du problème : Certains participants ont de la difficulté a communiquer avec les
membres de son atelier. D'une part, ils ne savent pas qui fait partie de leur
atelier. D'autre part ils se demandent quel est l'outil pour prendre un
rendez-vous, et ou est-ce qu'il se localise. Pour certains participants il
n'est pas ctair quoi faire pour se rendre au rendez-vous sollicité. Enfin, ils
ne savent pas quelles sont les procédures pour envoyer un message.
Outils problématiques : prise de rendez-vous et messagerie.
Suggestion : pour toutes les communications entre pairs faire une feuille de route.
Prescription : faciliter l'identification des membres d'un atelier; montrer les différents
outils de communication disponibles; pour chacun des outils de
communication : Indiquer comment localiser la personne à rejoindre;
indiquer ou se trouvent les outils de communication; décrire les
procédures pour initier une communication; décrire les procédures pour
rbpondre a une communication.
Analyse de la prescription :
Pour développer la FAQ - faire une question pour chaque outil de
communication; décrire les procédures permettant à l'usager de repérer
les autres participants; décrire les procédures d'utilisation des outils.
Pour réviser i'interface - pour chaque atelier, afficher le nom des
membres, des que l'équipe est complet; permettre la communication avec
une personne à partir : de l'outil de communication choisi ou de la
personne a rejoindre. Permettre la localisation d'une personne a partir de
l'environnement. Differencier les outils par un nom différent (par exemple,
<<notifier>> deviendrait <<parler en directe>>).
Catégorie 2.1 Recherche de I'information
Nature du problème : Le probleme se concentre dans la consultation des documents
pour rédiger la proposition de communication. Certains participants
aimeraient avoir des renseignements sur les documents à consulter (titre,
durée). Ils voudraient pouvoir consulter tous tes documents affichés dans
les kiosques. De plus, ils se demandent comment arrêter, reculer et
avancer les vidéos, et comment faire des annotations.
Outil nécessaire : annotation de documents vidéo
Instrument problématique : documents vidéo
Prescription : préciser les procédures pour arrêter la consultation d'un vidéo; faire
ressortir le titre et la duree de chaque document; ajouter les fonctions pour
avancer et reculer les vidéos; ajouter la fonction d'annotation des vidéos.
Analyse de la prescription :
Pour développer la FAQ - faire une question sur la consultation d'un vidéo.
Pour réviser l'interface - les prescriptions ne peuvent pas être réalisées à
l'intérieur des échéances et des contraintes de la recherche. Les
prescriptions requièrent d'un changement dans les couleurs de fond de
l'environnement et le développement de deux fonctions.
Catégorie 3.1 Dépôt d'un document dans l'atelier
Nature du probleme : Certains participants aimeraient connaître les procédures
indiquées pour déposer un document dans I'atelier. Ils ne comprennent
pas comment glisser le document de la "valisen vers I'atelier.
Prescription : faciliter le dépôt d'un document dans I'atelier.
Analyse de la prescription :
Pour développer la FAQ - faire une question pour décrire les procédures
pour déposer un document dans I'atelier.
Pour réviser /'interface - les prescriptions ne peuvent pas être réalisées A l'intérieur des échéances et des contraintes de la recherche. Les
prescriptions requièrent de penser à une nouvelle façon de déposer un
document ou d'unifier les procédures d'envoi d'un document (actuellement
l'envoi se fait de trois façons differentes, selon qu'il s'agit d'un message,
d'un document vers l'atelier ou d'un document vers le bureau d'évaluation.
Catégorie 6. Communication avec un participant au colloque
Nature du probleme : Certains participants ne connaissent pas les différents outils
disponibles pour communiquer avec ses confrères du colloque ni les
procédures pour y parvenir. Certains participants ne savent pas comment
localiser les autres membres du colloque.
Outils problématiques : prise de rendez-vous, messagerie, vidéoconfkrence.
Prescription : (voir 3.3)
Catégorie 3.2 Commentairelannotation d'un document
Nature du probleme : Certains participants ne savent pas quelles sont les procédures
pour faire des commentaires au document de leur coéquipier.
Outil problématique : annotation
Prescription : indiquer comment annoter ou commenter un document.
Analyse des prescriptions:
Pour développer la FAQ - faire une question sur les annotations; décrire
les procédures pour faire une annotation ou un commentaire à un
document.
Pour réviser l'interface - les prescriptions ne peuvent pas Gtre réalisées à
l'intérieur des échéances et des contraintes de la recherche.
Catégorie 7.2 Modification de la taille des fenêtres
Nature du probleme : La question qui se posent certains participants est à savoir si les
fenêtres à l'écran peuvent être modifiées de taille et comment.
Objet problématique : fenêtres
Prescription : faciliter l'agrandissement eVou la réduction des fenêtres.
Analyse de la prescription :
Pour développer la FAQ - faire une question sur les procédures pour
modifier la taille des fenetres
Pour réviser l'interface - les prescriptions ne peuvent pas être réalisées à
l'intérieur des échéances et des contraintes de la recherche. Le cas
échéant, on pourrait adopter la procédure standard des logiciels de MS
Office.
Catégorie 7.3 Navigation
Nature du probleme : Pour certains participants, les difficultés identifiées portent d'une
part sur le manque d'indications sur le sites. II n'est pas facile de
reconnaître dans quel site du colloque on se trouve. Certains participants
ont de la difficulté à accéder aux sites.
Une grande partie de participants a mentionné la difficulté d'utiliser les
boutons de navigation dû au manque de contraste des couleurs. De plus,
ils trouvent que le nom des boutons porte à confusion. En choisissant
"Annuler", ils s'attendent à annuler la commande et non pas a quitter le
colloque.
Objets problématiques : sites, boutons
Prescription : indiquer le nom des sites; faire ressortir la fonction de chaque bouton;
préciser le nom de la fonction de chaque bouton.
Analyse de la prescription :
Pour développer la FAQ - créer une question pour accéder aux différents
sites. Indiquer la façon de cese rendre>> à un site à partir d'un autre.
Pour réviser l'interface - Modifier le nom des fonctions des boutons afin de
distinguer quels sont les actions déclenchées par les différents choix :
ccAnnuleo> de ccQuitteo> et de ccFermeo> .
Catdgorie 7.4 Utilisation du scénario
Nature du problème : Les demandes d'aide suggèrent que l'utilisation du scénario n'est
pas évidente. Les participants s'interrogent comment l'utiliser et quelle est
sa logique.
Prescription : indiquer comment utiiiser le scénario.
Analyse de la prescription :
Pour développer la FAQ - faire une question pour décrire les procédures
d'utilisation du scénario.
Pour réviser l'interface - la prescription ne peut pas être réalisée a
l'intérieur des échéances et des contraintes de la recherche.
Amélioration de la FAQ
Catégorie 3.3 Discussion synchrone avec un autre membre de l'atelier
Nature du problème : la principale difficultd rdside dans la localisation des membres
d'un atelier. De plus, certains participants semblent mélangés : ils ne
réalisent pas les procedures appropriées pour communiquer avec ses
pairs, même après avoir réussi cette operation auparavant. Certains
participants pensent que la communication avec un pair est défectueuse
lorsqu'ils reçoivent en mdme temps des messages provenant d'autres
participants. Lors de l'échange des annotations, il est impossible de
reconnaître les différentes versions des documents. Certains participants
ne comprennent pas pourquoi le document continue dans la valise, alors
qu'ils l'ont déposé dans I'atelier.
Outils problématiques : messagerie.
Prescription : Faciliter l'identification des membres des ateliers. Préciser les raisons qui
provoquent que la messagerie soit chancelante. Préciser les procédures
pour envoyer un document a I'atelier.
Analyse de la prescription :
Mettre en évidence la question cccommuniquer avec les participants ? z>
et faire ressortir chacune des étapes pour utiliser les outils de
communication, prenant soin d'indiquer le point de départ et le point
d'arrivé. Établir une relation avec les boutons a utiliser ainsi que les
fenêtres des sites impliqués dans la procédure.
Catégorie 3.1 Dépôt d'un document dans I'atelier
Nature du problème : Certains participants se demandent quelles sont les procédures
pour envoyer un document a I'atelier. Pour certains participants il n'est pas
clair quel sont les sites où il est possible déposer un document. Certains
participants ont de la difficulté a accéder aux ateliers à partir du scénario.
Prescription : Préciser les procédures pour déposer un document dans l'atelier.
Préciser les sites dans lesquels il est possible de déposer un document
pour consultation des autres membres du colloque.
Analyse de la prescription :
Mettre en évidence l'aspect ccD8pôt d'un document dans l'atelier>> et
faire ressortir les differentes étapes pour déposer un document dans
l'atelier, prenant soin d'indiquer le point de départ et le point d'arrivé.
Établir une relation avec les boutons à utiliser ainsi que les fenêtres des
sites impliqués dans les procédures.
Catégorie 2.1 Recherche de l'information
Nature du problème : Certains participants se demandent quelles sont les procédures
pour envoyer un document a I'atelier. Pour certains participants il n'est pas
clair quel sont les sites où il est possible déposer un document. Certains
participants ont de la difficulté a accéder aux ateliers a partir du scénario.
Prescription : Préciser les procédures pour déposer un document dans l'atelier.
Préciser les sites dans lesquels il est possible de déposer un document
pour consultation des autres membres du colloque. Faire ressortir les
documents pour consultation dans le kiosque thématique.
Analyse de la prescription :
Mettre en relief les différents types de documents disponibles dans le
kiosque (question Accéder aux sites du colloque).
Annexe 7
FAQ
AIDE du Colloque Virtuel
COMMENT üï ï i ISER LE SCENARIO ? 1. Glissez la souris sur les objets du scénario pour connaître les objectifs et consignes. 2. Double-cliquez sur les rectangles et ovales pour avoir plus d'informations. 3. Cliquez sur I'icBne "Fkche" pour remonter d'un niveau. 4. Double-cliquez sur les documents pour les ouvrir. 5. Cliquez sur les rectangles avec Ie bouton droit de la souris pour les déclarer achevés.
COMMENT ACCEDER A L'ENTRÉE PRNCIPALE ? 1. Sélectionnez le bouton "I" pour appeler la "Map". 2, Sdlectionnez la boule "Entrée principale".
COMMENT ACCEDER AU BLiREAU D'iNSCRiFTiON ? 1. Sélectionnez le bouton "I" pour appeler la "Map". 2. Sélectionnez la boule "Bureau d'inscription"
COMMENT ACCÉDER AUX ATELIERS ? 1. Sélectionnez le bouton "i" pour appeler la "Map". 2. Sélectionnez le numéro de votre atelier.
COMMENT ACCÉDER AUX KIOSQüES THÉMATIQLEs ? 1. Sélectionnez le bouton "I" pur appeller la "Map". 2. Sélectionnez la boule "Kiosque multimédia".
COMMENT DEPOSER LJN DOCUMENT DANS L'ATELIER ? 1. Accédez le site "Ateliers de préparation" qui vous concerne (1 ou 2). 2. Cliquez sur l'icône "Valise". 3. Glissez l'icône de votre document sur la table de l'atelier.
COMMENT DÉPOSER UN DOCUMEii DANS LE BUREAU D'ÉVALUATION ? 1. Cliquez sur I'icône "Valise". 2. Glissez I'icône de votre document sur la table du bureau. 3. Dans le menu "File" (Fichier), sélectionnez "Send" (Envoyer).
COMMENT ENVOYER UN MESSAGE ? 1. Avec le bouton droit de la souris, cliquer sur I'icône "oeil" de la personne avec qui vous voulez
communiquer. 2. Dérouler le menu et sélectionner "Envoyer un message". 3. ~ c r i r e son message.
COMMENT COMMUNIQUER EN DIRECT ? 1. L'individu doit être connecté au serveur (l'oeil portant son nom est ouvert). 2. Se retrouver avec lui dans un site. 3. Avec le bouton droit de la souris, cliquer sur l'icône "oeil" de la personne avec qui vous voulex
communiquer. 4. DérouIer le menu et sélectionner "Parler en direct".
COMMENT PRENDRE RENDEZ-VOUS ? 1. Cliquer sur le bouton de la souris et le conserver enfoncé pour dérouler le menu. 2. Sélectionner l'option "Prendre rendez-vous". 3. Sélectionner I'individu avec qui vous voulez un rendez-vous. 4. Choisir le nom de la personne.
COMMENT RÉPONDRE A UN RENDEZ-VOUS :> 1. Cliquer sur le bouton clignotant de la "Map" pour vous rendre 2L un rendez-vous. 2. Pour ne pas prendre en compte la demande, cliquez sur le bouton "Map".
COMMENT &PONDRE A UN MESSAGE ? 1. Cliquer sur le bouton "Répondre". 2, &rire sa réponse. 3. Cliquer sur le bouton "Envoyer".
COMMENT ENTRER EN VIDÉOCONFÉRENCE ? 1. Sélectionner la personne à rejoindre. 2. Utiliser le menu déroulanr et sélectionner l'option "faire une viddoconférence". 3. Le logiciel Videophone démarre.
COMMENT UTILISER L'EDCTION COLLABORATNE ? 1 , L'individu avec lequel vous voulez faire une édition coiIaborative doit être en ligne. 2. Utiliser le menu déroulant et l'option "Edition collaborative". 3. Le logiciel TalkShow dbmarre.
COMMENT AGRANDIR UNE FE&TRE ? 1. Double-cliquez sur le rectangle "titre" de la fenêtre.
COMMENT REDUIRE LJNE FENÊTRE '? 1. Doublez-cliquez sur le rectangle "tiae" de la. fenêtre.
COMMENT RETAiLLER üNE FENÊTRE ? 1. Sélectionnez un bord ou un coin de la fenêtre et ajustez la taiIIe, en conservant le bouton de la souris
enfoncé.
COMMENT DEPLACER LES FENÊTREs ? 1. Sélectionnez le rectangle "titre" de la fenêtre et glissez-le à l'endroit voulu.
COMMENT ARRÊTER LE VISIONNEMENT D'UN DOCüMENT VIDEO ? 1. Cliquez dans une zone de la fenêtre autre que la zone du vidéo
COMMENT ANNOTER UN DOCUMENT ? 1. Dans l'atelier, avec le bouton DROiT de la souris, sélectionnez le document à annoter. 2. Sdlectionnez "Annotation". 3. Écrivez vos commentaires. 4. Envoyez vos commentaires à l'aide du bouton rond "Envoyer".
Annexe 8
FAQ révisée
A 1 D E du Colloque Virtuel
I N D E X " Accéder au lopiciel "Formation et com~étitivité" O Se connecter au serveur " S'inscrire au colloaue O Utiliser le scénario O Accéder aux sites du collooue " Rédiger une communication O Envover une communication O Communiauer avec les ~ a r t i c i ~ a n t s O Annoter un document " Modifier la taille des fenêtres O Déplacer les fenêtres O Arrêter le déroulement d'une vidéo
ACCÉDER AU LOGICIEL "FORMATION ET
1.Cliquez sur I'icône "Colloque Virtuel" localisé à l'écran de votre ordinateur.
2.Une fenêtre intitulée "Formation
Retour à l'index
et compétitivité" apparaît.
. . - - - - - - - - - -
SE CONNECTER AU SERVEUR
Se connecter au serveur 1.À partir de la fenêtre "Site", cliquez une fois sur l'icône du téléphone. 3.Ltoeil nommé "Moi" doit s'ouvrir, ainsi que les yeux de tous les
utilisateurs en ligne.
Se déconnecter du serveur 1.À partir de la fenêtre 'Site", cliquez une fois sur l'icône du téléphone. 3.L1oeil nommé "Moi" doit se fermer.
Retour à l'index
S'INSCRIRE AU COLLOQUE
1.Dans le bureau d'inscription sélectionnez "Inscription au colloque". 2.Assurez-vous d'être connecté au serveur. 3.Remplissez le formulaire d'inscription.
1.Cliquez le bouton "Envoyer" (deuxième bouton rond).
Retour à l'index
UTILISER LE SCÉNARIO
1.GIissez Ia souris sur les objets du scénario pour connaître les objectifs et les
consignes. ?.Double-cliquez sur les rectangles et ovales pour avoir plus
d'informations. 3.CLiquez sur l'icône "Flèche" pour remonter d'un niveau. 4.Double-cliquez sur les documents pour les ouvrir. 5.Cliquez sur les rectangles avec le bouton droit de la souris pour les
déclarer achevés.
Retour à l'index
ACCÉDER AUX SITES DU COLLOQUE
Accéder à l'entrée principale
1.Depuis la fenêtre des sites, cliquez sur le bouton pour appeller la "Map". 2.Sélectionnez le site "Entrée principale".
Accéder au bureau d'inscription
1 .Depuis la fenêtre des sites, cliquez sur le bouton a pour appeller la "Map". 2.SéIectionnez le site "Bureau d'inscription".
Retour à l'index
Accéder aux ateliers
1 .Depuis la fenêtre des sites, cliquez sur le bouton pour appeller la "Map". 2.Localisez le numéro de votre atelier et cliquez sur le chiffre correspondante.
( Accéder aux kiosques thématiques
1.Depuis la fenêtre des sites, cliquez sur le bouton pour appeiler la "Map". 2.Sélectionnez le site "Kiosque rnultimédia".
Retour à l'index
1.Ouvrez la "Valise" (en cliquant sur
-.--- ..-" --..., 2.Double-cliquez sur le document "~ommunication.doc"(i~~mm~ni~a~..~.
L'application Word s'ouvre. 3.Écrivez votre communication.
Retour à l 'index
ENVOYER UNE COMMUNICATION Déposer un document dans un atelier
1.Accédez à votre "Atelier de
2 .0uvrez la "Valise" (en cliquant su r 3.Faire glisser I ' i c h e d e votre document depuis l a valise vers la table de l'atelier
1.Une icdne représentant votre document apparaît s u r la table.
Déposer un document dans le bureau dtévaluation
1.Accédez au "Bureau d'évaluation". ?.Ouvrez la "Valise" (en cliquant su r son icône). 3,Faire glisser l ' icône de votre document depuis la valise vers la table du bureau. La
fenêtre "Dépôt d e docurnent"apparaît. 4.Dans le menu "File" (Fichier) sélectionnez "Send" (Envoyer). Le document est
envoyé au tuteur via la messagerie.
Retour ii l ' index
COMMUNIQUER AVEC LES PARTICIPANTS
Envoyer un message à un individu - Si vous vous trouvez avec lui dans un s i te :
1.Avec le bouton droi t d e la souris , cl iquez sur l'oeil de la personne avec qui vous voulez
communiquer. 2.Déroulez le menu e t sélectionnez "Envoyer un message". 3 .Ecrivez votre message. 4.Envoyez'le message.
- S i vous ne vous trouvez pas avec lui dans un site :
1 .A partir du site dans lequel vous vous trouvez, déroulez le menu à l 'aide du bouton droit de l a souris et choisissez "Parler 9" puis s6lectionnez la personne avec qui vous voulez communiquer.
2.Ecrivez votre message. 3 .Envoyez le message.
Converser par écrit avec un individu 1.Se retrouver avec lui dans un si te. 2.L10eiI portant son nom doit être ouvert .
3.Xvec le bouton droi t d e la souris. c l iquez sur son "oeil" a. ?.Deroulez le menu et sdlectionner "par ler en direct" 5.Ecrivez le message. 6.Envoyez le message.
Prendre rendez-vous 1.a partir du site dans lequel vous vous trouvez. déroulez le menu à I'aide du bouton
droi t d e la souris e t choisissez "Donner rendez-vous dans le site à" puis sélectionnez la personne avec qui vous
voulez communiquer. Votre interlocuteur sera averti via la "map" dans le si te de rendez-
vous par une lumière cli_onotante.
Retour 3 l'index
Accepter ou refuser un rendez-vous 1.Cliquez su r la lumiére cl ignotante de la map pour vous rendre à un rendez-vous. ? .Pour ne pas prendre en compte la demande, c l iquez su r le bouton "Map".
Répondre à un message 1,Depuis la fenêtre du message, cliquez sur le bouton "Répondre". 2.Écrivez votre riponse. 3.Cliquez sur le bouton rond "Envoyer".
Initier une vidéoconférence avec un individu 1.Se retrouver avec lui dans un site. L'oeil portant son nom doit être
ouvert a. 2.Avec le bouton droit de la souris, cliquez sur son "oeil". 3.Déroulez le menu et sélectionnez "Faire une vidéoconférence"
Attendez que la communication s'établisse. Le logiciel Videophone démarre. L'image
de votre interlocuteur apparaît.
Utiliser l'édition coilaborative
1.L'individu avec lequel vous voulez faire une édition collaborative doit être en
ligne. 2.0uvrez la valise et double-cliquez l'icône "Edition collaborative". Le
logiciel Talkshow démarre.
Retour à l'index
MODIFIER LA TAILLE DES
Mettre une fenêtre plein écran
1.Double-cliquez sur le rectangle "titre" de la fenêtre.
Réduire une fenêtre
1.Si la fenètre est plein-écran, double-cliquez sur le rectangle "titre" de la fendtre.
Redimensionner la taille d'une fenêtre 1.Sélectionnez un bord ou un coin d e I?. fenêtre e t a jus ter la taille.
Retour à I'index
DÉPLACER LES FENÊTRES 1 .SéIectionnez le rectangle "t i tre" de la fenêtre e t glissez celle-ci ?I l'endroit voulu.
Retour à l'index
-- - - -- . - - - -- - . -
1.CIiquez dans une zone de l a fenitre autre que la zone du video.
Retour 3 l'index
- -- - -A -- .- ---
ANNOTER UN DOCUMENT 1.Dans votre atel ier , avec le bouton droi t d e la sour is , sélectionnez le document i
annoter. Un menu déroulant appârait. 7.Choisissez "Annotation". 3.Écrivez vos commentaires e t cliquez sur "Envoyer". Le document annoté est
Re tour à 1' index
ANNEXE 9
Quelques directives à suivre lors de l'élaboration de futures expérimentations dans le domaine de la méthode L W appliquée à
l'amélioration des RDA dans un EIT
a Augmenter Le nombre de sujets
Créer et tester un instrument efficace pour mesurer le temps d'accomplissement des tâches
O Prévoir des ressources hwnaines et finaaci&res pour faite les ardliorations nécessaires au prototype âans le temps requis
0 Contr6ler le nombre de ressources d'aide disponibles B l'apprenant
a S'assurer que les sujets comprennent bien les consignes à suivte Ion de i'exp&imentation
a S'assurer que les sujets connaissent l'utilisation d'une FAQ
Contrôler le niveau de connaissance de l'utilisation des outils de l'environnement d'apprentissage
Développer un instrument de cueiiiette de données qualitatives afin de mieux comprendre le cornpottement des sujets
APPLIED 4 IMAGE, lnc 1653 East Main Street Rochester, NY 146ûS USA
=-A Phone: 7181482.0300 -- -- - - Fax: 71612ûû-5989