Journée professionnelle académique des professeurs documentalistes

Preview:

DESCRIPTION

Journée professionnelle académique des professeurs documentalistes “ Parcours de lecture dans le contexte du web” ADBEN Bretagne Rennes, 14 mai 2014 Filtrer , évaluer l’information : quelle formation ? Alexandre Serres URFIST de Rennes. - PowerPoint PPT Presentation

Citation preview

Journée professionnelle académique des professeurs documentalistes

“Parcours de lecture dans le contexte du web” ADBEN Bretagne

Rennes, 14 mai 2014

Filtrer, évaluer l’information :

quelle formation ?

Alexandre SerresURFIST de Rennes

En guise de plan

En introduction : quel est le problème ?

Comprendre la complexité de l’évaluation de l’information

Quelle formation des élèves ? En conclusion : deux illusions à

combattre

A. Serres, URFIST Rennes, 2014 2

Un processus complexe De nombreuses opérations cognitives et

documentaires :Filtrer les résultats de la rechercheVérifier la pertinence des résultats par rapport à la

requêteIdentifier les résultats jugés pertinents :

Identifier la nature des sites web Identifier les sources, les auteurs Identifier les supports, les genres documentaires

Juger de la crédibilité des sources retenuesEvaluer la pertinence des ressources par rapport au

besoin d’informationQualifier la nature des discours Mesurer l’autorité cognitive des auteurs Evaluer la fiabilité des informationsEvaluer la qualité des ressources et des informationsRetracer, recouper, comparer, vérifier

Introduction : de quoi parle-t-on ?

A. Serres, URFIST Rennes, 2014 3

Introduction : quel est le problème ?

Comment renforcer la qualité des informations sur le web ?

Comment lutter contre les infopollutions? Comment faire reculer la crédulité ? Comment (r)établir la confiance ? Comment évaluer l’information de

manière autonome ? Comment former les élèves à l’esprit

critique ?

A. Serres, URFIST Rennes, 2014 4

Trois réponses complémentaires :la réponse technique

En amont : Par l’amélioration des techniques de filtrage Par les métadonnées, le web sémantique Par les outils de traçabilité Par des outils de vérification de l’information

Projet Phème Ex. de Trooclick :

Méthodes d’IA, 36 critères de vérification« À terme, tout type d’information pourrait être « fiabilisé »

(santé, juridique, politique,…) sur 100% des sites Internet, revendique la startup ».

En aval : Par les outils d’aide à l’identification des sites

A. Serres, URFIST Rennes, 2014

5

La réponse technique : le fact-checking automatisé

A. Serres, URFIST Rennes, 2014 6

Trooclick

Trois réponses complémentaires :la réponse technique

Questions posées par le fact-checking automatisé :◦ Fiabilité de la source = fiabilité de l’information ?◦ Fiabilité = véridicité ?◦ Vérification automatique de tous les types

d’informations ? ◦ Et le contexte ?

Effets pervers de l’automatisation du jugement de fiabilité :◦ Crise du journalisme ?◦ Délégation de la confiance dans les outils◦ Encouragement à la paresse intellectuelle…

> Illusion techniciste !Information toujours construite…

A. Serres, URFIST Rennes, 2014 7

Trois réponses complémentaires :la réponse sociale

La force des réseaux sociaux et du collectif :

Voir WikipediaLe filtrage collaboratif, les réseaux de

confiance…:Les plateformes de partage de signets, Twitter…

Illusion sociale ?◦Caractère individuel de l’évaluation de

l’information

A. Serres, URFIST Rennes, 2014 8

Trois réponses complémentaires :la réponse éducative

L’indispensable formation des internautes, des élèves, des étudiants…

Caractère irremplaçable :des capacités personnelles de jugementde la culture personnelle des usagers

Meilleure garantie à long terme pour évaluer l’information : des citoyens formés et éclairés !

Complémentarité des trois réponses

A. Serres, URFIST Rennes, 2014 9

Prendre conscience de la complexité de la question de l’évaluation de l’information

Faire de cette complexité à la fois la base et l’objectif de la formation

A. Serres, URFIST Rennes, 2012 10

Trois réponses complémentaires :la réponse éducative

2/ Comprendre la complexité de l’évaluation de l’information

Trois grands facteurs de complexité :◦ Multiplicité des dimensions de

l'évaluation de l'information◦ Multiplicité des critères d'évaluation◦ Multiplicité des pratiques de

l'évaluation

A. Serres, URFIST Rennes, 2014 11

2.1 Comprendre la complexité : la multiplicité des dimensions

Une activité et une question multi-dimensionnelle :

◦ Au moins 9 dimensions à prendre en compte…

Importance de tenir compte de toutes ces dimensions pour la formation :

◦ Éviter les approches réductrices, naïves◦ Ne pas faire de l’évaluation de

l’information une question strictement documentaire

A. Serres, URFIST Rennes, 2014 12

La dimension politique

Dimension souvent occultée Dimension politique présente dans :

◦Le contexte de l’évaluation des sources : crise de confiance, crise des autorités, etc. Essor des complotismes

◦Les enjeux éducatifs : Question des finalités de la formation des

élèves à l’information

A. Serres, URFIST Rennes, 2014 13

La dimension politique dans les pratiques

Les pratiques informationnelles : Voir l’évaluation de l'information

comme double symptôme : du rapport au monde des individus : rapport aux médias, à la technologie, au politique…

de la crise de confiance envers les autorités Prégnance du contexte socio-politique

dans les pratiques des internautes, des étudiants Perception de la crédibilité fortement

dépendante des représentations

A. Serres, URFIST Rennes, 2014 14

La dimension culturelle

Evaluation de l’information : aussi une pratique culturelle ◦ Pratique de lecture, d’écriture◦ Pratique médiatique : rapports avec la presse, les

médias…Double mutation :

◦ Evolution des pratiques culturelles des jeunes : « Génération internet »

◦ Mutation de la culture avec le numérique : Changement des modes de lecture, d’apprentissage,

de consommation culturelle…Variation des critères de crédibilité selon

les cultures d’origine

A. Serres, URFIST Rennes, 2014 15

La dimension psycho-cognitive

Evaluer l’information = une activité cognitive complexe Nombreuses compétences cognitives

mobilisées : décodage sémiotique, repérage , lecture, analyse…

Voir J.F. Rouet Tenir compte des étapes du

développement cognitif :Ex. de notion de source, trop complexe

avant 10 ans

A. Serres, URFIST Rennes, 2014 16

La dimension théorique

Mobilisation de notions théoriques complexes :◦Crédibilité◦Autorité◦Qualité de l’information◦Pertinence◦Source◦…

Maîtrise des notions indispensable aux tâches d’évaluation

A. Serres, URFIST Rennes, 2014 17

La dimension technique

Rôle-clé des outils, des évolutions du web :◦outils du web social◦apports du web sémantique

Développer une culture technique du web

Percevoir les limites des outils

A. Serres, URFIST Rennes, 2014 18

La dimension méthodologique

Evaluer l’information = mettre en œuvre plusieurs compétences méthodologiques

Différentes démarches d'évaluation :◦Selon les contextes, les domaines, les publics…

Démarche de questionnement

A. Serres, URFIST Rennes, 2014 19

La dimension informationnelle

L’évaluation de l'information à la fois: ◦au coeur de la culture informationnelle

par ses enjeux, les notions, les compétences…

◦au carrefour des trois cultures de l’information : médias, infodoc, informatique

A. Serres, URFIST Rennes, 2014 20

La dimension éducative

Importance des enjeux éducatifs :◦formation au jugement critique

Caractère transversal de l'évaluation de l'information :◦concerne tous les acteurs de l’école◦identifier les acteurs et leur rôle

A. Serres, URFIST Rennes, 2014 21

La dimension didactique

Concerne plus spécifiquement les professeurs documentalistes :◦identifier les contenus à enseigner◦identifier les situations pédagogiques◦mettre en place les dispositifs

A. Serres, URFIST Rennes, 2014 22

2.2 Comprendre la complexité :la multiplicité des critères de l’évaluation

Evaluer une ressource = mobiliser 2 grandes catégories de critères :◦Des critères « transversaux », liés à des notions

◦Des critères « d'objet » , liés aux composantes d’une ressource

A. Serres, URFIST Rennes, 2014 23

Multiplicité des critères : l’imbrication des objets

Plusieurs objets à distinguer dans toute évaluation d’une ressource :◦ La source ◦ L’auteur ◦ L’information ◦ La structuration du contenu◦ La présentation, le graphisme, la lisibilité…◦ L’usage, « l’utilisabilité »

Confusion fréquente des objets à évaluer :◦ Par ex. entre fiabilité de source et facilité d’accès

A. Serres, URFIST Rennes, 2014 24

Multiplicité des critères : l’imbrication des notions

« Évaluer la qualité et la pertinence de l'information », compétence D4.3 du nouveau B2i Adultes

Qu’est-ce que la qualité de l’information ? La crédibilité ? L’autorité d’une ressource ? La pertinence ? ◦Importance de définir et de distinguer ces

notions, qui ne se recouvrent pas

A. Serres, URFIST Rennes, 2014 25

Quatre notions à distinguer :la crédibilité

Crédibilité = « Caractère, qualité rendant quelque chose susceptible d'être cru ou digne de confiance »

Rôle-clé de la confiance : ◦ Crédibilité toujours à construire◦ Plus proche d’un sentiment que d’une qualité

factuelleCrédibilité d’une ressource :

◦ Qualité perçue, à partir de différents indicesDeux typologies de la crédibilité

A. Serres, URFIST Rennes, 2014 26

Quatre notions à distinguer :les objets de crédibilité

Quatre objets à mesurer :◦Crédibilité de la source◦Crédibilité de l’auteur ◦Crédibilité du support ◦Crédibilité du document

> pas de recouvrement automatique

A. Serres, URFIST Rennes, 2014 27

Quatre notions à distinguer :les facteurs de la crédibilité

Crédibilité présumée (représentations) :◦ Confiance accordée a priori à quelqu’un, à une

source, en fonction de ses représentations, de ses croyances…

Crédibilité réputée (réputation) :◦ Confiance accordée selon la réputation, la notoriété,

l’affiliation d’une source à une autorité…Crédibilité de surface (apparence,

présentation) :◦ Confiance selon la présentation d’une personne,

d’une ressource, d’un site webCrédibilité d’expérience (usage) :

◦ Confiance liée à l’expérience personnelle d’une personne, d’une ressource, d’un site…

A. Serres, URFIST Rennes, 2014 28

Typologie de Fogg et Tseng, 1999

Quatre notions à distinguer : “l’autorité cognitive”

Selon Patrick Wilson : « une relation d’influence de pensée, impliquant au minimum deux personnes, l’une accordant à l’autre sa confiance parce qu’elle maîtrise un domaine spécifique de compétences »

Diversité des autorités cognitives : ◦ Personnes, livres, organisations, outils…

Autorité cognitive fondée sur la crédibilité, la réputation, l’expertise ◦ Mais autorité plus forte que la crédibilité :

Notion d’influence choisie, de reconnaissance d’une expertise

A. Serres, URFIST Rennes, 2014 29

Quatre notions à distinguer : la qualité de l’information

Trois grandes approches de la qualité :◦« Qualité documentaire » :

Ensemble de critères, liés aux caractéristiques formelles du contenu d’une ressource

◦Qualité de l’information, au sens info-news

◦Qualité des données (info-data) : Très proche de la pertinence

A. Serres, URFIST Rennes, 2014 30

Quatre notions à distinguer : la pertinence

« Qualité de ce qui est adapté exactement à l'objet dont il s'agit. »

Notion complexe, nombreux modèles, nombreuses théories

Au fondement de la recherche documentaire :◦ "Degré de corrélation entre une question et la réponse apportée »

◦ approche précise mais réductrice de la pertinence ◦ Nécessité d’élargir la notion

Trois catégories de pertinences

A. Serres, URFIST Rennes, 2014 31

Quatre notions à distinguer : les trois catégories de pertinences

La « pertinence-système » :◦ pertinence de la représentation du document (indexation...)

et recherche d'information elle-même.La « pertinence-utilisateur » : 2 types

◦ pertinence de la formulation de la requête

◦pertinence du document par rapport au besoin : Concerne uniquement l’utilisateur

La « pertinence-thème » : ◦ pertinence du contenu du document par rapport au thème

évaluation formalisable de l’information

A. Serres, URFIST Rennes, 2014 32

2.3 Comprendre la complexité :la multiplicité des pratiques de l’évaluation

Grande hétérogénéité des pratiques d'évaluation :

◦ Selon les publics, les niveaux, les domaines, les contextes…

Multiplicité des paramètres sociaux, culturels…

> A chacun sa pratique d’évaluation !

A. Serres, URFIST Rennes, 2014 33

Comprendre la complexité :la multiplicité des pratiques de

l’évaluation

4 grands axes d’observation des pratiques d’évaluation de l’information :◦ Les publics◦ Les contextes◦ Les dispositifs◦ Les types d'informations◦ + Les critères (crédibilité…)

Nombreuses variables dans chaque axeVaste chantier de recherche :

◦La nécessaire connaissance des pratiques informationnelles des jeunes

◦Nombreux travaux, mais domaine encore mal connu

A. Serres, URFIST Rennes, 2014 34

3/ Quelle formation des élèves à l'évaluation de l'information ?

Un défi éducatif global :

◦« A l’avenir, l’éducation aura pour but d’apprendre l’art du filtrage » Umberto Eco (Le Monde, 12 octobre 2010)

A. Serres, URFIST Rennes, 2014 35

Quelle formation à l'évaluation de l'information ? Savoirs et cultures

Nombreux savoirs, différentes cultures mobilisés pour identifier et évaluer une ressource

Six types de cultures : ◦ Culture « générale » :

Repérage des infopollutions, compétences de base…◦ Cultures disciplinaires :

Évaluation des contenus des ressources, de l’autorité cognitive…

◦ Culture informationnelle (information literacy) : Compétences informationnelles : recherche d’information,

identification des ressources…◦ Culture informatique (computer literacy) :

Compréhension d’internet, maîtrise des outils…◦ Culture numérique (digital literacy) :

Usages du numérique et d’internet : facilité d’appropriation… ◦ Culture médiatique (media literacy) :

Connaissance des médias, capacités critiques d’évaluation… Hybridation des cultures A. Serres, URFIST Rennes, 2014 36

Quelle formation à l'évaluation de l'information ? Connaître les pratiques

Prendre en compte la multiplicité des variables de l’évaluation de l’information◦D’âge, de niveau, de culture, de discipline,

personnelles…Pour la pédagogie :

◦Partir des pratiques réelles pour les faire évoluer◦Ne pas vouloir imposer les « bonnes pratiques »

documentaires

A. Serres, URFIST Rennes, 2014 37

Quelle formation à l'évaluation de l'information ? Le défi didactique

Quels contenus ? ◦Notions à enseigner :

Les 4 notions essentielles de l’évaluation de l’information

Notions de source, d’auteur, de validité…◦Voir Dictionnaire didactique…

Notions des autres cultures de l’information◦Compétences à viser :

Savoir identifier les sources Savoir distinguer les critères d’évaluation Savoir questionner les ressources

A. Serres, URFIST Rennes, 2014 38

39

Multiplicité des modèles et des situations pédagogiques : ◦ Cours magistral, théorique : sur les enjeux, les notions…◦ TD sur la méthodologie◦ Cours spécifiques (en documentation) et disciplinaires ◦ Auto-formation à distance : tests, QCM, exercices,

documents… Articulation à trouver entre :

◦ Contenus didactiques communs, stables, organisés…◦ Pistes d’exploitation pédagogique très diverses,

hétérogènes, libres… Caractère ouvert du chantier pédagogique :

◦ Identifier les situations pédagogiques possibles, les tâches◦ Expérimentation pédagogique collective◦ Voir les nombreux travaux dans l’enseignement secondaire

Quelle formation à l'évaluation de l'information ? Quelle pédagogie ?

40

Quelques pistes pédagogiques (personnelles) :◦ Connaître les pratiques réelles des élèves ◦ Partir de ces pratiques :

Faire s'interroger les élèves sur leurs pratiques◦ Quels critères spontanés de crédibilité mis en œuvre sur les sites web, sur

les réseaux sociaux ? ◦ Développer une pédagogie du questionnement :

Sur les différents critères d’évaluation◦ Utiliser les infopollutions :

Faire travailler les élèves sur des exemples de désinformation, de manipulation

◦ Questionner les notions : Brainstorming sur les notions de crédibilité, qualité, pertinence…

◦ Montrer les contradictions entre les types de crédibilités: Par ex. entre crédibilité de surface et crédibilité du contenu

Quelle formation à l'évaluation de l'information ? Quelle pédagogie ?

Quelle formation à l'évaluation de l'information ? Le défi didactique

Quelques pistes pédagogiques (personnelles) : ◦Former à l’identification des ressources, des

acteurs… ◦Sensibiliser à la notion de crédibilité

Décliner la notion de crédibilité selon les disciplines, les cultures

◦Travailler sur les controverses sociotechniques : Identifier les acteurs, les discours, les positions,

les intérêts… Ne pas entrer dans les contenus

A. Serres, URFIST Rennes, 2014 41

L’illusion méthodologique :◦ croire en une méthodologie universelle ◦ limites des démarches trop linéaires Dimension méthodologique importante, mais

insuffisante pour former à l’évaluation de l’informationTenir compte des autres dimensions : politique,

culturelle…L’illusion pédagogique info-documentaire :

◦ approche procédurale de l'évaluation, limites des référentiels Le réductionnisme du décodage des URL…

◦ approche strictement info-documentaire : L’évaluation de l’information concerne toutes les disciplines

◦ occulter la dimension trans-disciplinaire de l'évaluation

42

En conclusion : deux illusions à combattre

A. Serres, URFIST Rennes, 2014

En conclusion

La formation à l’évaluation de l’information : ◦Une question complexe, difficile mais passionnante

◦Au cœur de l’EMI◦Un chantier de recherche ◦Une occasion d’innovations pédagogiques◦Un enjeu pour les professeurs documentalistes

A. Serres, URFIST Rennes, 2014 43

Ressources personnelles sur l’évaluation de l’information

Supports de stage URFIST :◦ Evaluer la crédibilité d’une ressource sur internet◦ Evaluation de l’information sur internet

Publications récentes :« Dans le labyrinthe », Caen, C&F Editions, 2012« Evaluation de l’information : l’impossible

méthodologie ? ». In Archimag Guide pratique, n°47, octobre 2012

« Un exemple de translittératie : l'évaluation de l'information », In Les e-dossiers de l’audiovisuel, INA, janvier 2012, « L’éducation aux cultures de l’information ».

Veille :Liste Evaluation information sur DiigoTopic sur Scoop.it « Autour de l’art du filtrage »

44

Un conseil de lecture…

A. Serres, URFIST Rennes, 2014 45

A. Serres, URFIST Rennes, 2014 46

Merci de votre attention !

Contact : alexandre.serres@uhb.fr

Site web de l’URFIST de Rennes : http://www.sites.univ-rennes2.fr/urfist/

Recommended