153
ACTES DU 3 e COLLOQUE SPÉCIALISÉ EN SCIENCES DE L’INFORMATION (COSSI) Management de l’information : défis et tendances 8‐9 juin 2011 Université de Moncton, Campus de Shippagan Shippagan, Nouveau‐Brunswick, Canada

Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

 

ACTES 

DU 3e COLLOQUE 

SPÉCIALISÉ EN  SCIENCES DE L’INFORMATION 

(COSSI) 

    

Management de l’information : 

défis et tendances 

 

8‐9 juin 2011    Université de Moncton, Campus de Shippagan 

 Shippagan, Nouveau‐Brunswick, Canada 

Page 2: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

2

 3e Colloque Spécialisé en Sciences de l’Information (COSSI) 

 Management de l’information : défis et tendances 

 8 et 9 juin 2011 

 Université de Moncton, Campus de Shippagan, 218 Boulevard J.‐D.‐Gauthier, 

SHIPPAGAN, Nouveau‐Brunswick, Canada, http://www.umoncton.ca/umcs/COSSI  Le colloque  En cette année de célébrations du 50e anniversaire de la formation postsecondaire dans la Péninsule  Acadienne,    l’Université  de  Moncton,  Campus  de  Shippagan,    a  le  plaisir d’accueillir la  3e édition du « Colloque Spécialisé en  Sciences de l’Information (COSSI) ».    Cette manifestation réunit des représentants de la Francophonie acadienne, canadienne et internationale,    dont  les  intérêts  de  recherche  et  de  pratique  se  concentrent  sur  les nombreux  enjeux  posés  aux  organisations  et  aux  acteurs  du  marché  du  travail  par l’évolution de la société de l’information et de l’économie de la connaissance.   Problématique et axes de réflexion    L’invitation  au  débat  est  lancée  aux  chercheurs  et  professionnels  de  la  communauté canadienne et  internationale, dont  les  intérêts de recherche et de pratique se concentrent sur  les nombreux enjeux posés aux organisations et aux acteurs du marché du travail par l’évolution de la société de l’information et de l’économie de la connaissance.    Le  comité  organisateur  a  sollicité  des  propositions  originales  portant  sur  des  réflexions théoriques,  sur  des  projets  professionnels  ou  des  études  de  cas  abordant  les problématiques  informationnelles  auxquelles  les  organisations  de  tout  type  sont confrontées actuellement, ainsi que les nouveaux concepts, théories, méthodes et outils en matière de management de l’information, en tant qu’éléments de réponse à ces défis.     Les communications retenues sont regroupées sous les deux axes suivants :    A.  Gestion  de  l’information  et  des  connaissances  :  méthodologies,  normes  et  politiques, traitement  et  diffusion  des  documents,  supports  et  documents  numériques,  questions  de déontologie,  cycle  de  l’information,  Web  en  évolution,  nouveaux  publics  et  services, éducation  et  compétences  informationnelles,  bibliothèques  proactives,  collections numériques, travail collaboratif, …  B.  Gestion  stratégique  de  l’information  :  culture  informationnelle,  repérage d’information critique, réseautage professionnel et social, veille stratégique,  accès et droit à l’information, protection  de  l’information,  intelligence  économique  et  territoriale,  communication stratégique, prospective, … 

Page 3: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

3

Le comité scientifique du COSSI 2011   

‐ Lucie Bégin, École de Management de Normandie, France   

‐ François Brouard, Université Carleton, Ottawa, Canada  

‐ Carol Couture, Conservateur et directeur général, Bibliothèque et Archives nationales du 

Québec, Canada   

‐ Viviane Couzinet, Institut Universitaire de Technologie, Université Toulouse‐III, France  

‐ Jacqueline Deschamps, Haute École de Gestion de Genève, Suisse  

‐ Viviane du Castel, Institut Supérieur Européen de Gestion, Paris, France  

‐ Raja Fenniche, Institut Supérieur de Documentation, Univ. de la Manouba, Tunisie  

‐ Marcel Lajeunesse, École de Bibliothéconomie et des Sciences de l’Information, Univ. de 

Montréal, Québec, Canada  

‐ Vincent Liquète, IUFM Aquitaine, Université de Bordeaux IV, France  

‐ Monica Mallowan, Univ. de Moncton, Campus de Shippagan, Nouveau‐Brunswick, Canada  

‐ Dominique Maurel, École de Bibliothéconomie et des Sciences de l’Information, Univ. de 

Montréal, Québec, Canada  

‐ Christian Marcon, Institut de la Communication et des Technologies Numériques, Univ. de 

Poitiers, France  

‐ Sabine Mas, École de Bibliothéconomie et des Sciences de l’Information, Univ. de Montréal, 

Québec, Canada  

‐ Florence Ott, Univ. de Moncton, Campus de Shippagan, Nouveau‐Brunswick, Canada  

‐ Shabnam Vaezi, Institut Universitaire de Technologie, Université de Tours, France  

  

Le comité organisateur du COSSI 2011  

‐ Monica Mallowan, présidente, Univ. de Moncton, Campus de Shippagan,  

Nouveau‐Brunswick, Canada  

‐ Florence Ott, membre, Univ. de Moncton, Campus de Shippagan,  

Nouveau‐Brunswick, Canada  

‐ Hélène McLaughlin, membre, Univ. de Moncton, Campus de Shippagan,  

Nouveau‐Brunswick, Canada 

Page 4: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

4

 

 

Table des matières   Marthe ROBICHAUD Le Carrefour de l’apprentissage – un modèle ................................................................................................ 6   Esther OLEMBE; Emmanuel MBEDE Le Knowledge Management et le partage des savoirs scientifiques en Afrique à l’épreuve du terrain des institutions universitaires : une expérience de recherche dans les universités publiques du Cameroun .......................................................................................................................................... 8   Fabrice PAPY; Corinne LEBLOND Continuité documentaire du lycée à l’Université : résultats d’une expérimentation originale de formation à l’information entre documentalistes de lycées, bibliothécaires en universités et chercheurs en Sciences de l’Information ................................................................................................. 20   Diane NADEAU L’évolution de la taxonomie du site Web au Gouvernement du Nouveau‐Brunswick ............. 30   Clarisse HOLIK Les bases d'un réseautage réussi : étude comparative de deux groupes de travail, convergence dans le mode de gouvernance ................................................................................................ 42   Adel LABIDI Crédibilité de l’information sur Internet : de l’autorité à la fiabilité ................................................ 52   Pierre GOGUEN L’évaluation de la crédibilité des ressources en ligne ............................................................................ 53   Florence OTT; Charlotte L'HEUREUX‐LEMIEUX Comment faire de l’information en santé une préoccupation commune entre la gestion documentaire et la science infirmière ? ........................................................................................................ 54   

Page 5: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

5

Christian MARCON De la communication stratégique maîtrisée à la communication collective intelligente. Le cas de la stratégie Twitter d’un institut de formation ............................................................................ 67   Ihtesham RASHID La veille stratégique au sein de Bibliothèque et Archives Canada : leçons tirées de l’expérience ............................................................................................................................................................... 78   Sékouna KEITA Médias publics en Afrique de l’Ouest : enjeu de prise et de conservation du pouvoir ............. 87   Camille ALLOING; Christophe DESCHAMPS Veille stratégique et internet participatif : les usages des agents‐facilitateurs remettent‐ils en en question le concept de signal faible ? ................................................................................................. 96   Florence CHERIGNY Les préoccupations concurrentielles liées aux pratiques de Google : l’avis de l’Autorité française de la concurrence ............................................................................................................................. 110   Louis‐René DESSUREAULT Le grand défi des professionnels de l'information : un défi technologique ou humain?.......123   Isabelle HARE; Mahsa YOUSEFI DARANI Communication stratégique et blogs durant la guerre de Gaza (2008‐2009) : l’Etat israélien et l’enjeu de l’information ................................................................................................................................ 125   Monica MALLOWAN; Yves de CHAMPLAIN La cartographie des connaissances pour la modélisation opérationnelle d’un outil de planification pédagogique transdisciplinaire – phases I et II ........................................................... 142  

* * * Notes :    Ce document contient les textes des communications présentées au Colloque Spécialisé en Sciences de l’Information (COSSI) 2011, tels que soumis par leurs auteurs.  Pour les textes ne figurant pas dans ces actes, veuillez prendre contact avec les auteurs.  Dans un souci de diffusion des résultats de la recherche, ces textes sont mis en ligne sur le site de l’Université de Moncton, Campus de Shippagan, www.umoncton.ca/umcs/recherche.  

 

Page 6: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

6

Carrefour de l’apprentissage – un modèle  

Marthe Robichaud,1 Doyenne des études par intérim, professeure de comptabilité,  

Université de Moncton, campus de Shippagan  

 Résumé : Présentation de la mise en place d’un Carrefour de l’apprentissage à l’Université de Moncton, campus de Shippagan ainsi que de la réflexion menée pour offrir un nouveau lieu aux étudiants afin de faciliter leurs études et développer leurs compétences.  

Mots­clés : Carrefour de l’apprentissage, espace intégré, vie universitaire    Mandat du carrefour de l’apprentissage  Développer  et  réaliser  un  espace  intégré  devant  contribuer  de  manière  décisive  à l’enrichissement  de  l’enseignement,  notamment  par  l’offre  de  services  favorisant l’intégration à  la vie universitaire,  la persistance aux études et  l’acquisition de réflexes de réussite.   Le mandat consiste à développer un modèle de service intégrant les quatre (4) dimensions fondamentales  de  l’expérience  universitaire  :  la  socialisation  et  la  participation,  la collaboration  et  la  création,  l’accès  à  l’information,  le  soutien  à  l’apprentissage  et  le                                                         1 Marthe Robichaud a été à la direction générale de Manoir Édith B. Pinet, inc., centre de soins prolongés, et Centre de santé de Paquetville,  inc. de 1986 à 2003 avant son entrée à  l’Université de Moncton, campus de Shippagan (UMCS). Elle a une solide formation en administration des affaires et en administration publique en plus de satisfaire aux exigences de l’Ordre des Comptables généraux accrédités (CGA) du Nouveau‐Brunswick. Marthe Robichaud travaille pour l’Université de Moncton, campus de Shippagan (UMCS) comme professeure et chargée de cours depuis de nombreuses années. En plus d’avoir tenu le poste de chef de secteur Gestion de l’UMCS de 2003 à 2007,   elle a occupé pendant trois ans le poste de doyenne adjointe. Ses fonctions comme chef de secteur et doyenne adjointe lui ont permis de travailler directement aux nombreux projets d’appui à la réussite des étudiantes et étudiants. Pour  l’année universitaire 2011‐2012, elle a accepté d’agir en  tant que doyenne des études par intérim. Ses fonctions au sein du Comité de gestion de Carrefour de l’apprentissage sont résumées dans les quelques lignes  qui  suivent.  Marthe  Robichaud  gère  les  aspects  des  services  offerts  au  Carrefour  qui  relèvent  des affaires académiques. Elle  travaille en étroite collaboration avec  les responsables des secteurs académiques ainsi qu’avec les membres des instances et de la communauté universitaire pour coordonner les décisions et réalisations  de  l’Université  en  matière  d’instauration  d’un  climat  et  d’activités  propices  à  l’apprentissage. Certains  facteurs  à  favoriser  sont  :  présence  marquée  de  professeures  et  professeurs,  implications  des secteurs  académiques,  appels  à  des  projets  de  classe  ou  de  groupes  de  travail  académiques  en  incitant  le décloisonnement disciplinaire et  la  coopération entre  les  secteurs académiques. Mettre à  la disposition des espaces de communication, d’échanges et de diffusion des productions est important, mais ce n’est pas tout. Le soutien  réel  à  l’acquisition  de  connaissances  garanti  par  une  liaison  beaucoup  plus  étroite  avec  les enseignantes et enseignants, dès la mise en œuvre du projet, est primordial.  

 

Page 7: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

7

développement personnel.   Ces quatre (4) dimensions  intégrées doivent  fonctionner dans un  espace physique  ainsi  que  dans  un  espace  virtuel.    Le  résultat  attendu  est  la  création d’un  environnement  global  où  la  rencontre  avec  la  connaissance  et  l’expérience universitaire seront vécues de manière  intégrée dans  la vie quotidienne des étudiantes et des étudiants. Ce nouvel environnement d’apprentissage leur permettra de développer des réflexes de réussite durables à l’aide d’approches individualisées et collaboratives.  Le mandat  va  au‐delà d'une  simple  reconfiguration des  espaces puisqu'il  engage dans un processus de redéfinition de l'expérience universitaire telle qu'elle se vit à l’UMCS.  Modèle  Lors de la conception des espaces dynamiques et interactifs que touche le modèle proposé, il  fallait  se  poser  les  bonnes  questions.  Au  lieu  de  concentrer  l’attention  sur  le  plan d’aménagement  et  l’ameublement,  il  y  avait  davantage  intérêt  à  s’interroger  sur  le  type d’activités que les usagers y exerceront et les services à assurer.   Une  fois  qu’on  a  trouvé  réponse  à  ces  questions,  on  peut  commencer  à  prendre  des dispositions pour trouver les partenaires sur le campus, choisir la situation des espaces de services  requis et déterminer  les différents  types de personnels de soutien dont  il  faudra disposer pour pouvoir atteindre les objectifs visés. En prenant en compte la nature du vécu éducatif  dans  la  conception  stratégique  des  nouveaux  espaces  qui  allait  intégrer  la bibliothèque,  la planification a changé d’axe,  faisant moins de place au  fonctionnement de cette  dernière  et  à  l’actualisation  des  collections  qu’elle  contient  pour  s’intéresser davantage au processus d’apprentissage et au management de l’information. 

Page 8: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

8

Le Knowledge Management et le partage des savoirs scientifiques en Afrique à l’épreuve du terrain des institutions universitaires : une expérience de recherche 

dans les universités publiques du Cameroun  

Esther Olembe2,  Dr. en sciences de l’information et de la communication  

ESSTIC/Université de Yaoundé II – SOA, laboratoire Yaounde Mediation & Information Studies  

Mél : [email protected]  

Emmanuel Mbede3,  Dr. en sciences de l’information et de la communication  

ESSTIC/Université de Yaoundé II – SOA, laboratoire Yaounde Mediation & Information Studies 

Mél : [email protected]  

 Résumé :  La  présente  communication  a  pour  ambition  d’interroger  la  capacité  du Knowledge Management à s’imposer comme paradigme de construction de valeur ajoutée informationnelle  face  aux  défis  de  développement  de  l’Afrique.  L’article  s’intéresse  de manière  spécifique  à  la  question  de  l’accès  et  du  partage  des  savoirs  universitaires au Cameroun.    Il  s’agit  de  reprendre  à  contre  courant  le  postulat  Knowledge  Management appliqué  en  sciences  de  gestion  et  l’envisager  à  partir  d’une  perspective  science  de l’information et de la communication afin de vérifier son applicabilité dans le champ de la recherche scientifique.  

                                                        2 Esther OLEMBE est Docteur en sciences de  l’information et de  la  communication des universités Lumière Lyon 2 (France) et Yaoundé 2‐SOA (Cameroun). ‐ Enseignante permanente au département de l’information documentaire de l’Ecole supérieure des sciences et technique de l’information et de la communication (ESSTIC) – Université de Yaoundé II ‐ SOA. ‐ Membre du laboratoire YMIS (Yaounde Mediation & Information Studies) de l’ESSTIC. Intérêts de recherche : Sciences de l’information et de la communication, organisation des savoirs, philosophie de la connaissance, épistémologie historique. ‐  Domaines  de  compétences  :  Systèmes  d’information  documentaire  (Audit,  conception,  implémentation, informatisation,  design/ingénierie  des  formations  en  Bibliothéconomie‐Documentation‐Archivistique), Management (Projets, RH, évaluation des risques etc.)  3  Emmanuel MBEDE,  docteur  en  sciences  de  l’information  et  de  la  communication  de  l’université  Lumière Lyon II, Emmanuel Mbede est enseignant, Chargé de cours à l’Ecole supérieure des sciences et techniques de l’information  et  de  la  communication  (ESSTIC)  de  l’université  de  Yaoundé  II  Soa.  Ses  principaux  thèmes d’enseignement sont  :  la communication des organisations,  la communication médiatique et  le management des  connaissances. Membre  du  laboratoire  YMIS  (Yaounde  Mediation  &  Information  Studies)  de  l’ESSTIC, Emmanuel Mbede  est  coordonnateur  du  département  des  Relations  publiques  de  l’ESSTIC  et  Secrétaire  de rédaction de la revue de recherche Fréquence Sud.  

Page 9: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

9

Mots­clés : Knowledge Management, savoirs scientifiques,  recherche scientifique, Afrique, Universités d’État du Cameroun 

 

 I ­ Introduction  Le  développement  du  continent  africain  est  une  préoccupation  récurrente  et  sans  cesse actualisée  qui  mobilise  de  manière  cyclique  des  communautés  spécifiques  à  travers  des approches qui se veulent à chaque  fois originale. Après  la révolution annoncée des TIC et notamment d’Internet qui devait radicalement transformer le modèle de développement du continent,  le  Knowledge  Management  se  présente  aujourd’hui  pour  certains  comme  la nouvelle  issue  possible.  La  facette  « idéaliste »  du  Knowledge  Management  qui  articule partage  accéléré  des  compétences/coconstruction  des  connaissances/résolutions collectives  des  problèmes/échanges  de  pratiques  résonne  en  effet  comme  un  kit  clés  en main qui serait la panacée des problèmes de l’Afrique.  C’est  ainsi  que  la  troisième  conférence  internationale  de  l’initiative  « Knowledge Management Africa (KMA) » a mobilisé en 2009, à Dakar (Sénégal), 300 participants venus d’une  trentaine de pays d’Afrique, d’Asie, d’Amérique  latine et d’Amérique du nord sur  le thème « le savoir pour repositionner  l’Afrique dans  l’économie mondiale ». L’idée principale des  organisateurs mais  aussi  de  la  communauté  d’universitaires,  de  bailleurs de  fonds  et d’organismes de développement mobilisés à cet effet est de poser qu’une utilisation efficace des  connaissances  (donc  leur  capitalisation)  et  des  technologies  assurerait  « le développement  durable  de  l’Afrique ».  Cette  assertion  repose  sur  des  intuitions anthropologiques  (Afrique  continent  de  l’oralité  qui  par  nature  favorise  la  volatilité  des savoirs) et sur le bilan de cinquante années d’efforts de développement qui ont donné des résultats  variables d’une partie  du  continent  à  l’autre. Affirmer que  « l’Afrique n’a pas  su tirer profit des énormes potentialités offertes par les connaissances scientifiques » c’est en soi poser de manière impérative la question du Knowledge Management dans l’approche du développement de l’Afrique.  Face  à  ce  constat  plein  de  bon  sens,  il  paraît  pertinent  d’envisager  une  interrogation scientifique  sur  la  réception  du  Knowledge  Management  dans  la  problématique  du développement  de  l’Afrique.  Cela  exige  comme  préalable  de  délimiter  un  terrain d’observation  et  d’opérationnalisation  cohérent  et  pertinent.  Celui  qui  découle  le  plus directement  du  constat  établit  ci‐dessus  est  la  recherche  scientifique.  Les  missions cardinales de l’université et qui résonnent avec encore plus d’écho pour les pays africains sont l’enseignement, la production des connaissances et l’appui au développement. Face au problème  de  développement,  envisagé  comme  une  faillite  de  la  capitalisation  des connaissances,  il  peut  paraître  intéressant  d’interroger  l’institution  dont  le  travail  est justement de produire des savoirs et de partager des connaissances.   Interroger la recherche scientifique et l’université est d’autant plus intéressant que naguère considéré comme service public, l’université, institution phare de la science, n’échappe plus 

Page 10: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

10

aujourd’hui à la loi du marché. Du fait de la généralisation de l’économie de marché et de la libéralisation  « forcée »4  des  Etats  africains,  l’enseignement  supérieur  s’est  retrouvé  dans une « économisation » progressive. Si la plupart des universités publiques africaines ont été des  pupilles  de  l’Etat  grâce  aux  financements  publics  leur  assurant  non  seulement  une autonomie certaine, mais aussi une confiance tacite sans obligation de résultats vis‐à‐vis de la  société  et  avec un détachement du  système mercantile,  cette  protection  s’amenuise de plus  en  plus.  Le  discours  contemporain  sur  l’enseignement  supérieur  et  la  recherche scientifique s’oriente vers une conception de l’université et des instituts de recherche où il est  question  sinon de  les  revisiter  dans  leur  ensemble,  à  tout  le moins  de  redéfinir  leurs missions  et  de  reconsidérer  les  pratiques  de  production  et  de  diffusion  des  savoirs.  Les notions de compétence et de performance sont devenues des problématiques essentielles qui  expliquent  ou  justifient  les  réformes  engagées  dans  le  système  d’enseignement supérieur de bon nombre de pays. Deux variables sont ainsi repérables dans ce contexte. La première  est  circonscrite  dans  l’effacement  du  service  public  avec  pour  indicateur,  la réduction  des  financements  de  l’Etat.  La  deuxième  se  construit  autour  des  processus  de privatisation de l’enseignement supérieur caractérisés par des pratiques de fonctionnement qui  s’apparentent  inexorablement  à  celles  des  marchés.  Malgré  les  débats  éthiques  que suscitent  la  conception mercantiliste  des  institutions  scientifiques,  force  est  de  constater que ces dernières sont en passe de perdre leur autonomie cognitive (définition des agendas de recherche, tyrannie de la recherche appliquée ; etc.).   Aussi envisageons‐nous par hypothèse de valider la dimension téléologique du Knowledge Management afin de pouvoir questionner son application dans le domaine de la recherche scientifique. Cette réflexion qui va suivre va donc s’attacher à définir l’approche Knowledge Management mobilisable dans le cas d’espèce à travers son écartèlement entre sciences de gestion  et  sciences  de  l’information  et  de  la  communication.  Elle  évoluera  ensuite  vers l’indication  des  modalités  d’application  du  Knowledge  Management  dans  le  champ scientifique  à  travers  le  cas  spécifique  des  recherches  effectuées  dans  les  universités camerounaises,  ce  qui  sera  l’occasion  d’évaluer    l’hypothèse  du  Knowledge Management comme outil de partage des connaissances et par ricochet « outil de développement ».     II­ Littérature théorique du modèle Knowledge Management : une perspective en SIC  Il est techniquement difficile de faire un état de l’art complet sur le Knowledge Management dans  le  format  actuel  imposé  par  notre  réflexion.  Il  s’agit  davantage  d’indiquer  quelques informations  bibliographiques  sur  la  question  et  par  la  même  occasion,  d’identifier  les courants qui se dégagent de la littérature sur le Knowledge Management, notamment dans le champ des sciences de l’information et de la communication.   2.1 Esquisse de l’état de l’art sur le Knowledge Management  Le  Knowledge  Management  a  été  défini  initialement  comme  étant  un  processus d’application  d’une  approche  systématique  de  capture,  de  structuration,  de  gestion  et  de 

                                                        4 Du fait des programmes d’ajustement structurel et autres mesures prises pour pallier la mauvaise gestion des Etats africains dès les milieux des années 80. 

Page 11: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

11

diffusion des connaissances. L’objectif de cette approche est d’assurer une certaine fluidité dans le travail collectif, de démocratiser l’utilisation des bonnes pratiques et d’optimiser la productivité grâce à l’usage des ressources cognitives des organisations (Wallace, 2007).   Selon  Barclay  &  Murray  (Barclay  &  Murray,  1997),  le  Knowledge  Management  est  une activité managériale qui induit deux aspects : 

- le traitement des composantes de la connaissance issue des activités de l’entreprise à tous les niveaux 

- la connection entre le capital cognitif de l’entreprise et le savoir faire de ses acteurs.  Bien  au‐delà  de  la  prospérité  du Knowledge Management  dans  le  champ des  sciences de gestion, Wallace affirme qu’il s’appréhende de ce fait  comme étant une interdiscipline qui s’inspire  de  plusieurs  techniques  et  champs  disciplinaires,  à  l’instar  des  sciences  de l’information et de la communication (Wallace, 2007).  Les sciences de l’information et de la communication en elles‐mêmes ne sont pas restées en marge de  la réflexion sur  la  thématique Knowledge Management. Bien au contraire ! Sous une vision apologétique elles y ont creusé un sillon supplémentaire de réflexion notamment sur la légitimation des professions de l’information et de la communication, la réadaptation des curricula à l’aune des développements technologiques et de leurs diverses applications dans les métiers et les organisations5.   Parallèlement,  et  au  fur  et  à  mesure  des  applications  des  plates‐formes  Knowledge Management  ainsi  que  du  bilan  mitigé  qui  en  a  résulté,  des  réflexions  théoriques  ont continué  de  se  construire.  N’a‐t‐on  pas  délivré  trop  rapidement  un  chèque  en  blanc  au Knowledge  Management  en  le  hissant  comme  nouveau  paradigme  de  construction  de valeur ajoutée  informationnelle ; ou encore comme gage de productivité  incontestée de  la « nouvelle  économie »  ?  Au  regard  du  discours  engagé  qui  justifie  le  Knowledge Management, n’y aurait‐il pas confusion entre information, connaissance, savoir ? Ou alors, ne  s’agit‐il  pas  d’un  habillage  sémantique  économiquement  correct  qui  reprend  à  son compte tout ce qu’on connait depuis Dewey, Paul Otlet ou Ranganathan sur  l’organisation classique des connaissances (Jo Link Pezet, 1998) ? Ce d’autant plus que, malgré la difficulté définitionnelle  du  Knowledge  Management,  sa  démarche  telle  que  proposée  par  Steve Denning (capture,  création,  codification, partage, accessibilité, application et  réutilisation) semble  avoir  un  lien  filial  avec  celle  de  l’élaboration  d’un  système  d’organisation  des connaissances dont parle Hodge (Hodge, 2000).   

                                                        5  En  témoigne  les  congrès  de  l’IFLA  en  2000  et  2001  dont  les  thèmes  portaient  essentiellement  sur  la thématique du Knowledge Management.   66th  IFLA  General  Conference  and  Council  Jerusalem,  Israel,  13­18  August  2000  "Information  for  Co‐operation: Creating the Global Library of the Future. "67th IFLA General Conference and Council Boston, USA, 16­25 August 2001 "Libraries and Librarians: Making a Difference in the Knowledge Age".  

Page 12: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

12

En effet ce système plus englobant dans  l’élaboration des outils de traitement de contenu prend en compte les types de schèmes de classification et de catégorisation qui permettent l’accès  et  l’utilisation  des  informations.  La  critique  peut  encore  se  radicaliser  dans  une logique de réification du Knowledge Management. Il est dans ce cas essentiellement confiné dans  un  visage  instrumental  (Robillard,  2008)  qui  récuse  toute  possibilité  d’accession  au stade de discipline universitaire à part entière comme l’a suggéré Wallace. De plus l’usage abusif du terme connaissance, véritable tarte à la crème depuis la dernière décennie du XXe siècle ne serait  selon Henneron & al., qu’un avatar du mythe de  la société des savoirs, un outil mercantiliste  à  haute  valeur  commerciale  pour  la  quincaillerie  TIC  et  la  cohorte  de logiciels qui l’accompagne (Henneron & al., 2004).   2.2 Knowledge Management et paradigmes SIC d’organisations des connaissances dans la sphère universitaire   De manière  simplifiée,  la  saisie  du Knowledge Management  par  les  SIC  prend  en  compte trois  éléments :  le  questionnement  épistémologique  de  l’objet  connaissance  dans  le Knowledge Management,  la méthode et les outils du Knowledge Management et le terrain de mise en œuvre du Knowledge Management.  En premier lieu, les SIC [sans en réclamer l’exclusivité] voudraient s’entourer de toutes les précautions  épistémologiques  nécessaires  lorsqu’il  s’agit  de  manipuler  un  concept hautement  complexe :  la  connaissance.  Ceci  est  également  valable  pour  le  réseau sémantique explicatif tissé autour du Knowledge Management (information, savoir, savoir‐faire,  compétence,  connaissance  tacite,  connaissance  explicite,  partage,  collaboration, organisation apprenante, communauté de pratique, etc.). A cet égard, les SIC ne pourraient retenir que  le volet explicite des connaissances, susceptibles  d’être codifiées et partagées, même si certaines recherches, influencées par la terminologie des lieux communs arrivent par des  raccourcis  à  rendre  synonyme  l’information,  le  savoir  et  la  connaissance.  Les  SIC envisagent alors le Knowledge Management à partir de l’inscription et de la médiatisation des  connaissances  dans  le  document  (médiation  documentaire),  objet  symbolique  à caractère informationnelle et à visée communicationnelle (Courbière, 2004).   Deuxièmement,  au‐delà  de  l’idéologie  de  partage  qui  le  sous‐tend,  les méthodes  utilisées pour  la  mise  en  place  des  plates‐formes  Knowledge  Management  ne  semblent  pas véritablement  différentes  des  techniques  documentaires  classiques.  La  trop  grande importance accordée aux outils Knowledge Management et le déterminisme technologique qui s’ensuit suggèrent aux SIC une distanciation vis‐à‐vis de la tendance des pourfendeurs de ce modèle qui consiste en gros à faire porter à l’outil une responsabilité qui la dépasse en lui  trouvant des capacités d’objectivation de  l’activité humaine, et donc de désincarnation des connaissances.     Troisièmement,  le  terrain  de  mise  en  œuvre  du  Knowledge  Management  semble prioritairement  réservé  aux  organisations  marchandes  (entreprises).  Pourtant,  la philosophie du partage qui sous‐tend  le Knowledge Management est consubstantielle aux institutions  de  la  science,  de  l’éducation  et  de  la  culture.  En  effet,  ces  institutions  ne sauraient être envisagées autrement que par le partage et la transmission. Il est surprenant 

Page 13: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

13

de constater notamment la fascination de l’UNESCO qui se positionne en véritable caisse de résonnance  du  Knowledge  Management,  transformant  en  un  tour  de  bras  ses  slogans d’antan, tel l’« Éducation pour tous » en « Knowledge Sharing »  (Henneron & al., 2004)6.   En admettant que  le « Knowledge Sharing » est un « habit neuf » pour  les organisations y compris les institutions de la science, il se pose alors le problème de la contextualisation et de l’adaptation des outils dont on prétend que leur utilisation est susceptible de réduire le gap en matière de développement dans les pays du Sud, développement conditionné selon l’idéologie du moment par la capitalisation des connaissances, comme nous l’avons indiqué dans notre introduction. Dans la suite de notre réflexion, nous essayons de confronter cette hypothèse à l’épreuve d’une recherche de terrain dans les universités camerounaises.    III – Le Knowledge Management et  la question de  l’accès et du partage des  savoirs universitaires : exemple d’application et limite dans les universités camerounaises  Dans la sphère universitaire et de recherche, si nous validons la dimension téléologique et ustensilaire  du  Knowledge  Management,  il  s’inscrit  dans  la  mouvance  des  systèmes d’évaluation  de  la  recherche  scientifique  (fondamentale  ou  appliquée).  Ces  derniers  sont nés  prioritairement  de  la  nécessité  de  dégager  des  indicateurs  qui  permettent  de déterminer  les  résultats  issus  des  activités  scientifiques.  Les  résultats  de  la  recherche fondamentale sont pourtant difficilement perceptibles à court et moyen terme. Toutefois, ce type de recherche n’échappe pas aux  indicateurs  liés à  la communication des résultats,  la continuité des recherches ou la reconnaissance par les pairs. En revanche, l’évaluation de la recherche appliquée, plus perceptible, se fonde sur une double nécessité : le rapprochement de l’activité scientifique aux besoins des sociétés et la justification de l’effort de financement de l’État ou des entreprises aux institutions formelles qui exercent l’activité scientifique. Il s’agit ainsi dans  l’intention noble de mettre en place un dispositif garantissant  la prise en compte par l’université des problématiques de la collectivité et dans une autre optique, de l’exigence  d’un  droit  de  regard  et  d’un  devoir  de  rendre  compte.  Ce  qui  nécessite inéluctablement la mise en place des dispositifs de stockage de l’information scientifique et technique,  pour  en  assurer  la  traçabilité  et  l’accès.  Nous  présentons  dans  cette  partie quelques  résultats  d’une  recherche  que  nous  avons  menée  pendant  six  mois  dans  les universités du Cameroun.  3.1 Contexte et méthode  En posant un regard sur l’actualité (sociale, politique et scientifique) relative à l’évaluation des  universités  dans  le  monde  en  général  (classement  de  Shanghai  notamment),  et  la question de la production utilitaire des savoirs en Afrique en particulier, nous nous sommes intéressés aux productions cognitives susceptibles d’être disponibles dans chacune des six 

                                                        6  L’on  a  observé  par  exemple  la  levée  de  bouclier  des  chercheurs  et  universitaires  au  cours  d’un  colloque international organisé par le Centre de recherche pour le développement au Sénégal en mai 2008, où il était question justement de mettre en place des dispositifs Knowledge Management en vue de faire appliquer les normes ISO sur la qualité dans l’évaluation de la recherche scientifique. 

Page 14: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

14

premières universités d’État du Cameroun issue de la réforme de janvier 19937. Il s’est agit plus  simplement  d’observer  quantitativement  et  qualitativement  le  rapport  de  la production des savoirs à la demande sociale.  La  méthode  retenue  n’était  pas  dénuée  d’une  intention  réactionnaire  face  aux  modèles dominants  d’évaluation  de  la  recherche.  Elle  visait  à  terme,  la  redéfinition  des  critères d’évaluation, la mise en place des dispositifs technologiques et la construction d’un modèle contextualisé de la production des connaissances et de son accumulation dans ce territoire précis  de  l’Afrique  Subsaharienne  crédité  d’un  niveau  de  productivité  des  connaissances quasi nul à l’échiquier international8.  En choisissant comme axe méthodologique la démarche Knowledge Management (Capture‐Création‐Codification‐Partage‐Accessibilité‐Application‐Réutilisation)  il  était  question  de mener une enquête en vue de collecter et d’organiser les productions universitaires via des dispositifs technologiques (Intranet, shareware etc.).   Partant  donc  des missions  fondamentales  assignées  aux  universités  Camerounaises  et  au regard de  leur  structuration,  trois questionnaires d’enquête ont  été  élaborés à  l’intention des  principaux  acteurs  que  sont  les  instances  dirigeantes  administratives,  les  instances dirigeantes académiques et les enseignants‐chercheurs. Le tableau ci‐dessous présente les niches d’information que nous avons explorées.     

Missions  Domaine d’application  

 Formation 

 • Filières de formation/université (départements) • Nombre d’enseignants et filiation scientifique • Nombre d’étudiants (ratio étudiants/enseignants) • Nombre de laboratoire/département • Nombre de revues scientifiques vivantes ou mortes • Programme  de  formation  (contenu  cognitif)  par  filière  de 

formation • Nombre de bibliothèques : état des collections et dispositif 

d’accès à l’information • Dispositifs technologiques d’appui à la formation  • Budget des universités etc.  

                                                        7  Au  sortir  de  la  première  réforme  universitaire  de  1993,  six  universités  d’État  avaient  simultanément  été créées et réparties dans cinq villes du Cameroun : Deux universités à Yaoundé dans le Centre du Cameroun, une université  à Douala dans  le  littoral, une université  à Buea dans  le  Sud‐ouest, une université  à Dschang dans  l’Ouest  et  une  université  à  N’Gaoundéré  dans  l’Adamaoua  (Partie  septentrionale  du  Cameroun).  Bien qu’il  existe  des  instituts  privés  d’enseignement  supérieur  au  Cameroun,  notre  enquête  s’est  intéressée uniquement aux universités publiques (Universités d’État). 8  Les  statistiques  actuelles  disent  que  l’Afrique  dans  son  ensemble  pèse  environ  0,36%  du  potentiel  de chercheurs,  0,4%  de  la  dépense  mondiale  de  recherche  et  développement  et  0,3%  de  la  production scientifique  Source :  Les  liens  entre  les  programmes  de  recherche  et  les  politiques  bi  et  multilatérales  de développement : cas de l’Afrique subsaharienne. Disponible sur  http://.www.gdnet.org/pdf2/gdn_library/annual_conferences, consulté le 02/11/2006.

Page 15: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

15

  Recherche       

 • Production scientifique des enseignants chercheurs (entité 

éditoriale, thématique étudiée, bibliographie etc.) • Brevet d’invention  • Activité  de  communication  scientifique  orale,  écrite  et 

électronique  (colloque,  table  ronde,  séminaire, collaboratoire, etc.) 

 Appui au  développement                    

 • Activité de communication en rapport avec la vulgarisation 

scientifique et dédié aux partenaires sociaux :  Secteur privé :  

• identification  des  entreprises  implantées  dans  les  zones géographiques des universités ou instituts de recherche 

• Conventions signées avec les universitaires • Flux  migratoire  cognitif  des  universitaires  et  chercheurs 

vers le secteur privé (rapports de recherche commanditée) • Partenariat de financement etc. 

 Secteur public : 

• Mobilité  des  chercheurs  et  universitaires  vers l’administration publique ; 

• Subvention de l’état aux institutions de la science • Apport cognitif de l’université dans l’élaboration et la mise 

en œuvre des politiques publiques etc.  

 Le volet quantitatif de la recherche s’est fondé sur l’identification d’une population cible et la construction d’un échantillon présenté dans le tableau ci‐dessus et expliqué dans la suite.  

Population Cibles  Échantillon retenu  Nombres de questionnaires soumis   

Instances  dirigeantes administratives :  Recteur  & Vice  –Recteur  chargé  de  la recherche    

6 12

Instances  dirigeantes académiques :  Doyen,  Vice doyen  ou  Directeur, Directeur  adjoint  chargé  des enseignements 

34 68

Page 16: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

16

 Enseignants chercheurs/grade : Assistant,  Chargé  de  cours, Maitre  de  conférence, Professeurs  

225 225

Total  265 305 

 Les  instances dirigeantes administratives des universités  camerounaises  comprennent un Recteur  accompagné  de  trois  vice‐recteurs  dont  les  missions  sont  précises  (Inspection, Recherche et  coopération, Enseignement),  un Secrétaire  général  et des Conseillers.   Nous avons  ciblé  dans  cette  catégorie  et  pour  l’ensemble  des  six  universités  intéressées  par l’étude,  le  Recteur  (questions  de  politique  générale)  et  le  vice‐recteur  chargé  de  la recherche et de la coopération, soit au total 12 questionnaires.   Dans la catégorie instances dirigeantes académiques nous avons identifié 34 établissements pour l’ensemble des six universités, objet de notre enquête. Deux principales cibles ont été retenues :  les  doyens  ou  directeurs  d’établissement  et  les  vice‐doyens  chargés  de  la recherche  et  de  la  coopération  ou  les  directeurs  adjoints  chargés  des  études  selon  que l’établissement concerné est une  faculté ou une grande école. Cette  catégorie devrait être concernée par 68 questionnaires.   Pour  la  catégorie  enseignant‐chercheur,  nous  nous  sommes  fondée  sur  les  dernières statistiques (2006) du Ministère de l’enseignement supérieur qui indiquait une population de 2226 enseignants‐chercheurs permanents. La répartition de ces enseignants par grades était  la  suivante : 115 professeurs, 244 maîtres de conférences, 1074 chargés de Cours et 786 assistants. En  tenant  compte de  ce nombre, nous avons  choisi d’appliquer  le  taux de 10% par  grade  pour  la  constitution  de  l’échantillon  (soit  :  12  professeurs,  25 maîtres  de conférences, 108 chargés de cours et 80 assistants). Ce qui signifie in fine que l’échantillon nous donnerait environ 225 enquêtés dans cette catégorie. Pour ratisser large, nous avons procédé à l’envoi des questionnaires par mail (pour ceux des enquêté dont nous avions des adresses  électroniques)  ou  par  voie  postale  pour  les  universités  non  visitées.  Pour  les universités  dont  nous  avions  obtenu  l’autorisation  de  recherche,  nous  procédions  à  des entrevues directes à l’aide du questionnaire.   3.2 Résultats, discussion et limites  Au terme du délai de six mois que nous nous sommes fixés pour la collecte des données, les résultats en terme quantitatif ont été  faibles. A titre d’illustration, des 225 questionnaires soumis  entre  les  mois  de  mars  et  août  2007  dans  la  catégorie  enseignant‐chercheur  de notre cible, nous avons eu un retour d’à peine dix formulaires de questionnaire remplis.  De  plus,  les  données  principales  recueillies  relatives  aux  dispositifs  de  production  des savoirs notamment les laboratoires de recherche, se sont avérées très incomplètes. A titre 

Page 17: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

17

d’exemple,  nous  avons  recensé  40  laboratoires  au  sein  de  la  faculté  des  sciences  de l’Université de Yaoundé I. Les activités de ces laboratoires étant d’une telle opacité qu’il ne nous a pas été possible d’obtenir des données sur la production réelle de chacun d’eux en termes  d’output  (revues,  articles,  manifestations  scientifiques  etc.).  Il  faudrait  également relever  que  la  plupart  des  laboratoires  présentés  n’existent  que  sur  du  papier,  ou  au meilleur des cas, est la propriété d’un enseignant‐chercheur, généralement le coordonateur.   S’agissant des outputs de recherche (publications de tout genre), nous avons observé dans l’ensemble  des  universités,  l’absence  d’un  dispositif  susceptible  de  recenser  toutes  les productions endogènes des enseignants‐chercheurs. Un embryon de base de données dont les dernières mises à  jour dataient d’un peu plus de  cinq années  (Microsoft ACESS) a été observé  à  l’Université  de  Buea,  université  de  tradition  anglo‐saxonne.  A  la  faculté  des sciences de  l’université de Douala,  le doyen de  l’époque  tentait de constituer une  liste de publications  des  enseignants  de  son  établissement  sur Microsoft  EXCEL,  celle‐ci  pouvant être utilisé d’après  lui  comme élément objectif de motivation du  travail des acteurs de  la recherche.    Ces  quelques  éléments  des  résultats  pourraient  suggérer  dans  l’approche  outil  du Knowledge  Management  qu’il  suffit  de  disposer  d’outils  technologiques  fiables  pour améliorer  l’organisation  de  la  production  et  le  travail  scientifique  dans  les  universités camerounaises.  Si  cette  solution  mérite  d’être  envisagée  au  regard  des  outils  utilisés,  il convient d’interroger au départ les modalités de capture de l’information dans ce cas précis. En effet,  le système de collecte des données telle que proposé par les modèles Knowledge Management  devrait  permettre  a  priori  d’obtenir  des  données  primaires  en  temps  réel. Mais  un  tel  système  n’est  valable  que  pour  des  environnements  où  l’information scientifique et technique est collectée organisée systématiquement, et dont la traçabilité est assurée.  Or  l’enquête  effectuée  au  sein  des  universités  camerounaises  a  mis  à  jour  un ensemble  de  contraintes  et  des  réalités  contextuelles  parmi  lesquelles,  la  rétention  de l’information et l’absence d’un traitement adéquat des outputs de l’activité de recherche.  Il  n’est  pas  non  plus  inutile  de  rappeler  comme  piste  explicative  une  étude  qui  avait  été menée en son temps par des chercheurs du Centre de recherche sur  le développement et qui portait  sur  l’analyse des  contenus et des modes de productions scientifiques dans  les institutions  de  la  science  au  Cameroun.  Elle  identifiait  notamment  l’individualisme  en matière de production, qui malgré l’existence de milieux de spécialistes, laisse peu de place à  la  structuration  des  communautés  scientifiques ;  l’inexistence  d’une  communauté scientifique  locale ;  la  faible  communication entre chercheurs  et  institutions de recherche (Gaillard & Waast, 2001). Ce constat renouvelle ainsi le débat d’ensemble sur les modèles et outils qui somme toutes ont la prétention de résoudre les problèmes de développement.  Conclusion   Indépendamment  des  postures  qui  animent  la  réflexion  sur  la  thématique  Knowledge Management  notamment  dans  le  champ  des  sciences  de  l’information  et  de  la communication,  force est de constater que  la coïncidence temporelle entre  l’évolution des TIC et ses capacités réelles ou supposées a ouvert un champ protéiforme de réflexion sur 

Page 18: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

18

des objets et des outils. La fascination pour ces objets et ces outils innerve à loisir toutes les sphères sociales avec des tentatives de pénétration dans des secteurs assez conservateurs comme ce fut jadis le cas de l’université et des institutions de recherche.    Dans  les  sphères  universitaire  et  de  la  recherche,  on  assiste  à  de  nouvelle  structuration sociale de production des connaissances scientifiques à l’instar des collaboratoires9. Ceux‐ci ont  la  particularité  d’utiliser  les  réseaux  informatiques  pour  la  production  et  la communication  des  informations  scientifiques  et  techniques.  Quel  que  soit  le  champ d’application, le Knowledge Management résonne davantage comme le prolongement d’un taylorisme  post­industriel.  À  cet  égard  et  à  partir  de  la  modélisation  de  l’action  et  des processus  de  pensée,  on  s’achemine  vers  une  tyrannie  des  formes  de  rationalités substantive  et  procédurale  (Grimand,  2006).  Il  n’est  donc  pas  surprenant  que  dans  la sphère universitaire et de la recherche, il y ait des tentatives d’application des procédés du Knowledge Management dans l’organisation du travail scientifique. Toutefois,  la réalité du terrain  ralentit  tout  ardeur  dans  l’effort  de  justification  de  l’adoption  tous  azimuts  des démarches  et  plate‐forme  Knowledge  Management.  En  même  temps  que  la  réflexion  se poursuit,  ne  serait‐il  pas  judicieux,  précisément  dans  le  champ  universitaire  et  de  la recherche  d’enrichir  le  Knowledge  Management  par  les  élaborations  théoriques  de  la sociologie  des  sciences  et  de  l’innovation  ou  celles  de  l’anthropologie  des  connaissances dans la préhension de la construction des communautés de pratique au sein des institutions et  organisation  de  recherche  scientifique  (Latour  &  Woolgar, 1988  ;  Latour  &  Callon, 2005) ?   In  fine, pour fécond qu’il s’est avéré,  le Knowledge Management dans le contexte de notre expérience  nécessite  une  inscription  dans  un  processus  constructiviste.  Processus  qui s’émancipe du rapport instrumental de ce concept, et qui ouvre sur l’analyse des stratégies mises  en  œuvre  dans  la  production  des  connaissances  et  la  sémantisation  des  énoncés issues de la connaissance codifiée et stockée.   Bibliographie  Bekhti  S.  et  al.,  «  Représentation  des  connaissances  dans  une  mémoire  de  projet  ». Document numérique, 2001/3 Vol. 5, p. 193‐209. DOI : 10.3166/dn.5.3‐4.193‐209.   Courbevières,  C.  « Documents,  signes  et  savoirs :  retour  sur  l’analyse  documentaire »  In Metzger, J.P. (dir) Médiation et représentation des savoirs, Harmattan, 2004.   

                                                        9  Dans  le  document  servant  à  décrire  les  objectifs  de  l'administration  Clinton,  la  notion  de  collaboratoire désigne  les  "centres  de  production  scientifique  et  technique  "sans  murs"  dans  lesquels  les  chercheurs réalisent leurs recherches sans être limités par leur localisation géographique. Grâce aux réseaux, ils peuvent tout  à  la  fois  interagir  interactivement  avec  leurs  collègues  dans  d'autres  universités;  accéder  à  des instruments à distance; partager  leurs données et  leurs ressources computationnelles et, enfin, accéder aux informations réunies dans les bibliothèques électroniques". 

Page 19: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

19

Grimand  A.    «  Quand  le  Knowledge  Management  redécouvre  l'acteur  :  la  dynamique d'appropriation des connaissances en organisation », Management & Avenir, 2006/3 n° 9, p. 141‐157. DOI : 10.3917/mav.009.0141.  Henneron,  G.;  Palermiti,  R.;  Polity,  Y.  « Le  partage  des  savoirs  ou  les  nouveaux  habits  du mythe de la société de l’information » In Metzger, J.P. (dir) Médiation et représentation des savoirs, Harmattan, 2004.  Hodge  G.,  Systems  of  Knowledge  Organization  for  Digital  libraries.  Beyond  traditional authority  files.  Washington,  DC:  the  Council  on  Library  and  Information  Resources,  2000. http://www.clir.org/pubs/reports/pub91/contents.html  Latour, B & Callon M. La science en action : introduction à la sociologie des sciences, nouvelle édition, Paris, La Découverte, 2005.  Latour, B. & Woolgar, S. La vie des laboratoires, Paris, La Découverte, 1988. 

Pezet, J. L. « De la représentation à la coopération : évolution des approches théoriques du traitement de l’information ». In revue SOLARIS 1998,  http://biblio=fr.info.unicaen.fr/bnum/jelec/Solaris/d05/link=pezet.html   Robillart  J.  Critique  épistémologique  du  concept  de  «Knowledge  Management».  2008 http://w3.univtlse2.fr/aislf/gtsc/DOCS_SOCIO/FINITO_PDF/Robillard.pdf  Waast, R. & Gailard,  J. La science en Afrique à  l’aube du 21e siècle  :  la science au Cameroun. 2001 www.ird.fr/fr/science/dss/sciences_afrique/pdf/cameroun/cameroun2_ressources.pdf,   Wallace,  P.  Knowledge  Management :  historical  and  Cross­Disciplinary  Themes.  Libraries unlimited Knowledge Management Series, 2007. 

Page 20: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

20

Continuité documentaire du lycée à l’Université : résultats d’une expérimentation originale de formation à l’information entre documentalistes de lycées, bibliothécaires en universités et chercheurs en Sciences de l’Information 

 Fabrice Papy10,  

Professeur des Universités en sciences de l’information et de la communication,  Université Nancy 2 / LORIA, 2 ter boulevard Charlemagne ‐ CS 55227, 54052 Nancy Cedex, 

fabrice.papy@univ‐nancy2.fr  

Corinne Leblond11,  Conservateur d'État de bibliothèque, directrice du service commun de documentation,  Université d’Artois / Document Numérique & Usages, 9 rue du Temple ‐ BP 665, 62030 

ARRAS Cedex, corinne.leblond@univ‐artois.fr _________________________________________________________________________________________________________  Résumé :  Cette  contribution  décrit  l’action  collaborative  de  continuité  qui  a  permis  de relier les enseignements documentaires destinés aux lycéens à ceux proposés aux étudiants dans  le  but  d’augmenter  l’efficacité  des  formations  à  l’information.  Cette  action expérimentée  pendant  l’année  scolaire  et  universitaire  2009/2010  a  rassemblé bibliothécaires  en  poste  dans  une  université,  professeurs‐documentalistes  exerçant  dans huit établissements d’enseignement secondaire, et chercheurs en Sciences de l’Information et  de  la  Communication.  Elle  a  porté  sur  plusieurs  classes  d’élèves  issues  de  disciplines différentes et a visé à replacer les contenus des enseignements documentaires dispensés en lycée par les professeurs‐documentalistes dans la perspective d’une réutilisation au sein de la bibliothèque universitaire. Dans ce but et afin d’homogénéiser notamment les pratiques instrumentales de recherches documentaires dans les deux environnements institutionnels, les élèves expérimentateurs ont bénéficié d’un nouvel OPAC, le «Visual Catalog», utilisé par le  Service  Commun  de  Documentation  de  l’Université  d’Artois  sur  son  propre  fonds bibliographique depuis 2006.  

                                                        10  Fabrice  Papy  est  Professeur  des  Universités  en  sciences  de  l’information  et  de  la  communication  à l'Université de Nancy. Ses travaux de recherche l’amènent à s’intéresser depuis plusieurs années au rôle de la médiation technologique dans la construction et l’évolution socio‐technique de la Société de l’Information. Il dirige le laboratoire "Document numérique & usages". Il dirige en qualité de rédacteur en chef la revue "Les Cahiers du Numérique" et est directeur éditorial chez Hermes Science Publishing du domaine "Traitement de l'Information". 11 Corinne Leblond est conservateur d'État de bibliothèque, directrice du service commun de documentation de l’Université d’Artois et membre associé de l’équipe de recherche « Document numérique et usages ». Elle participe  activement  aux  actions  Visual…Catalog  (intégration  du  dispositif  au  portail  documentaire  de l’université et évaluation des  impacts sur  les usages et  l’appropriation des collections). Elle a coordonné en 2009 un ouvrage intitulé "Archivage et stockage pérennes : enjeux et réalisations" aux éditions.  

Page 21: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

21

Mots­clés : Continuité documentaire, lycée, Visual Catalog, recherche documentaire, compétences numériques, bibliothèque universitaire, Centre de Documentation et d’Information   1 ­ Culture informationnelle et citoyenneté numérique  La  démocratisation  et  l’utilisation  massive  des  Technologies  de  l’Information  et  de  la Communication (TIC) [SALENCON 2008] ont manifestement accentué la désintermédiation documentaire  en milieu  académique  [VAN DOOREN 2009] mais  ont  également  ravivé  les questions  relatives  à  la  formation  à  la  recherche  documentaire  en  milieu  scolaire  et universitaire [DENECKER 2003] [FEO 1998] [COULON 1997]. Les publications de ces deux dernières décennies concernant les actions consacrées à de telles formations, soulignent la prise  de  conscience  politique  des  compétences  numériques  et  informationnelles  qu’il apparaît  indispensable  d’acquérir  pour  évoluer  sereinement  dans  la  Société  de l’Information  [GARDIES 2010]  [JO  EUROPE  2006].  Si  ces  questions  de  formation  ont  été prises  en  compte  par  les  structures  publiques  en  charge  de  l’enseignement  et  de  la formation,  une  forme  de  découplage  se  produit  actuellement  entre  les  actions institutionnelles  de  formation  à  l’information  et  l’évolution  de  la  société.  Ce  découplage résulte  d’un  différentiel  de  plus  en  plus  marqué  entre  les  moyens  à  consacrer  à  telles formations  et  l’intensification  avec  laquelle  les  chantiers  numériques  transforment  notre société [BERRY 2009] [DOUELHI 2008] [SEMPRINI 2003] [DUBEY 2001]. C’est une nouvelle forme  de  fracture  numérique  –  reliée  notamment  au  non‐usage  ‐  qui  se  développe actuellement  [KIYINDOU 2009]  [CHAPRON&DELAMOTTE 2010]  dans  cette  société  de l’information en genèse.  C’est bien là que le découplage est le plus manifeste : alors que les formations à la culture informationnelle  constituent  un  impératif  sociétal  crucial  pour  les  élèves  et  les  étudiants [JO EUROPE 2006],  et  que  l’économie  nationale  se  conjugue  de  plus  en  plus  intimement avec le numérique, l’offre de formation à l’information, parcellaire et touchant encore trop peu d’étudiants, a déjà atteint son seuil de saturation dans  l’enseignement supérieur : "En 2001‐2002,  la progression du nombre  total de  formés semble se  stabiliser autour de 140 000 étudiants (...). On peut y voir un signe de rationalisation, par les bibliothèques, de leur offre  de  formation  :  devant  la masse  d'étudiants  à  former,  elles  choisissent  de  consacrer leurs  moyens  aux  formations  les  plus  efficaces"  [BLIN&STOLL 2005].  Depuis  plusieurs années,  les  formations  à  l’information  constituent  une  mission  importante  des bibliothèques  universitaires  qui  doivent  répondre  à  une  demande  grandissante.  Malgré d’ingénieux  dispositifs  pédagogiques  élaborés  au  sein  même  de  la  bibliothèque  (TP, ressources  en  lignes,  visites,  etc.)  ou  dans  le  cadre  de  collaboration  avec  les  formations diplômantes de l’université (TD de méthodologie documentaire, C2i étudiant, etc.), les SCD n’ont  guère  de  perspective  à  voir  se  généraliser  ces  formations  à  tous  les  étudiants  en l’absence, notamment, de personnels et d’équipements (salles, informatique) dimensionnés en conséquence [ROUANET 2006].  Dans l’enseignement secondaire, bien que la formation documentaire représente un enjeu pour la réussite des études supérieures, elle est non seulement « discontinue et erratique » 

Page 22: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

22

mais  « les  professeurs­documentalistes  de  lycées  et  les  bibliothécaires  des  universités  ne  se fréquentent pas alors qu’ils partagent des objectifs communs de médiation dans  l’accès à  la connaissance » [DURPAIRE 2009].  Les  problématiques  documentaires  et  informationnelles  corrélées  à  celles  des  TIC  sont source  d’une  nouvelle  complexité  dans  les  processus  (cognitifs)  d’accès  à  l’information [GIRAUDIN 2007].  La  diversification  des  sources  et  des  medias  a  accru  les  difficultés  à appréhender une  information pertinente adaptée aux exigences académiques au point où elles ne peuvent plus être envisagées dans  le cadre d’auto‐apprentissage ou d’autodidaxie ou  d’autoformation  [JOLLY 2001].  S’il  est  difficile  d’apprécier  l’utilisation  optimale  des contenus numériques mis à disposition des usagers [BOUKACEM 2010] [SCHOPFEL 2005], les bibliothécaires en charge des collections numériques des bibliothèques, ne  cessent de constater  la  sous‐utilisation  par  leurs  usagers  des  ressources  numériques  gratuites  et onéreuses. Ils en livrent clairement une analyse chiffrée dans les rapports d’activité annuels de leur service.   Bien  que  les  établissements  du  supérieur,  au  travers  des  initiatives  courageuses  et volontaires  portées  par  leurs  services  communs  de  documentation  [PUAUT 2009] [LEBLOND 2007],  cherchent  à  répondre  à  ces  enjeux  modernes  de  la  formation  à l’information par des démarches locales de coopération, il n’en demeure pas moins que ces actions  demeurent  fréquemment  isolées,  peu  connues  des  autres  établissements  et finalement  rarement  analysées  afin  d’établir  les  éléments  d’une  politique  ambitieuse  de formation globale et continue à l’information [IANTE 2009].  Lors  de  l’expérimentation menée  avec  l’Université  d’Artois  et  les  lycées  de  l’académie de Lille,  la  bibliothèque universitaire  a  occupé une place  centrale  autour de  laquelle  se  sont articulées  les  actions  pédagogiques  menées  au  sein  des  lycées  expérimentateurs  et  les interventions du laboratoire « Document numérique & Usages ».   2 ­ La politique de formation documentaire à l’Université d’Artois  Les  enseignements  documentaires  dispensés  par  l’équipe  d’enseignants  et  de  formateurs du SCD de l’Université d’Artois répondent depuis de nombreuses années à la diversité des attentes  en  matière  de  formation  à  l’information  dans  le  supérieur  (licence,  master, doctorat,  C2i).  Malgré  le  poids  conséquent  de  cette  charge  pédagogique,  le  SCD  de l’Université d’Artois s’est engagé dès sa création en 1992, dans une démarche ascendante de  la  formation  à  l’information  et  a  élaboré  des  modules  de  formation  spécifiques  à destination  des  lycées  de  la  région  dans  le  but  de  préparer  les  lycéens  (et  probables étudiants) à leur nouvel environnement documentaire.  Cette présence historique de l’université auprès des établissements secondaires se traduit par  une  participation  fréquente  aux  forums  organisés  dans  la  quarantaine  de  lycées  du bassin  de  formation.  Elle  est  relayée  au  sein  même  de  l’établissement  par  des  actions générales (de type journées portes ouvertes) et des initiatives plus spécifiques (accueil de groupes  de  lycéens  pour  des  cours  et  des  TD  adaptés  à  leur  niveau).  L’enjeu  consiste  à valoriser les évolutions de l’établissement et de sa stratégie d’accueil auprès des différents 

Page 23: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

23

acteurs  des  lycées  qui  gardent  l’image  préconçue  d’une  structure  où  les  étudiants  sont livrés à eux‐mêmes et où l’insertion professionnelle relève de l’aléatoire.  3 ­  Réseautage avec les CDI  Le SCD a inscrit dans son projet de contrat quadriennal 2010‐ 2013 un ensemble d'actions au  service  de  la  liaison  lycées‐université  fondées  tant  sur  le  développement  d’un  fonds pluridisciplinaire d’accompagnement à la réussite que sur la mise en réseau avec les CDI sur la base d’un dispositif de référence commun («Visual Catalog»‐ Visual CDI).  Dans  le  contexte  d’évolution  permanente  des modalités  de  l’offre  documentaire  (tant  en termes de collections que de services), l’analyse des pratiques et usages effectifs ainsi que des  nouvelles  habiletés  nécessaires  à  la maîtrise  de  l’activité  de  recherche  d’information constitue  un  enjeu  essentiel  pour  l’ensemble  des  acteurs  qui  participent  à  la  transition documentaire du Lycée à l’université et souhaitent accompagner chacun dans son parcours de réussite.  Pour  favoriser  le  partenariat  entre  les  bibliothèques  universitaires,  les  bibliothèques publiques  et  les  CDI,  la  formation  en  commun  des  enseignants‐documentalistes  et  des bibliothécaires apparaît comme le moyen le plus efficace. L’objectif prioritaire consiste en la constitution  d’un  référentiel  commun,  définissant  les  compétences  documentaires  et informationnelles nécessaires pour aborder cette transition en toute sérénité (mobilisation des  différents  catalogues  et  bases  de  données,  techniques  et  langages  d’interrogation, utilisation critique et autonome des bases de données, etc.).  Le  développement  exponentiel  des  ressources  numériques  et  l’avènement  d’Internet comme espace numérique banalisé de la recherche d’informations, rendent essentielles à la réussite  des  étudiants  s’engageant  dans  tout  cursus  universitaire,  la  maîtrise  des  outils d’exploration  ainsi  que  la  méthodologie  permettant  d’appréhender  la  complexité  des ressources disponibles.  En  ce  sens,  la mise  en œuvre  de  dispositifs  et  de  formations mutualisés  pour  garantir  la continuité des apprentissages documentaires au lycée et à l’Université se présente comme un moyen  d’assurer  une  cohérence  globale  dans  le  but  de  «  partager  dans  la  continuité l’effort  pédagogique des documentalistes des  lycées  et des bibliothécaires municipaux ou universitaires  pour  favoriser  et  développer  la  pratique  documentaire  de  leurs  jeunes usagers » [IGEN 2009].  4 ­ «Visual Catalog» et VisualCDI  Le  «Visual  Catalog»,  système  de  recherche  d’information  bibliographique  expérimental  a été élaboré dans  le but d’observer  l’adéquation des dispositifs  techno‐documentaires à  la réalité  des  pratiques  instrumentales  des  usagers  et  de  leurs  attentes  [FOLCHER 2006, LEBLOND 2007, PAPY&LEBLOND 2007].   

Page 24: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

24

Le «Visual Catalog» propose aussi bien aux usagers de l’université qu’aux professionnels de la bibliothèque universitaire un outil  informatique commun de recherches documentaires exploitant  les  fonctionnalités  technologiques  du  Web  actuelles.  Il  se  présente principalement  comme  un  OPAC  "de  nouvelle  génération"  [MAISONNEUVE 2009]  mieux adapté aux attentes/besoins/comportements des usagers.   Compte  tenu  de  ses  caractéristiques  de  conception,  le  «Visual  Catalog»  a  été  rapidement adapté  aux  données  bibliographiques  traitées  par  BCDI,  solution  documentaire  globale proposée  par  le  Centre  Régionale  de  Documentation  Pédagogique  (CRDP)  de  Poitou‐Charentes  et  largement  utilisée  dans  les  établissements  scolaires.  Il  a  permis  de  pallier l’absence  d’outil  informatique  de  recherche  documentaire  qui  soit  commun  au  lycée  et  à l’Université.  En  effet,  si  à  l’évidence  les  formations  à  l’information  dispensées  par  les professeurs‐documentalistes  au  sein  des  établissements  du  secondaire  ne  sont  pas fondamentalement  éloignées  de  celles  qui  sont  proposées  aux  étudiants  par  les bibliothécaires  exerçant  dans  les  établissements  du  supérieur,  l’absence  de  dispositifs technologiques communs, nourrit chez les usagers (élèves et étudiants) la certitude que CDI et SCD sont deux lieux documentaires totalement disjoints.   Elaborés  sur  des  mécanismes  techniques  identiques,  les  «Visual  Catalog»  des  CDI expérimentateurs et le «Visual Catalog» de l’Université d’Artois se distinguent sur le fonds documentaire interrogé. Les données exploitées, les notices bibliographiques des ouvrages et  des  articles,  proviennent  des  logiciels  BCDI  utilisés  dans  les  CDI.  Exportées  en  format XML  (memonotices)  par  les  professeurs‐documentalistes  les  modalités  techniques  de transfert du  fichier export  (FTP) et de mise à  jour ont été réduites au maximum. Compte tenu de la durée conséquente de la procédure d’exportation des notices par BCDI, le rythme d’actualisation a été  laissé à  la discrétion des professeurs‐documentalistes en  fonction de l’évolution de leur base bibliographique.  Le  rapprochement  entre  les  autorités‐matières  de  RAMEAU,  le  langage  MotBis  et  les descripteurs libres retenus par  les professeurs‐documentalistes pour indexer les ouvrages de  leur  fonds  documentaire  a  constitué  un  apport  non  négligeable  de  cette  action  de continuité.  Pour  les  ouvrages  communs  au  SCD  de  l’Université  d’Artois  et  aux  CDI expérimentateurs,  les  mots‐clés  des  ouvrages  des  CDI  se  trouvaient  automatiquement enrichis par les vedettes‐matières RAMEAU extraite de la notice bibliographique provenant du SCD.  5 ­ Mise en place dans les lycées­expérimentateurs  L’expérimentation proprement dite  s’est déroulée pour  chaque établissement à  l’occasion d’une séance d’une heure  lors de  laquelle  les élèves ont été amenés à  traiter un exercice‐type conçu collectivement à cette intention. Préalablement à cette séance d’évaluation,  les élèves  ont  été  initiés  en  quelques  séances  au  fonctionnement  du  nouveau  dispositif  de recherche  d’information  VisualCDI,  présenté  non  pas  comme  une  alternative  au  logiciel BCDI habituellement utilisé par les élèves mais comme un outil  complémentaire à celui‐ci. Les  diverses  particularités  fonctionnelles  de  ce  dispositif  ont  été  décrites  aux  élèves : structuration  et  informations  présentes  dans  les  différentes  colonnes  (titre,  mots‐clés, 

Page 25: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

25

indices  Dewey),  synthèse  graphique  (catégories,  classes  Dewey),  filtrage  de  colonnes  à colonnes, exploration des indices Dewey, etc.  Lors de la séance d’évaluation, afin d’impliquer davantage les  lycéens, l’exercice‐type a été adapté  par  les  professeurs‐documentalistes  en  les  spécialisant  sur  des  thèmes  de recherches proches des sensibilités disciplinaires des élèves  ou de leurs intérêts pour des sujets  particuliers.  Si  la  diversité  des  recherches  documentaires menées  par  les  élèves  a révélé  les  intérêts  particuliers  que  ceux‐ci  pouvaient  manifester  pour  certains  sujets d’actualités, plus ou moins (in)dépendants de leur cursus scolaire,  l’expérimentation a été l’occasion de renforcer la continuité entre enseignements documentaires et enseignements généraux. En effet, pour plusieurs établissements, les thèmes de recherche sur lesquels les élèves ont finalement travaillés, ont été identifiés en concertation avec les enseignants des disciplines principales afin de prolonger des sujets d’étude préalablement bordés dans ces disciplines.   6 ­  Bilan de l’expérimentation du point de vue des professeurs­documentalistes  Acquis à la démarche globale de continuité Lycée‐Université, auxquels certains participent déjà  depuis  plusieurs  années  avec  l’Université  d’Artois  notamment,  les  remarques  des professeurs‐documentalistes ont porté   pour  l’essentiel  tournées sur  l’impact d’un nouvel outil  de  recherche  documentaire  venant  « paraphraser »  le  logiciel  BCDI  que  les  élèves utilisent fréquemment et pour lequel ils ont été formés. Bien que les données disponibles dans les deux dispositifs soient  les mêmes, il ressort de leurs  analyses  que  le  VisualCDI  apporte  aux  élèves  une  plus  grande  compréhension  des principes de structuration des classifications et d’une utilisation pragmatique de celles‐ci. L’approche  de  la  catégorisation  induite  par  la  Dewey  leurs  suggère  une  autre  façon d’apprendre, de cerner un sujet et d’en percevoir les contours, de s’approprier les domaines de  savoir  et  de  percevoir  les  transversalités  enrichissantes  (par  exemple,  une  recherche effectuée  sur  le mot‐clé  photographie  a montré  qu’en  un  coup  d’œil  on  pouvait  situer  ce sujet en sociologie ou en sciences et arts).  La  traduction  du  sujet  en  mots‐clés  pose  toujours  beaucoup  de  problèmes.  Le  réservoir lexical  des  élèves  étant  souvent  limité,  ceux‐ci  usent  (et  abusent),  pour  effectuer  leurs recherches documentaires, des premières notions immédiates qu’ils ont identifiées. Celles‐ci  finissent  inéluctablement  par  « boucler »  sur  les  mêmes  références  documentaires lorsque  l’élève  n’a  pas  recours  à  un  thésaurus  (comme  celui  de  BCDI)  qui  leur  permet d’ouvrir son champ lexical. Sur ce point précis, presque unanimement, malgré la confusion que VisualCDI entretient entres mots‐clés et descripteurs, les professeurs‐documentalistes ont constaté que le VisualCDI permettait d’augmenter sensiblement ce champ lexical en le complétant  automatiquement  de  nouveaux  termes  hérités  de  Motbis  et  du  répertoire d’autorité‐matière  RAMEAU.  Le  « nuage  de  termes »  que  renvoie  le  logiciel  à  chaque recherche ouvre ainsi beaucoup de portes « Dans BCDI, il faut avoir une idée précise de son sujet dès le départ, dans VisualCDI, on a plus d’idées pour choisir. Quand on ne sait pas où on va, VisualCDI, c’est bien ! »  

Page 26: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

26

Eclipsant  la  crainte  préalable  de  confusion  sur  le  fait  de  disposer  de  dispositifs  pour interroger  le  même  fonds  catalographique,  les  professeurs‐documentalistes  ont  constaté que la notion de logiciel documentaire et d’interface était mieux comprise. Passer par deux interfaces  différentes  se  révèle  formatrice  et  constructrice  de  sens  pour  les  élèves.  Ils  se familiarisent  avec  la  notion  d’interrogation  de  bases  de  données  et  acquièrent  des compétences  transversales qu’ils peuvent réinvestir ailleurs. Au  lycée Queneau,  les élèves ont perçu non seulement les différences entre les deux interfaces, mais ont trouvé la façon d’en exploiter  les  fonctionnements  complémentairement : VisualCDI  a donné  l’impression aux  élèves  d’explorer  « à  fond  le  fonds »  par  les mots‐clés  et  la  Dewey,  BCDI  de  pouvoir choisir les documents pré‐repérés par VisualCDI en validant leur pertinence par le résumé et de rédiger la bibliographie.  Enfin,  en  raison  de  l’interaction  particulière  que  le  cadre  de  l’expérimentation  avait introduite,  certains  professeurs‐documentalistes  ont  noté  que  les  élèves  situaient  mieux l’activité du professeur‐documentaliste et  le  lien entre données secondaires et documents primaires.   6 ­ Perspectives  Les  enjeux  de  la  réussite  des  primo‐arrivants  à  l’Université  sont  étroitement  liés  à  la question  d’une  utilisation  efficace  des  documentations  que  les  Universités  mettent  à disposition  de  leurs  usagers  [BRETELLE‐DESMAZIERES 1999]  [COULON 1997].  De nombreuses actions de formation à l’information ont été – et continuent à être  ‐ engagées en ce sens au sein des Universités, mais compte  tenu du nombre d’étudiants à  former, de leurs  attentes  extrêmement variables  et des moyens  limités dont disposent  les  SCD,  elles parent  finalement au plus urgent en donnant une part  trop grande à  la manipulation des innombrables dispositifs technodocumentaires des bibliothèques universitaires. Le rapport conjoint  IGB‐IGEN  sur  les  questions  de  la  continuité  Lycée‐Universitaire  en  matière documentaire,  rappelle  pourtant  bien  que  les  compétences  info‐documentaires  sont  à considérer comme compétences clés. La présence de telles compétences dans les certificats B2i  et  C2i  qui  jalonnent  le  parcours  de  l’écolier,  du  collégien,  du  lycéen  et  de  l’étudiant, souligne,  de  fait,  une  confirmation  des  actions  institutionnelles  nationales  pour  se conformer  aux  recommandations  européennes.  Mais  la  formation  et  la  place  de  ces différents  certificats  dans  les  cursus  des  élèves  et  des  étudiants  sont  très  réduites  et  ne répondent pas aux enjeux de la réussite des étudiants. Une des pistes que le rapport IGEN‐IGB  privilégie,  réside  dans  une  meilleure  articulation  des  apprentissages  documentaires que proposent lycées et universités.  Compte tenu des enjeux liés à la réussite des lycéens engagés dans des études supérieures, l’inspection de l’académie de Lille avait envisagé, lors des réunions préparatoires à la mise en  place  de  l’expérimentation,  de  généraliser  le  dispositif  à  l’ensemble  des  lycées  de l’académie.  La  phase  actuelle  de  « post‐expérimentation/pré‐généralisation »  poursuivie actuellement  avec  une  vingtaine  d’établissements  du  secondaire,  en  étroite  collaboration avec l’Université d’Artois, peut se lire d’ores et déjà comme une réussite de cette démarche expérimentale collective autour de la liaison documentaire Lycée/Université. Sans augurer du bilan qui sera dressé prochainement, tout laisse à penser que les résultats obtenus avec 

Page 27: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

27

les  8  premiers  lycées  expérimentateurs  se  retrouveront  avec  les  12  autres  lycées.  La généralisation  apparaît  alors  comme  une  action  d’envergure  se  profilant  dans  un  futur proche. Le financement récent par le Pôle de Recherche et d’Enseignement Supérieur « Lille Nord de France » d’une passerelle documentaire visant à équiper graduellement les SCD de chaque  université  de  l’académie  de  Lille  d’un  Visual  Catalog  fédérateur  constitue  une contribution significative dans la démarche de généralisation envisagée.  Bibliographie    Gérard BERRY, Pourquoi et comment le monde devient numérique ? Collège de France, Paris, 2009, 78 p.  Frédéric BLIN, Mathieu STOLL « La formation des usagers dans l'enseignement supérieur », Bulletin des Bibliothèques de France, 2005, n° 6, p. 5‐15.  Cherifa BOUKACEM‐ZEGHMOURI (dir) L'information scientifique et technique dans l'univers numérique  : mesures et usages,  Collection  :  Sciences et  techniques de  l'information, ADBS, 320 pages, 2010.  Danièle  BRETELLE‐DESMAZIERES,  Véronique  MESGUICH,  Hervé  LE  MEN,  Christophe BOUDRY, Caroline WIEGANDT, Marie‐Françoise BISBROUCK, Françoise SOGN, « Évolutions de la relation avec les usagers », Documentaliste­Sciences de l’information, 2009, Volume 46, p. 32‐44.  Françoise  CHAPRON,  Eric  DELAMOTTE  (dir.)  L’Education  à  la  culture  informationnelle, Presses de l’ENSSIB, 308 pages, mars 2010.  Alain  COULON,  Le métier  d’étudiant.  L’entrée  dans  la  vie  universitaire,  PUF,  Paris,  1997, 217 p.  Claire DENECKER, Les compétences documentaires : des processus mentaux à l’utilisation de l’information, Presses de l’ENSSIB, 2003.  Danièle  BRETELLE‐DESMAZIERES,  Alain  COULON,  Christine  POITEVIN,  « Apprendre  à s'informer;  une  nécessité  :  évaluation  des  formations  à  l'usage  de  l'information  dans  les universités  et  les  grandes  écoles  françaises »,  Association  internationale  de  recherche ethnométhodologique,  Laboratoire  de  recherche  ethnométhodologique,  Saint‐Denis, 1999,114 p.  Milad DOUELHI, Comment le monde devient numérique, Editions du Seuil, Paris, 2008, 271 p.  Alain DUBEY, Le lien social à l'ère du virtuel, PUF, 2001, 258 p.  Jean‐Louis  DURPAIRE,  Daniel  RENOULT,  « L’accès  et  la  formation  à  la  documentation  du lycée  à  l’université :  un  enjeu  pour  la  réussite  des  études  supérieures »,  Rapport  IGEN­IGB n°2009­000, 2 mars 2009, 65 p. 

Page 28: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

28

 Aniela  FÉO,  « L'enseignement  de  méthodologie  documentaire  à  l'Université  Paris‐8 :  un accompagnement bien tempéré ». Documentaliste  ­ Sciences de  l'information, 1998, vol. 35, n° 3, p 147‐155. www.adbs.fr/uploads/docsi/1636_fr.pdf   Viviane FOLCHER, « Usage comparé d'outils de recherche documentaire : premiers résultats et pistes d'analyses ouvertes », La bibliothèque entre physique et virtuel : objet complexe de sens,  objet  d'usages  complexes,  journée  d'étude  du  11  mai,  Université  Paris‐8,  2006, http://www.archivesaudiovisuelles.fr/674/  Cécile  GARDIES,  Isabelle  FABRE,  Viviane  COUZINET,  «  Re‐questionner  les  pratiques informationnelles », Études de communication, n°35, 2010.  Jean‐Pierre GIRAUDIN. «Complexité des systèmes d’information et de leur ingénierie», e­TI ­ la  revue  électronique  des  technologies  d'information,  Numéro  3,  9  mai  2007, http://www.revue‐eti.netdocument.php?id=1180.  Claude  JOLLY,  « Bibliothèques  universitaires.  Regard  sur  les  changements »,  Bulletin  des Bibliothèques de France, 2001, Paris, t.46, n°6, p. 50‐54.  Alain  KIYINDOU  (dir)  Fractures, mutations,  fragmentations  :  de  la  diversité  des  cultures numériques,  Hermes‐Lavoisier, 2009, 257 p.  Corinne LEBLOND. « Un système d’information documentaire à l’Université, fédération des ressources et personnalisation des services : de l’idéal du projet à la réalité des usages ». In : Fabrice  Papy  (dir.), Usages  et pratiques dans  les bibliothèques numériques.  Paris :  Hermès Science  Publications :  Lavoisier,  2007,  p. 73‐93.  (Traité  IC2,  série Management  et  gestion des STIC).  Marc MAISONNEUVE, Le catalogue de la bibliothèque à l'heure du Web 2 : étude des opacs de nouvelle génération, ADBS Editions, 2009, 305 p.  Fabrice  PAPY,  Corinne  LEBLOND,  «  L'interface  de  recherche  d'information  du Visual…Catalog : un outil  innovant à double détente », Documentaliste­SI, Vol. 44, n°4‐5, p. 288‐298, 2007.  Fabrice PAPY, « Au‐delà de  la  transfiguration du catalogue », Bulletin des Bibliothèques de France, 2005, n° 4, p. 5‐12, http://bbf.enssib.fr/  Maud PUAUD, Construire un partenariat entre  le SCD de  l’Université d’Angers et  les CDI de lycées : étude de faisabilité, Mémoire DCB, ENSSIB, octobre 2009, 57 p.  Recommandation  du  Parlement  européen  et  du  Conseil,  du  18  décembre  2006,  sur  les compétences clés pour  l'éducation et  la formation tout au  long de  la vie [Journal officiel L 394 du 30.12.2006].  

Page 29: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

29

Joachim  SCHÖPFEL,  Chérifa  BOUKACEM‐ZEGHMOURI,    «  Statistiques  d'utilisation  des ressources électroniques », Bulletin des Bibliothèques de France, 2005, n° 4, p. 62‐66.  Bruno VAN DOOREN,  Bibliothèques  universitaires  et  nouvelles  technologies, Ministère de l’Education Nationale, de la Recherche et de la Technologie, juin 2009.  Jean  SALENCON,  Rapport  du  comité  Information  Scientifique  et  Technique, Ministère  de l’Education Nationale de l’Enseignement Supérieur et de la Recherche, juin 2008.  Andrea  SEMPRINI,  La  société  de  flux:  formes  du  sens  et  identité  dans  les  sociétés contemporaines, l’Harmattan, 2003, 280 p.  

Page 30: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

30

L’évolution de la taxonomie du site Web au Gouvernement du Nouveau­Brunswick  

Diane Nadeau12, IPA Baccalauréat en Sciences de l’Informatique (UNB) 

Stratège en chef, gestion de l’information, Services gouvernementaux de l’informatique, Ministère de l’Approvisionnement et des Services,  

Gouvernement du Nouveau‐Brunswick, Canada  

 Résumé  :  Les  sites  Web  gouvernementaux  offrent  une  multitude  d’information  et  de services en ligne dans des domaines très variés. Trouver ce que vous désirez peut créer des inconvénients occasionnant des obstacles pour les entreprises et citoyens et peut créer des embarras  politiques.  L’attention  de  cette  présentation  s’appuiera  sur  l’évolution  de  la taxonomie  pour  la  gestion  des  documents  et  pour  la  présentation  des  services  et information du site Web au Gouvernement du Nouveau‐Brunswick. La vision 2020 du N.‐B., tel  que  rédiger  en  2011,  pour  participer  à  la  fondation  de  la  grille  de  l’information  sera présentée, y compris les composantes nécessaires à son succès.  Mots­clés  : Taxinomie, taxons, facettes, méthode de classification des informations, règles du classement, ordre, placement, sciences de l’information, architecture structurée, système de gestion de contenu, CMS   Introduction/Contexte  Le site du Gouvernement du Nouveau‐Brunswick  fut créé en 1995,  le premier au Canada. On pouvait y  retrouver entre autre des  sites ministériels,  communiqués de presse,  lois et règlements,  téléphone web et une  liste alphabétique des services. Au début des cinq à dix ans du site, organiser l’information du Web n’était pas une priorité.       

                                                        12  Diane  Nadeau  travaille  depuis  les  vingt‐neuf  dernières  années  pour  le  Gouvernement  du  Nouveau‐Brunswick.  Depuis  2006,  elle  est  le  "Stratège  en  chef  de  la  gestion  de  l’information",  aussi  responsable  de l'architecture de l'information d'entreprise et des recommandations pour la réduction des silos, des systèmes de veilles stratégiques et projets concernant les sites Web du gouvernement. Pendant  sa  carrière, Diane  a  travaillé  sur  des projets  avec  onze ministères  et  une  agence  fédérale. Diane  a aussi travaillé avec Sun Life du Canada. Elle a un Baccalauréat en Sciences de l’Informatique de l'Université du Nouveau‐Brunswick,  détient  une  certification  d’Informaticien  professionnel  agréé  (IPA)  et  est  membre  de l’Association  of  Records  Management  Administrators  (ARMA)  et  du  Canadian  Information  Professional Society (CIPS).  

Page 31: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

31

Problématique  Comme  bien  des  choses,  nos  programmes  sont mesurés  et  évalués  premièrement  par  la quantité, et deuxièmement par la qualité. Alors, les informations sur le Web ont évolué de plus en plus sans gestion. Comme on le disait « Plus de pages Web, c’est mieux! ». Mais les résultats : « qualité médiocre à l'entrée = qualité médiocre des résultats ».  Objectifs  Les objectifs pour  commencer à mettre de  l’ordre dans  le  site Web du Gouvernement  (et complétés pendant les années 2000‐2010) étaient les suivants : 

1. Répertoire des organismes du gouvernement et des employés (2001), 2. Répertoire des services groupes en catégories familiers aux citoyens et entreprises, 

et aux autres gouvernements du pays (en tenant compte de l’international) (2005 et 2010),  

3. Développement d’une taxonomie et la mise à jour continuelle (2005 et 2010).  

Revue des travaux gouvernementaux 

- Entreprises Canada (i.e., Centre des Services pour les Entreprises du Canada – CSEC, 1998). 

- Mandat du Service Nouveau‐Brunswick (SNB) et Services en ligne. - Réduction des formalités administratives.  - Sous‐comité pancanadien XML. - Sous‐comité pancanadien « Service Mapping Sub‐Committee » (SMSC). - Taxonomie canadienne des services humains 211. 

 Méthodologie/ Mise en œuvre de la solution 

Pour le premier lancement en l’année 2005, le projet répondait à une des recommandations de  l’initiative  « Réduction des  formalités  administratives »  avec un  focus de produire une liste des frais ou des droits pour les entreprises. Le gouvernement, après une présentation du  concept  d’un  répertoire  complet,  a  agrandi  le  cadre  pour  y  inclure  les    services  pour citoyens.  

Le  gouvernement  a  établi  un  Mémorandum  d’accord  avec  tous  les  ministères  et  un administrateur et des coordonnateurs ministériels y ont été attribués.  

Huit cent cinquante (850) services ont été décrits suivant un modèle cohérent en anglais et en français. En voyant le volume de tous les services, une taxonomie devenait une priorité. En moins de six (6) mois, cette information devait être disponible au public.  

Due  à  la  courte  échéance,  aucune  recherche  pour  établir  une  taxonomie  basée  sur  des normes n’a pu être effectuée. La taxonomie a été développée basée sur l’expérience acquise avec  le  Centre  des  Services  pour  les  Entreprises  du  Canada  (CSEC)  en  1998.  Les  leçons 

Page 32: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

32

apprises pendant  ce projet nous ont permis  la  construction  rapide de  la  taxonomie et du répertoire des services.  

La mise à  jour de  la  taxonomie et  le  classement des  services  sont  toujours demeurés des responsabilités  de  l’administrateur  des  services.  Cette  fonction  demeure  toujours  avec  le Stratège en chef de la gestion de l’information. 

En 2007,  ce Répertoire  était  encore  le premier de  son genre de  toutes  les  juridictions au Canada.  Plusieurs  de  ces  juridictions  ont  fait  des  demandes  pour  l’acquérir.  Mais  la technologie utilisée n’était pas interopérable car nous avions développé ce répertoire sans financement additionnel. 

Nous avions encore des problèmes : ancienne technologie, taxonomie non normalisée. Mais nous avions huit  cent  cinquante  (850)  services disponibles  au public,  décrits  suivant une méthode  cohérente,  avec  un  site  Web  et  moteur  de  recherche  basé  sur  le  SQL.  Les problèmes étant localisés au central pourront être corrigés, dans le futur, en n’affectant pas les ministères. 

Pendant 2008‐2010,  il y avait un appétit de réorganiser  le site Web du Gouvernement du Nouveau‐Brunswick  en  entier.  Celui‐ci  utilisait  encore  de  la  vieille  technologie  depuis  sa naissance en 1995.   

Des  opportunités  se  présentaient.  Une  était  de  faire  du  répertoire  des  services  une concentration  importante  du  nouveau  site.    Ce  qui  nous  permettrait  d’enlever  les informations en double, de  faire une nouvelle  taxonomie qui deviendrait  la concentration importante  de  la  navigation  du  nouveau  site  et  d’installer  un  moteur  de  recherche  à facettes. 

La  taxonomie  était  devenue  une  cible  importante.  Utiliser  des  normes  pour  supporter  la flexibilité  et  l'interopérabilité  avec  les  autres  sites  Web  des  autres  juridictions, principalement pancanadiennes, était aussi une cible importante. 

Après un engagement avec un consultant, nous retrouvons le « 211 LA County Taxonomy of Human Services ». Inform Canada nous donne la version française « Taxonomie canadienne des services humains 211 ». Nous pouvons aussi y appliquer des termes localisés. 

Pour les entreprises, nous faisons le saut vers le « Système de classification des industries de l'Amérique du Nord (SCIAN) » fourni par Statistiques Canada, et aussi utilisé par PerLE. PerLE est un point d’accès unique en ligne pour les entrepreneurs qui simplifie le processus de recherche de renseignements sur les licences et permis d'affaires à tous les niveaux de gouvernement – fédéral, provincial et municipal.  

Nous  utilisons  aussi  les  références  des  sous‐comités  pancanadiens  « XML »  et  « Service Mapping  Sub‐Committee (SMSC) »  dont  les  membres  ont  développé  le  « Modèle  de référence  des  gouvernements  canadiens »    pendant  les  dernières  dix  années.  Ce  modèle 

Page 33: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

33

n’est  pas  encore  une  norme  canadienne.  Ce  modèle  est  plutôt  utilisé  à  l’interne  des gouvernements pour identifier les services et processus communs.  

Les  premières  versions  de  la  taxonomie  furent  délibérées  par  un  comité  d’agrément constitué de membres de  l’équipe de développement du nouveau site, de Communication Nouveau‐Brunswick  (administrateur  chef  du  site  Web  gouvernemental),    de  Service Nouveau‐Brunswick,  et  des  Services  gouvernementaux  de  l’informatique.  Cette  dernière organisation  retient  les  responsabilités  de  gestion  de  la  taxonomie  et  de  l’attribution  de « tags » au contenu du site Web.  

Aujourd’hui,  nous  y  retrouvons  encore  seulement  les  services  avec  les  « tags »  reliés  à  la nouvelle taxonomie. Ceci est fait manuellement! Le moteur de recherche à facettes est aussi seulement utilisé pour la recherche sur les services.  

Le répertoire des services est devenu une composante importante du nouveau site. Chaque ministère  a  adopté  le  répertoire.  Les  informations  en  double  sont  éliminées.  Les informations sont de meilleures qualités.  

Le deuxième lancement eut lieu en juillet 2010. 

Analyse (après le deuxième lancement) 

Le logiciel choisi répond bien aux besoins du « tagging », en anglais et en français, et de la navigation utilisant  la  taxonomie. Le moteur de recherche à  facettes  fonctionne bien pour les  services.  Les  facettes  peuvent  être  vues  dans  la  colonne  gauche  de  la  page  Web,  et peuvent être utilisées pour affiner les résultats de recherche. 

Avec notre connaissance des services depuis 2005,  l’application des « tags » des branches « catégories »  et  « organismes »  en  anglais  et  français  pour  huit  cent  cinquante  (850) services s’est exécutée pendant trois (3) semaines par l’administrateur. 

Par contre, nous avons accumulé du travail de classement tel que: 

- l’application  des  « tags »  pour  groupes  cibles  et  types  de  contenu  pour  tous  les services. 

- l’application des « tags » pour tout contenu du site Web, soit : o 300 000 pages Web o     2 000 communiqués de presse o     6 000 actifs numériques (publications, audio, images, vidéos, etc.) 

Nous  avons  accumulé  du  travail  auprès  des  lacunes  dans  la  taxonomie.  L’application  des « tags »  révèle  des  lacunes.  Il  nous  faudra  créer  de  nouvelles  facettes  et  de  nouveaux niveaux.  C’est  un  travail  continuel.  Nous  continuons  à  faire  de  la  révision  toujours  en référence avec les normes.  

Page 34: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

34

Un ajout, une  suppression ou un  changement à n’importe quelle branche ou niveau de  la taxonomie signifie que l’administrateur doit faire une revue du contenu du site Web affecté. Ceci prend beaucoup de préparation et d’attention aux détails pour s’assurer que rien n’est oublié.  

Pendant le classement ou l’application des « tags », l’administrateur doit de temps en temps être en contact avec  les coordonnateurs ministériels pour demander de  l’aide pour mieux comprendre  le  service ou  le  contenu.      Faire des  changements à  la  taxonomie occasionne beaucoup de temps.  

Malheureusement,  le  logiciel  choisi ne gère pas  la  taxonomie et ne  fait pas de classement automatique. Ces composantes peuvent se faire avec autres logiciels dédiés à ces fins. Vous pouvez  accéder  sur  le  site  du  Répertoire  des  services  au http://www2.gnb.ca/content/gnb/fr.html en cliquant sur « Services » qui se trouve au haut de la page (voir figures 1.1, 1.2 et 1.3).  

Figure 1.1 Accéder au site du Répertoire des services 

Figure 1.2 Le moteur de recherche à facettes du Répertoire des services 

 

Page 35: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

35

 Figure 1.3 La méthode cohérente de description des services 

 Solution 

Présentement, la taxonomie est divisée en quatre (4) branches principales (voir figure 2.0): 

- Catégories (14) - Organismes (72) - Types de contenu (73) - Groupes cibles (11) 

Chaque branche a un à  trois niveaux. En  tout, quatre cent soixante‐dix  (470)  termes sont utilisés dans chacune des deux langues officielles de la Province. Voir l’appendice A : Figure 2.0 Taxonomie du Gouvernement du Nouveau‐Brunswick (pour le Web). 

Résultats 

Trois points sont à relevér :  

1) Communication  Nouveau‐Brunswick  (CNB)  est  satisfait  des  résultats  du  nouveau site, du nouveau répertoire, de la nouvelle taxonomie et de la recherche à facettes. Il reconnaisse que l’information est diversifiée, que la gestion est multi‐ministérielle et qu’il  faut parfois  faire des compromis. Pour une gestion plus efficace,  il  faudra que les  organismes  centraux  responsables  fassent  un  ajustement  à  leur  mandat, politiques gouvernementaux et budget.    

2) Service Nouveau‐Brunswick (SNB) a un site à l’égard du site gouvernemental, ce qui lui  permet  d’offrir  des  services  hors  gouvernementaux.  Malgré  que  le  SNB  soit 

Page 36: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

36

membre  du  comité  d’agrément  pour  la  taxonomie,  l’adoption  de  celle‐ci  pour  leur site  Web  est  encore  en  attente.  L’étude  de  l’Australie  « Online  Service  Delivery Models  –  An  International  Comparison  in  the  Public  Sector »  nous  indique l’inconsistance  des  deux  sites  qui  contribue  probablement  à  une  baisse  de satisfaction de la part de nos citoyens. 

3) Le  travail  du  « Service  Mapping  Sub‐Committee (SMSC) »  se  concentre principalement  sur  le  partage  de  l’information  entre  ses  membres.  Toutes juridictions pancanadiennes ont une catégorie appelée « Événements de la vie », sauf le Nouveau‐Brunswick. Deux ans passés, le comité d’agrément de la taxonomie avait décidé de ne pas avoir cette catégorie pour deux raisons : 

1) Tout évènement peut être considérer un Événement de la vie, 2) Ce  terme  était  utilisé  dans  les  années  2000  et  est maintenant moins  utilisé 

dans les autres juridictions nord‐américaines et internationales. 

Conclusion  Le travail est continuel. Les objectifs pour les prochains 10 ans (2010‐2020) sont :  ‐ Adopter un thésaurus anglais et français. ‐ Installer un moteur de gestion de taxonomie. ‐ Installer un moteur de gestion de thésaurus. ‐ Installer un moteur de classement automatique. ‐ Installer un moteur de recherche par facettes qui inclut plusieurs sources d’information à format divers. ‐  Étiqueter  (appliquer  des  tags)  au  contenu  total  du  site  gouvernemental,  soit manuellement ou par un classement automatique. ‐ Adopter plus de normes de métadonnées. ‐ Adopter plus de normes pour s’adapter aux Données ouvertes. 

Et  éventuellement,  l’objectif  est d’adopter plus de normes pour  adapter  la  taxonomie,  les métadonnées  et  le  Répertoire  des  services  à  la  grille  internationale  d’information  qui  se développe continuellement. 

Avec  cette  fondation,  nous  serons  prêts  pour  participer  au  développement  de  portails  3 tiers  gouvernementaux plus  perfectionnés. Dans  les  dernières  années,  des  projets  pilotes ont existé comme « Portail pour personnes aînés », mais les provinces et ministères opèrent en silos et n’adopte pas les normes, ce qui ne permet pas d’accélérer ces projets. 

À  l’interne  du  gouvernement,  la  taxonomie  doit  devenir  une  plus  grande  priorité  du gouvernement. Elle doit s’évoluer et y comprendre les services internes et l’automatisation des processus. Elle doit être appliquée pour gérer les intranets et les sites documentaires. Nous  devons  atteindre  une  conformité.  On  devra  aussi  l’appliquer  aux  autres  sources autoritaires. 

Mais surtout, nous devons ajuster la gouvernance en ajustant les mandats, les politiques, les responsabilités et la relation avec l’architecture de l’entreprise. 

Page 37: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

37

Malgré tous ces ajouts, les juridictions canadiennes nous envient. Nous avons eu plusieurs appels pour les logiciels du répertoire. C’est clair que les provinces veulent ces logiciels et moteurs.  

Pour les prochaines années, le Nouveau‐Brunswick est positionné pour : ‐ être un « Leader » dans ce domaine, ‐ gérer les taxonomies pancanadiens gouvernementales, ‐ gérer les registres pancanadiens des services gouvernementaux, et ‐ gérer les portails 3 tiers gouvernementaux basés sur les groupes cibles.   

En  2010,  « Canada  3.0 »,  un  forum  pour  discuter  des  besoins  digitaux,  recommande  un  service en ligne de « concierge ». Ce service réunirait tous les gouvernements pancanadiens ensemble dans un portail pour  rechercher et accéder aux programmes et  services offerts par  ces  entités.  Est‐ce  que  le  Gouvernement  du  Nouveau‐Brunswick  saura  s’élever  à l’occasion ?  

Page 38: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

38

Appendice A :  Figure 2.0 Taxonomie du Gouvernement du Nouveau­Brunswick pour le Web 

(La taxonomie est imprimée en quatre (4) pages pour y faciliter la lecture) 

Page 39: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

39

Page 40: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

40

Page 41: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

41

Page 42: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

42

Les bases d'un réseautage réussi : étude comparative de deux groupes de travail, convergence dans le mode de gouvernance 

 Clarisse Holik13,  

Attachée de conservation du patrimoine, Archives départementales de Seine‐Maritime  

 Résumé : Effet de mode ou techniques incontournables ? A l’heure où réseaux et archives électroniques  sont  l’objet  de  nombreuses  publications,  nous  nous  proposons  à  travers l’étude  de deux  réseaux  professionnels  centrés  sur  l'étude  des  archives  électroniques,  de déterminer  les  facteurs  clés  conditionnant  le  bon  fonctionnement  de  ces  réseaux  et l'aboutissement de leurs travaux. Après avoir rappelé les grandes lignes du fonctionnement des  réseaux,  nous  revivrons  l’histoire  du  groupe  PIN  (Pérennisation  des  Informations Numériques) de l'association Aristote  né en l'an 2000, puis celle de la Commission Archives Electroniques  de  l'Association  des  Archives  français,  née,  elle,  en  2004.  Une  étude comparative  portant  sur  leur  mode  de  gouvernance,  leurs  publications  et  leurs interventions  nous  permettra  de  relever  les  points  suivants :  un  mode  d'organisation rigoureux centré sur un animateur de tête de réseau énergique, un partage des tâches, un but clairement identifié : l'émergence de solutions pratiques et fiables pour la pérennisation des  informations  dans  un  cas,  la  reconnaissance  du  rôle  primordial  de  l'archiviste  dans l'édification  de  ces  solutions,  dans  le  second  cas,  des  participants  motivés  participant également  à  d’autres  réseaux.  Conditions  nécessaires  pour  un  bon  fonctionnement, suffisantes pour un succès d’estime ?  Mots­clés :  Réseau  professionnel,  Réseautage,  archives  électroniques,  pérennisation  des informations numériques, Cycle de vie de l’information, Groupe PIN, Groupe CAE AAF   

                                                        13 Après une maîtrise de Biochimie en 1981 et un Dess de Documentation et Technologie Avancées en 1988 obtenu à l'Université Paris 8, Clarisse Holik mène une carrière de documentaliste scientifique puis d'archiviste tout en enseignant à    l'Université Paris 8, de 1986 à 2005,    les techniques de recherche documentaire et de traitement de l'information et de 1997 à 2006 à Paris 10 le "management des SID, Service d'Information et de Documentation". Elle  est embauchée   au Centre National de Transfusion Sanguine puis dans un  laboratoire scientifique  en  tant  que  documentaliste  scientifique.  Elle  est  ensuite  engagée  à  TF1  en  1991  comme responsable du service Documentation Technique Archives administratives où elle reste plus de 10 ans, crée le service, met en place des procédures d’archivage, participe au déménagement, est chef de projet Intranet et étudie  un  système  de  Ged  pour  le  service  de  documentation  de  l’Information;  de  2003  à  2008,  elle  est responsable  du  secteur  Documentation  Archives  à  l’AFSSET    (l'Agence  Française  de  Sécurité  Sanitaire  de l'Environnement  et  du  Travail)  où  elle  crée  le  service  et met  en  place  des  procédures  d’archivage.  Depuis septembre  2008,  elle  est  chargée  de    collecter  et  traiter  les  archives  contemporaines    aux  Archives Départementales de Seine‐Maritime et participe à la mise en place d'une plate‐forme d'archivage électronique. Clarisse  Holik  intervient  pour  le  centre  de  formation  de  l’AAF,  de  l'ADBS  et  du  centre  de  formation  des Archives  de  France.  Faisant  partie  du  groupe  de  travail  Archives  Electroniques  de  l’AAF  du  groupe  PIN (Pérennisation des Informations Numériques), elle a été responsable du centre de formation de l'AAF de 2007 à 2010 et fait plusieurs interventions dans le domaine de l'archivage électronique notamment à Montréal en 2004. Enfin, elle est membre d'associations de protection de la nature.  

Page 43: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

43

I ­  Quelques précisions de vocabulaire   Le cycle de vie de l’information GED = Gestion électronique de documents (Généralement documents nés en analogique et élevés en numérique) RM = Records management ou gestion des archives courantes et intermédiaires SAE= Système d’Archivage Electronique.  Le réseau   Au XIIème  siècle,  le mot désignait un « filet pour prendre des  animaux ». Par  analogie de forme,  le  réseau  désigne  un  ensemble  permanent  ou  accidentel  de  lignes,  de  bandes, entrelacées ou entrecroisées plus ou moins régulièrement et depuis 1849, un ensemble des lignes,  des  voies  de    communication,  des  conducteurs  électriques,  des  canalisations  qui desservent une même unité géographique, dépendent de la même compagnie. Enfin, il peut s’agir  de  la  répartition  des  éléments  d’une  organisation  en  différents  points  (un  réseau commercial) voire même d’une organisation clandestine formée par un certain nombre de personnes en relation directe ou indirecte les unes avec les autres et obéissant aux mêmes directives. Un réseau d’espionnage. (Petit Robert, 1988)  Le réseau physique n’est pas neutre : son utilisation formate les relations qui peuvent être à l’image  de  la  télévision  unidirectionnelles  (un  émetteur,  de  multiples  récepteurs)  ou  à l’image  du  téléphone  multidirectionnelles).  D’autres  facteurs  comme  la  fréquence, l’intensité ou la valeur des échanges caractérisent l’utilisation du réseau.  En effet, le chemin peut être direct ou emprunter des voies détournées, faire des étapes qui constituent autant de nœuds, chaque nœud pouvant être relié à un autre et constituer ainsi un maillage. Le filet de pêche peut être une bonne image de ce maillage.  Un réseau physique multidirectionnel par son maillage d’émetteurs et de récepteurs permet l’interactivité des relations. Il le permet mais n’est pas le facteur essentiel ; en fait, ce réseau physique se double d’une organisation réticulaire de l’information et des connaissances. Ce seront  des  facteurs  tels  que  les  ressources  informationnelles  disponibles  (les  stocks d’information) ou des  facteurs humains  comme  l’intérêt des participants,  leur motivation (Gerstlé, 2003), leurs liens, les transactions et le mode de gouvernance qui vont déterminer le fonctionnement du réseau.   Ces liens peuvent être des liens d’identification ou de différentiation ou être un mélange des deux.    Ils  peuvent  être  faibles  ou  forts  selon  le  temps  consacré  au  réseau,  l’intensité émotionnelle, l’intimité ou la réciprocité (Granovetter, 1973).   Les réseaux sociaux comme ceux qui se créent sur Facebook ou Twitter montrent des liens faibles.   Les réseaux professionnels ont existé de tout temps : un exemple est le  « collège invisible » ainsi nommé dans les années 1990 par certains chercheurs du réseau des Instituts Pasteur 

Page 44: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

44

dans  le monde.(conversation  avec  l’auteur).  La  nouveauté  vient  de  la  possibilité  d’établir des ponts entre les catégories différentes et de réorganiser l’information.   En effet, avec la problématique Archives Electroniques, les ponts entre ces catégories sont nombreux et la notion d’interdisciplinarité apparaît. Appartenir à un groupe de travail actif dans un domaine transdisciplinaire donne le pouvoir d’être informé plus vite.   II ­  Le contexte  Avec la convergence de l’informatique, des télécommunications et de la télévision, dans les années  1990,    de  nouveaux  types  de  travail  collaboratif  sont  apparus,  prolongeant  et amplifiant  les  productions  des  groupes  de  travail  et  des  réseaux  professionnels, transformant également toutes les étapes du traitement de la chaîne de l'information, de la collecte à la communication.   Parallèlement  le passage d'une  information de type analogique à une  information de type numérique,  l'obsolescence  rapide  des  supports  de  cette  dernière  ont  fait  craindre  la disparition à court ou moyen terme de cette information numérique.  Comment préserver son patrimoine numérique ?  Comment préserver de manière pérenne des documents stockés sur un support éphémère ?   D’autre part,  il n’y a pas au niveau des organisations, qu’elles soient publiques ou privées, de prise en compte du cycle de  l’information dans  l’organisation elle‐même et de prise en charge  de  la  chaîne  de  traitement  de  l’information.  L’identification  du  document,  la traçabilité des événements qui l’affectent tout au long de sa vie deviennent indispensables afin de prouver la fiabilité du système, l’intégrité et l’authenticité du document.    Enfin,  de  l’absence  de  culture  commune  entre  les  différentes  professions  traitant d’archivage électronique, pouvaient naître des sources d’erreur et de confusion. En effet, le mot archivage désigne pour les archivistes une conservation à moyen ou long terme. Pour un informaticien, ce mot désignera un stockage d’information qui pourra être remplacé par un  autre  au  bout  de  quelques mois.  Le  plan  de  classement  des  uns  désignera  l’arbre  de références des autres, et  les calendriers de conservation, vieux outils des archivistes sont une nouveauté pour les informaticiens.   III ­ Création du groupe PIN (Pérennisation des Informations numériques)   Les questions se posèrent d’abord au sein du Centre national d’études spatiales (CNES). Ce dernier  avait  le  premier  constaté  les problèmes que pouvait  causer  la  perte des données collectées  sur  la  planète  Vénus    et  avait  donc    participé  à  la  mise  au  point  le modèle  de référence  OAIS  (Open  Archive  Information  System).  En  juin  2000,  conjointement  avec  la Bibliothèque  Nationale  de  France  (BnF),  le  CNES  organisa  une  réunion  inter‐organismes pour présenter et faire connaître en France ce modèle. Les participants constatant l’intérêt qu’il  y avait à  travailler ensemble, ont  créé en août 2000, un  groupe de  travail,  le groupe PIN ;  ce  groupe  est  constitué  au  sein  d’une  association  à  but  non  lucratif,  l’association 

Page 45: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

45

Aristote qui  regroupe  la majorité des grands comptes publics  français  (grandes écoles de formation  d’ingénieurs,  Archives  Nationales,  Bibliothèque  nationale  de  France, Commissariat  à  l’énergie  atomique)  comme  Pérennisation  des  Informations  Numériques avec l'arbre comme symbole.  Le  groupe  est  un  échange  de  savoirs,  de  savoirs‐faires  et  d'actions  dans  le  domaine  de pérennisation.  Plus  de  40  personnes  issues  des  grands  comptes  cités  plus  haut  y participent. Les compétences sont également très diverses.   Gouvernance et fonctionnement   Le  groupe  publie  un  site  Web  1  (http://pin.cines.fr)  sur  lequel  les  comptes  rendus  de réunion  et  les  présentations  des  intervenants,  classées  par  thème,  sont  disponibles.  Il dispose  également  d’un  forum  de  messageries  par  internet  et  se  réunit  une  fois  par trimestre en réunion plénière ; cette réunion, à laquelle les participants doivent s’inscrire à l’avance, se tient au siège social du Centre National d’Etudes Spatiales à Paris au Forum des Halles.  Veille  informative,  annonce  de  conférences  ou  de  parution  de  livres  ouvrent  la réunion. Des présentations  faites par  les acteurs du domaine ou des  retours d’expérience rythment  la  journée.  Les  pauses,  très  attendues,  sont  l’occasion  d’échanges  verbaux  et  le déjeuner pris en commun poursuit les conversations professionnelles.   L’animation du groupe est collégiale mais la personnalité des animateurs marque le groupe   Le départ à la retraite du principal animateur fut l’occasion de réflexions intenses sur le rôle et  la  disponibilité  de  son  successeur.  Il  en  eu  deux,  un  Olivier  Rouchon,  du  centre informatique de  l’enseignement supérieur (CINES à Montpellier)  traitant de  l’organisation intellectuelle,  l’autre,    Dominique  Heulet  (CNES  à  Toulouse),  plus  spécialisé  dans l’organisation matérielle.  L'objectif du groupe PIN est de contribuer à  l'émergence de solutions pratiques et  fiables pour la pérennisation des informations. Son programme d’actions comporte outre la veille informative  et  les  retours  d’expériences,  la  création  d’une  culture  PIN,  la  publication  de manuels  pratiques  (Dhérent,  2002 ;  Poivre,  2004 ;  Banat‐Berger,  2009),  l’animation  de session  de  formation  et  l’organisation  de  formation  dont  une  formation  universitaire  de niveau BAC + 5.  Les thématiques abordées sont : 

o L’évaluation de format de données o Les normes (OAIS, MoReq2, ISADG, PSE) o La politique d’archivage o Les formats d’archivage et de restitution/ support de stockage pour pérenniser

l’information (incluant les évolutions de la Z42013) o Les métadonnées. o Le Plan de classement o La Cinématique du versement avec intégration de métadonnées

Page 46: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

46

 Chaque participant a conscience du caractère stratégique de la pérennisation, pérennisation qu’il  tentera  de  mettre  en  place  dans  son  institution.  Lieu  non‐marchand  et  non concurrentiel, lieu d’échanges des savoirs et des expériences, le groupe PIN rappelle parfois l’ambiance des débuts d’Internet. Enfin c’est un lieu d’action où on cherche des solutions. Cette  expérience  n'a  pas  de  précédent  en  France.  Mais  elle  a  une  fille  :  la  Commission Archives Electroniques de l'Association des archivistes français.  IV ­ Création de la Commission Archives Electroniques de l’AAF   En 2004, les archivistes d’entreprise de l’Association des Archivistes français dont certains faisaient  déjà  partie  du  groupe  PIN  constatent  que  dans  bon  nombre  d’entreprises françaises,  l’archiviste  demeure  isolé  et  est  peu présent dans  la  conception des  systèmes d'archivage  électronique.  Comment  faire  connaître  les  compétences  d'un  archiviste, valoriser la fonction ? Comment en faire un véritable chef de projet reconnu, un acteur de nouvelle  génération,  un  fédérateur  qui  communique  avec  les  autres  archivistes,  les informaticiens,  les  équipes de management,  les prestataires  et  les  autres professionnels ? Comment acquérir une culture commune et comment la diffuser ? L’archiviste de la CAE doit devenir un véritable ambassadeur, faire du « lobbying ». C’est dans cette logique que la commission, qui compte 14 membres, a mis en place un plan d’action qui se présente de la manière suivante :  ‐ Elaborer et diffuser sur le site internet de l’AAF des fiches‐conseils et fiches de synthèses sur l’archivage électronique. ‐ Etre  l’ambassadeur des  archivistes  (Faire du  lobbying)  auprès des différents  acteurs du monde  de  l’archivage  (décideurs,  prestataires,  acteurs  du  monde  économique  et  de l’entreprise). ‐ Véhiculer une nouvelle image de l'AAF et des archivistes.  Gouvernance et fonctionnement   Deux animatrices Frédérique Fleisch (Haute Autorité de Santé HAS) et Anita Frieh (Cabinet Shearman et Sterling) veillent au bon fonctionnement du groupe, Frédérique s’occupant de l’organisation  intellectuelle  et  des  relations  avec  l’AAF, Anita  s’occupant de  l’organisation matérielle des réunions, de la rédaction des comptes rendus et de la mise à jour des fiches. Frédérique Fleisch est aussi membre du Conseil d’Administration de l’AAF.  A l’origine en 2004, les membres étaient tous issus de la section « Archives d’Entreprises » de  l’AAF.  Il  comportait  un  salarié d’EDF GDF,  un du Bureau de Recherche Géologiques  et minières, quatre agents des agences de  sécurité  sanitaire,  l’informaticien d’un prestataire en  archivage  qui  se  lançait  dans  l’archivage  électronique,  deux  archivistes  de  cabinet d’avocat. En sept ans, des personnes ont changé d’activité mais  la participation au groupe de  travail  a  été  transmise  avec  le  poste.  A  l’heure  actuelle,  des  archivistes  issues  des Archives  Nationales  se  sont  jointes  au  groupe.  Le  groupe  se  réunit  une  fois  par mois  et dispose d’un espace sur le site web de l’AAF, accessible via un mot de passe. Les échanges préparatoires ont lieu essentiellement par courriel, chacun des membres étant  spécialiste d’un domaine ou pouvant faire appel à son propre réseau professionnel. 

Page 47: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

47

Les publications de la commission – 8 fiches conseil   ‐ «Archiver une base de données » en cours d’élaboration ‐ « Les règles de nommage des fichiers » 2011 ‐« Comment établir un plan de classement » 2011 ‐« Les facteurs de coûts pour la mise en place d’un système d’archivage électronique » ‐ « Conseils pour rédiger le cahier des charges du SAE » (décembre 2008) ; ‐ « L’archivage des e‐mails ». (janvier 2008) ; ‐ « Qu’est‐ce que l’archivage électronique ? » (juin 2007, mise à jour en novembre 2009) ; ‐ « Le rôle du tiers archiveur ». (2005, mise à jour en mai 2006) ; ‐ « Le rôle des différents acteurs d’un projet d’archivage électronique ». (novembre 2005).  Communications   A  l’attention du monde de  l’entreprise : Organisation de petits déjeuners  sur  le  thème de l’archivage numérique, signature d’une convention avec des représentants des prestataires et fournisseurs l’APROGED, tenue de stand lors de salons professionnels,   A l’attention du monde « savant »  Présentation de la démarche  de la Commission  lors de la 8ème Conférence européenne sur l'archivage digital (ECA), Genève, avril 2010. L'intervention de la CAE était centrée autour des « Techniques Marketing appliquées à l’archivage électronique ».  Formations   Le groupe a élaboré des préconisations à  l’attention du centre  de  formation de  l’AAF afin que la formation en archivage électronique puisse comprendre un premier niveau culturel et  un  deuxième  niveau  pratique  sur  la  mise  en  place  d’une  plate‐forme  d’archivage électronique.  Il est périodiquement sollicité par  le service de formation du ministère de  la culture pour intervenir  dans  le  domaine  des  archive  électroniques  ou  apporter  des  retours d’expériences.  V­ Comparaison   Dans un monde neuf où l’on a peu de retours d’expérience, où la transdisciplinarité devient un  facteur  incontournable,  ces  deux  structures  ont  abordé  le  problème  par  le  biais  de  la technique, de l’organisation de l’information et de la mise en place de structures simples ; elles  ont  produit,    chacune  à  son  échelle,  des  normes  ou  des  fiches  conseil  et  tenté  de produire et diffuser une culture transversale.    Le facteur humain serait­il la clé de la réussite ? PIN  ce sont surtout des hommes issus de l'aéronautique  CAE ce sont surtout des femmes issues du monde de l'archive 

Page 48: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

48

 TABLEAU COMPARATIF 

  PIN  CAE  

Structure S’appuie sur une autre grande association 

ARISTOTE  issue des grandes écoles d’ingénieurs 

AAF fondée en 1904

Nombre de participants  40  14 Sous groupes de travail  oui  Groupes cooptés issus de 

l’AAF Mode de fonctionnement 

Fréquence des réunions   1 fois par trimestre 1 fois par moisTravaux connexes  Sous‐groupe de travail  Travaux personnels 

réalisés par les participants 

L’échelle n’est pas la même Mode de gouvernance 

Animateur  Animation collégiale avec référent « charismatique » Type de réunion  Restitution des travaux des sous‐groupes 

ou audition d’un expert dans le domaine Et/ou retour d’expérience Et/ou veille 

Finalisation d’une fiche technique préparée par un des participants, expert du domaine ou simplement motivé 

Domaines d’intervention  Technique et pédagogique 

Pratique et depuis peu pédagogique  

Lieu de réunion  Au siège du Centre National d’Etudes Spatiales à Paris aux Halles 

Chez des avocats d’Affaires Shearing et Sterling  sur les Champs Elysées 

Objectifs   Emergence de solutions pratiques et fiables pour la pérennisation des informations numériques 

Reconnaissance du rôle primordial de l’archiviste dans l’édification de ces solutions 

Publications  Manuels pratiques  Fiches techniques Enseignements dispensés  Interventions ponctuelles dans le cadre de la formation permanente Conception d’une formation   5 jours intensifs sur la culture 

informatique et la mise en place d’un SAE Préconisations pour le centre de formation de l’AAF 

  Etude et mise en place d’un master II Immatériel   Création d’une culture « PIN »Forces  La notoriété est là avec une antériorité certaine pour le groupe PINFaiblesses  Bénévolat des participants 

Depuis 2010 les interactions avec d’autres réseaux sont de plus en plus nombreuses, les demandes d’intervention dans le domaine de l’enseignement augmentent 

Avenir  Remaniement de l’enseignement  Remise en question du mode d’organisation 

    Travail thématique Un binôme = un thème 

Echanges formalisés entre les deux groupes de travail 

Page 49: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

49

VI ­  Résultats   Nous  avons  constaté  que  les  deux  groupes  ne  fonctionnaient  pas  dans  les  mêmes dimensions mais que de nombreux points communs surgissaient :  ‐ un mode d'organisation rigoureux centré sur un animateur de tête de réseau énergique,  ‐ un partage des tâches   ‐  un  but  clairement  identifié  :  l'émergence  de  solutions  pratiques  et  fiables  pour  la pérennisation  des  informations  dans  un  cas,  la  reconnaissance  du  rôle  primordial  de l'archiviste dans l'édification de ces solutions, dans le second cas.  ‐ des échanges d’information, de savoir‐faire et de savoir‐être basés sur la réciprocité dans un cadre non marchand et non concurrentiel. ‐ des participants motivés appartenant également à d’autres réseaux ; ils bénéficient ainsi, outre une augmentation de  leur savoir ou de  leur savoir‐faire, d'un réseau relationnel qui enrichit leur capital.  Enfin,  les  réunions  périodiques,  exigeant  un  déplacement  physique  des  participants,  se tiennent dans des lieux prestigieux.  Ces points communs seraient‐ils  les conditions nécessaires et suffisantes pour amener un groupe de travail, tête informelle de réseaux professionnels à bien fonctionner et à produire des résultats satisfaisants ?   Vers une convergence ?  Récemment, de nouvelles sollicitations ont amené chaque groupe de  travail à se remettre en question, à se reconnaître mutuellement et renforcer leur coopération.  Conclusion  Face à l’évolution des normes et standards, la volonté de réduire les coûts, l’augmentation de  la  dématérialisation des processus  et  des  échanges,  la  judiciarisation de  la  société,  les attentes  gouvernementales  et  les  demandes  de  prestataires,  les  deux  groupes  de  travail, victimes de leurs succès réfléchissent à d’autres modes d’organisation. Les liens entre eux s’officialisent de même que les liens avec d’autres institutions comme le service Formation de  la Direction des Archives  de  France.  La  force  de  ces  groupes de  travail  qui  tenait  à  la motivation  des  participants,  à  la  réflexivité  de  l’organisation  en  réseau  et  à  l’absence presque  totale  d’expériences  de  terrain  dans  leur  domaine  d’étude  va‐t‐elle  perdurer ? Saura‐t‐elle  s’adapter  à  la  retombée  de  l’ » effet  de  mode » ?  Les  enseignements  tirés  de cette  expérience  sauront‐ils  rendre  ces  groupes  de  travail  aussi  pérennes  que  l’objet  de leurs études ?   Bibliographie     Actes de colloque   Fleisch F, Frieh A, « les techniques marketing appliquées à l’archivage électronique », Actes de la 8ème conférence européenne sur l’archivage digital 26‐30 avril 2010, Genève, http://www.bar.admin.ch/dokumentation/0045/00527/index.html?lang=fr 

Page 50: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

50

 Francophonies et bibliothèques : innovations, changements et réseautage. Actes du premier congrès de l’Association internationale francophone des bibliothécaires et documentalistes, Montréal, 3‐6 août 2008  Sous la direction de Dominique Gazo et Réjean Savard, Montréal, AIFBD, 2009, 536.  Le numérique : impact du cycle de vie sur le document, Montréal, Québec, 13 au 15 octobre 2004.  Monographies  Gerstlé J. Les effets d’information en politique. PARIS : L’Harmattan, 2001.  Huc C. Préserver son patrimoine numérique. Classer et archiver ses e­mails, photos, vidéos et documents administratifs. Guide à l’usage des particuliers et des entrepreneurs individuels. Paris : Eyrolles, 2011.   Musso P. (sous la direction de) Réseaux et Société. Paris : Presses Universitaires de France, 2003.  Articles de périodiques   Bourdieu P. « Le capital social. Notes provisoires » Actes de la recherche en sciences sociales.31, 2­3, 198l.  Grannovetter Mark S.”The strength of weak ties” American Journal of Sociology, 78,6, 1973.  Huc C., Banat‐Berger F., Chabin M.‐A. et al « Le Groupe PIN : lieu d'échange, lieu de réflexion, lieu d'action ».Document numérique, vol. 9, p 127‐134, 2004/2.  Mahé, A. » Pérenniser le document numérique » Bulletin des Bibliothèques de France, 2, 2007.  Poinsot T. »: Du collaboratif au social : l'avènement de la conversation » Documentaliste­Sciences de l’Information, 47, 2010.  Sites Internet  http://bbf.enssib.fr/ consulté le 05 mai  2011 http://www.archiviste.org http://www.archivistes.org/L‐AAF‐a‐la‐8e‐conference http://www.ccsds.org http://pin.association‐aristote.fr  

Page 51: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

51

Annexe 1 : L’Association des Archivistes Français    L’Association  des  Archivistes  Français  (AAF)  regroupe  plus  de  1300  adhérents, 

professionnels des archives du secteur public comme du secteur privé. 

 

Consciente  du  défi  que  représente,  dans  le  monde  contemporain,  la  maîtrise  de  la 

production documentaire et de l’information qu’elle renferme, l’Association des Archivistes 

Français se définit comme un organe permanent de réflexion, de formation et d’initiative au 

service des sources de notre mémoire, celles d’hier comme celle de demain. 

 

Ses principaux objectifs sont :  

‐ La promotion de la profession. 

‐ L’édition de publications sur les archives, pour un large public. 

‐ L’organisation de nombreux colloques et journées d’études. 

‐ La formation continue des professionnels des archives. 

 

         

  

Page 52: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

52

Crédibilité de l’information sur Internet : de l’autorité à la fiabilité 

Adel Labidi14, Bibliothécaire de référence de la Bibliothèque Champlain de l’université de Moncton 

_________________________________________________________________________________________________________  Résumé  : Avec  l’avènement  d’Internet  et  le  développement  de  la  technologie  numérique qui  a  créé  le Web  2.0,  l’usager  du  21ème  siècle  est  devenu  de  plus  en  plus  autonome  et indépendant  aussi  bien  dans  la  recherche  et  la  récupération  de  l’information  que  dans l’évaluation  des  résultats.    Toutefois,  l’implication  de  l’usager  dans  tout  le  processus informationnel  a  incité  pleinement  le  débat  autour  de  la  crédibilité  de  l’information retrouvée. Comment les outils utilisés sur la toile ont affecté la crédibilité de l’information? Est‐ce  que  l’usager  est  capable  lui‐même  de  déterminer  cette  crédibilité  ?  Est‐ce  que  les médiateurs de l’information sont conscients de ce changement? La présente communication essaiera de répondre à ces questions tout en analysant les exigences de l’usager 2.0 et leurs impacts sur le rôle des bibliothèques et des bibliothécaires.  Mots­clés : Internet, Web 2.0, crédibilité de l’information, technologie numérique       

                                                        14  Adel  Labidi  a  obtenu  une maîtrise  en  gestion  des  bibliothèques  universitaires  de  l'Institut  Supérieur  de Documentation  de  l’Université  de  la  Manouba  en  Tunisie  en  2000  ainsi  qu’une  maîtrise  en  sciences  de l'information  et  de  la  communication  et  médiation  des  connaissances  de  l’Université  Aix‐Marseille  III  en France en 2002. Il a commencé sa carrière en bibliothéconomie en 2000 en Tunisie. En arrivant au Canada en 2007, il a eu l'occasion de travailler dans les centres de documentation du Québec comme celui du CRDI‐CA et a également enseigné au collège François‐Xavier Garneau. Il a été embauché par la Bibliothèque Champlain en janvier 2010.  

Page 53: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

53

L’évaluation de la crédibilité des ressources en ligne 

Pierre Goguen15,  Bibliothécaire de référence de la Bibliothèque Champlain de l’université de Moncton 

_________________________________________________________________________________________________________  Résumé : Étant donné que les méthodes traditionnelles de détermination de la crédibilité ont été perturbées par  l’avènement de  l’Internet et, plus précisément, par  le Web 2.0,  les professeurs et les bibliothécaires doivent faire face à cette réalité.  Finis sont les jours où les étudiants se fiaient uniquement à ces autorités dans l’évaluation des sources d’informations crédibles.  Déjà,  des  recherches  ont  démontré  que  les  étudiants  partagent  non  seulement  des définitions différentes sur le concept de la crédibilité, mais ils viennent aussi à déterminer la crédibilité en utilisant une combinaison de plusieurs critères, certains parmi eux agissant même  de  façon  inconsciente.  Le  contenu  de  l’information,  ainsi  que  le  contenant,  et plusieurs autres facteurs influencent l’opinion de l’étudiant. Former les étudiants à prendre conscience de  ce  phénomène,  en plus  de  les  guider  sur  la  détermination de  la  crédibilité devient  ainsi  un  des  défis,  non  seulement  des  universités, mais  aussi  des  écoles,  dans  la formation des étudiants.  Mots­clés : Internet, Web 2.0, crédibilité de l’information, technologie numérique      

 

                                                        15  Pierre  Goguen  a  obtenu  une  maîtrise  en  science  de  l’information  de  McGill  University  en  2009.  Il  a commencé  sa  carrière  en  bibliothéconomie  en  2009  à  la  Bibliothèque  publique  de  Moncton  et  est  à l’Université de Moncton depuis décembre 2009, où il occupe le poste de bibliothécaire à la référence.   

Page 54: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

54

Comment faire de l’information en santé une préoccupation commune entre la gestion documentaire et la science infirmière ? 

 Florence Ott16, Professeure en gestion de l’information, UMCS 

Charlotte L’Heureux­Lemieux17, Professeure en science infirmière, UMCS site Bathurst  

                                                        16  Florence  Ott,  originaire  d’Alsace  en  France,  a  dirigé  à  partir  de  1985,  durant  une  vingtaine  d’années,  le Centre Rhénan d’Archives et de Recherches Économiques de Mulhouse, centre pilote dans la sauvegarde et la valorisation du patrimoine économique alsacien. En 2002, pour son action en faveur du patrimoine industriel, la Société d'Encouragement pour l'Industrie Nationale de Paris lui a décerné le Montgolfier du Commerce, du Tourisme  et  de  l'Outre‐Mer.  Après  avoir  obtenu  une  licence  et  un  diplôme  supérieur  spécialisé  en archivistique de l’Université de Haute‐Alsace ainsi qu’une maîtrise en muséologie, elle a terminé son doctorat en histoire et civilisation à l’École des Hautes Études en Sciences Sociales de Paris en 1999. Conjointement à la direction du centre d’archives, elle a été maître de conférence en archivistique privée à l’université de Haute‐Alsace à Mulhouse de 1996 à 2006, date de son départ pour le Canada où elle enseigne à présent en tant que professeure  en    gestion  de  l’information  à  l’université  de  Moncton,  campus  de  Shippagan  au  Nouveau‐Brunswick. Ses recherches ont porté sur les archives privées et l’histoire économique et sociale alsacienne qui ont  donné  lieu  à  de nombreux  articles.  Elle  a  publié  deux ouvrages  sur  le  patronat mulhousien  réformé  et obtenu, en 2000, le grand prix de la Décapole de l'Académie d'Alsace pour le meilleur livre d’histoire d’Alsace sur La Société industrielle de Mulhouse : ses membres, son action, ses réseaux (1826‐1870). En 2004, elle a publié  un  second  livre  sur  la  Société  industrielle  et  les  conséquences  de  l’annexion  allemande  à Mulhouse. Depuis son arrivée à  l’université de Moncton,  ses études portent sur  l’interdisciplinarité et  l’information en santé,  la  gestion  documentaire  ainsi  que  sur  le  patrimoine  religieux  institutionnel  de  l’Acadie  et  sur l’enseignement francophone. Elle est également co‐fondatrice en 2008 avec le professeur Nicolas Landry du Groupe de recherche en patrimoine religieux acadien (GRPRA) de l’UMCS. 17 Charlotte L’Heureux‐Lemieux est originaire de  la ville de Québec. Après avoir  fait un cours d’infirmière à Campbellton, Nouveau‐Brunswick, elle exerce sa profession dans un hôpital de  soins de courte durée entre 1974 et 1979. Par la suite, elle complète un baccalauréat en science infirmière à l’Université de Moncton et y travaille à titre de chargée de cours jusqu’en 1983. De retour au Québec, elle occupe des postes d’infirmière dans différents champs et milieux cliniques. En 1992, elle termine ses études de maîtrise en science infirmière à  l’Université  de  Montréal.  Comme  praticienne,  elle  démarre,  avec  un  groupe  de  médecins  et  de professionnels, une clinique externe de gériatrie et enseigne à temps partiel pour cette même université. En 1997,  elle  obtient  un  poste  de  professeure  en  science  infirmière  à  l’Université  de Moncton  au  Campus  de Shippagan, site de Bathurst et développe des projets en santé  internationale en Afrique et en Haïti pour  les étudiants  et  étudiantes.  Sa  rentrée  au  Québec  en  2000  lui  permet  d’occuper  différents  postes  de  cadres supérieurs, dont celui de commissaire aux plaintes et à la qualité des services dans un centre de santé et de services  sociaux  de Montréal.  Tout  en  travaillant  à  temps  plein,  elle  décroche  un  diplôme  de  « Médiation : civile, commerciale et travail » au Barreau des avocats du Québec. En 2001, elle parfait ses connaissances sur la prise de décision partagée  (share decision making) à  l’Université d’Oxford en Angleterre et en 2002, elle obtient  un Master  en  qualité,  de  la  Faculté  de Médecine  de  l’Université  de Montréal  en  collaboration  avec l’Université de Technologie de Compiègne et  l’École Nationale de Santé publique de Rennes en France. Elle joue aussi le rôle de visiteur pour Agrément Canada, un organisme d’accréditation. Ces formations alimentent son rôle de commissaire pour  la défense des droits des usagers dans  le  réseau de  la  santé. De nombreuses communications ont été présentées au Québec, en Europe et ont donné lieu à des articles dans des revues de santé. Lors du séisme en Haïti en 2010, elle agit à titre de conseillère avec des professionnels en santé sur le « Plan  d’action  au  comité  d’hébergement du  bas Artibonite­Séisme  2010 ». En  juillet  de  la même  année,  elle réintègre son rôle de professeure à l’École Réseau de science infirmière à l’Université de Moncton, Campus de Shippagan au site de Bathurst.   

Page 55: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

55

  Résumé :  A  travers  l’exemple  du  dossier  médical  électronique  et  du  dossier  de  santé électronique  au  Canada,  deux  professeurs  ont  étudiés  les  défis  qui  les  attendent,  pour intégrer  une  préoccupation  commune,  entre  la  gestion  documentaire  et  la  science infirmière dans leurs formations universitaires en matière d’information en santé, et mieux sensibiliser  les  praticiens  en  santé  à  utiliser  les  expertises  des  professionnels  de l’information et surtout à instaurer un dialogue entre les différentes disciplines qui souvent s’ignorent.  Mots­clés :  Interprofessionnel,  dossiers  médicaux  électroniques,  dossiers  de  santé électroniques, gestion documentaire, science infirmière, éthique de la santé    Introduction   La gestion de l’information en santé regroupe tous les défis liés à la production et à la tenue de dossiers médicaux fiables, complets et  facilement accessibles aux personnes autorisées ainsi que l’imposante masse de renseignements à conserver sur une longue durée. L’apport des  technologies  de  l’information  et  des  communications  entraîne  des  changements  de supports  avec  la  dématérialisation  des  documents  notamment  dans  la mise  en  place  des dossiers  médicaux  électroniques  (DME)  et  des  dossiers  de  santé  électroniques  (DSE). Ajoutons  à  cela  l’obligation  de  protection  des  données  personnelles  et  de  réponse  aux exigences  règlementaires,  notamment  pour  l’obtention  d’agréments,  le  besoin d’exploitation de statistiques médicales et de recherche.   Dans ce contexte de mouvance, deux professeures se sont interrogées sur les collaborations possibles entre leurs disciplines, soit la gestion documentaire et la science infirmière pour apporter  des  éléments  de  réflexion  et  mieux  préparer  les  étudiants  à  leurs  futures professions.  La  mise  en  commun  de  compétences  supposait  l’obligation  d’élaborer  des stratégies  et  des  règles  et  surtout  de  développer  une  préoccupation  commune  pour  une meilleure gestion et utilisation de l’information.  En étudiant les impacts de l’implantation du DME auprès des professionnels de santé et des patients  à  l’aide  d’un  sondage  pour  confronter  leurs  points  de  vue,  ainsi  que  d’un partenariat  entre  les  professeures  pour  proposer  une  étude  de  cas  aux  étudiants,  un dialogue renouvelé a révélé l’importance de l’information comme préoccupation commune. Dans notre  exposé, nous allons nous  interroger plus particulièrement,  sur  les  impacts du DME et du DSE au Canada, poser les défis qui nous attendent, intégrer cette préoccupation dans nos formations universitaires et mieux sensibiliser les praticiens en santé à utiliser les expertises des professionnels de l’information.      

Page 56: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

56

 Contexte du monde de la santé  La  Loi  canadienne  sur  la  santé  est  l’instrument  législatif  fédéral  qui  régit  le  régime d’assurance  de  santé  publique18.  L’objectif  premier  est  «  de  protéger,  de  favoriser  et d’améliorer  le  bien‐être  physique  et  mental  des  Canadiens  et  de  faciliter  un  accès satisfaisant aux services de santé ».     Le  système  de  santé  canadien  est  fondé  sur  l'universalité  des  services  médicalement nécessaires.  Ces  services  sont  gérés  et  dispensés  par  les  gouvernements  provinciaux  et territoriaux  et  sont  fournis  gratuitement.  Au  cours  des  dernières  années,  le  système  de santé a été soumis à des tensions en raison de nombreux facteurs, tels que le vieillissement de  la  population,  la  transformation  des  processus  cliniques,  les  coûts  élevés  de  la technologie,  l’implantation  du  DME,  du  DSE  et  la  protection  accrue  des  renseignements personnels qui l’exige et l’interopérabilité qui en découle.   Le DME a été  lancé par une société  indépendante appelée,  Inforoute Santé du Canada19, à but non  lucratif  et a été  créé pour  favoriser et accélérer  le déploiement et  l’utilisation de systèmes  électroniques  d’information.  Inforoute,  s’est  engagée  à  fournir  aux  résidents  du Canada  et  à  leurs  prestataires  de  soins,  un  accès  adéquat  et  sécurisé  se  rapportant  à  la bonne information, au bon moment et au bon endroit, correspondant à la porte d’entrée de l’usager, dans le réseau de la santé. Le mandat d’Inforoute Santé du Canada en rapport avec la confidentialité est d’intégrer  la protection des données de  santé et des renseignements personnels dans ses activités suivant les lois et les principes appliqués au Canada.  

 Les provinces et  les territoires ont  la responsabilité, sur  leur territoire respectif,  de  la  prestation  des  soins  de  santé,  de  la  législation  sur  la protection des  renseignements personnels  et des  solutions de dossiers de santé électronique (DSE). À ce jour, les administrations publiques en sont à divers stades dans l’élaboration et la mise en application des lois et des politiques sur  les systèmes d’informations qui régiront  le réseau des dossiers de santé électronique de leur territoire.20 

 Des investissements totalisant 4 milliards de dollars ont été attribués au réseau de soins de santé  visant  la  mise  en  place  de  l’Inforoute  incluant  des  normes  de  confidentialité,  de sécurité  et  d’interopérabilité.  À  ce  jour,  les  investissements  d’Inforoute  ont  permis  de mettre  en  place,  les  DSE  donnant  aux  cliniciens  un  accès  aux  antécédents médicaux,  aux 

                                                        18 Santé Canada. La mise en œuvre des dossiers médicaux électroniques dans les établissements de soins de santé primaires. Trousse des dossiers médicaux électroniques. 2006.  http://www.troussedme.ca/view_section.php?section=90, consulté le 20 septembre 2008. 19  I  Infoway‐Inforoute.Ca  et  Inforoute  Santé  du  Canada.  Interoperable  electronic  health  record  solutions (EHRS) ‐ A giant step forward for healthcare delivery in Canada, april 2006.  https://www2.infoway‐inforoute.ca/Documents/EHRS‐Blueprint‐v2‐Exec‐Overview.pdf.,  consulté  le 29  avril 2011. 20  Infoway‐Inforoute.Ca.  Mandat  d’Inforoute  sur  la  protection  de  la  confidentialité,  https://www.infoway‐inforoute.ca/privacy‐mandate, consulté le 22 mars 2011. 

Page 57: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

57

images diagnostiques radiologiques, aux résultats de laboratoire, au profil pharmaceutique, aux  antécédents  vaccinaux,  et  autres  rapports  cliniques,  en  tout  temps  et  en  tout  lieu. Inforoute s’est aussi donnée comme mandat de mettre sur pied une unité de collaboration de normalisation pancanadienne pour la mise en forme efficace du réseau.   En 2010, 49 % de  l’objectif ciblé était atteint. C’est donc dire qu’il en reste encore 51 % à atteindre21. Les cinq prochaines années seront déterminantes pour le déploiement des DSE et des DME. Selon Santé Canada, cette transformation profitera aux Canadiens en termes de soins de santé plus efficaces, plus sûrs et de plus grande qualité.   De son côté, l’Association médicale canadienne a publié une étude pancanadienne sur l’état d’avancement des projets réalisés dans 20 cliniques de divers milieux. Selon cette étude, les données probantes ont révélé des avantages pour les patients, les médecins et le système de santé.  Les  améliorations  sont  d’ordre  des  processus  et  des  soins  continus,  d’efficience de gestion  des  maladies  chroniques,  de  satisfaction  et  de  rétention  du  personnel,  de bonification  des  communications,  d’éducation,  d’habilitation  et  d’autonomisation22  des patients au niveau de la prise en charge, de la sécurité dans les traitements, etc. 

Pour les médecins, les opérateurs hospitaliers et l’ensemble du personnel médical, le DME donne  l’opportunité  de  structurer,  d’automatiser  et  de  rationaliser  le  déroulement  du travail.  Il  fournit  un  dossier  complet  rassemblant  toutes  les  informations  suite  à  des consultations médicales  ou  des  activités  liées  à  la  santé.  Les  défis  principaux  demeurent l’interopérabilité  interne  et  externe  entre  les  fournisseurs,  la  non‐intégration  des  outils d’aide à la décision, un accès plus important et plus rapide aux bases de données existantes et  la  difficulté  pour  les  patients  d’accéder  à  un  portail  en  ligne,  axé  sur  leurs  besoins  de santé.  

Quant à l’Union des consommateurs23, elle relève dans son rapport sur le DSE et le contrôle des  données  personnelles  de  santé  dans  un  contexte  d’informatisation  des  dossiers médicaux  que  les  Canadiens  sont  préoccupés  par  l’intégrité  de  leurs  renseignements personnels, en particulier ceux touchant leur santé. D’après ce rapport, 88 % approuvent le DSE.  Le  principal  motif  de  désapprobation  concerne  la  sécurité  des  données :  45 %  des personnes  interrogées  craignent  que  quelqu’un  de  mal  intentionné  utilise  leurs renseignements à mauvais escient, 42 % redoutent que ceux‐ci servent à d’autres fins que 

                                                        21  Infoway‐Inforoute.Ca.  Guide  de  l’Unité  collaborative  de  normalisation.  Créer  des  solutions,  améliorer  les résultats  en  santé…tous  ensemble,  2007.  https://www.infoway‐inforoute.ca/working‐with‐ehr/solution‐providers, consulté le 11 mai 2011. 22  Profession  Santé.  Qu’arriverait­il  si…  le  système  de  santé  était  complètement  informatisé  ?2011. http://www.professionsante.ca/gestionnairesdesante/interprofessions/quarriverait‐il‐si/quarriverait‐il‐si‐le‐systeme‐de‐sante‐etait‐completement‐informatise‐2‐9383/6, consulté le 11 mai 2011.  23 Union des consommateurs. Le dossier de  santé électronique :  le contrôle des données personnelles de  santé dans un contexte d’informatisation des dossiers médicaux. Rapport final du projet présenté au Commissariat à la vie privée du Canada. 2010. http://www.consommateur. qc.ca/union‐des‐consommateurs/docu/vieprivee/100331UC_CVPC_DSE.pdf, consulté le 10 mai 2011.  

Page 58: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

58

celle d’assurer leur santé et 37 % d’entre elles, s’inquiètent du risque d’atteinte en matière de protection et de sécurité des renseignements.   En conclusion, les Canadiens sont en faveur de l’informatisation de leurs renseignements de santé, mais à condition d’être rassurés quant à leur sécurité et leur confidentialité. Un des répondants mentionnait : « Si  vous êtes  capable de protéger ma  vie privée,  je  suis  à  l’aise avec le DSE ou le DME ».   Le DSE fait circuler les informations rapidement et en grand volume vers un grand nombre d’utilisateurs  finaux.  Il  est  l’outil  privilégié  des  décideurs.  Il  est  aussi  innovateur,  car  il permet aux professionnels de la santé d’accéder à l’information essentielle sur la santé des patients  à  l’endroit  où  il  se  trouve,  sans  avoir  à  consulter  les  dossiers  papier.  Ses caractéristiques  doivent  être  bien  comprises,  car  elles  influent  énormément  sur  le traitement de  l’information. Avant  tout  il  s’agit de données dématérialisées portant sur  le patient et qui peuvent être des enregistrements sonores, des vidéos, des  images, du  texte disponible électroniquement. Elles revêtent un caractère  longitudinal qui suppose que  les informations sur le patient soient recueillies et stockées dans le temps et englobent tout le continuum de  la prestation des services de santé. Enfin, elles doivent être accessibles aux professionnels de la santé autorisés pour appuyer la prestation de soins et consultables par le patient pour la partie qui le concerne24. Afin de répondre à ces points, il est indispensable de mettre en place une politique concertée de la gestion et de la conservation du DSE ainsi que d’assurer la protection de l’information en veillant de plus à garantir l’interopérabilité du système.  Il  en  va  de  même  pour  le  DME  qui  est  l’équivalent  du  contenu  du  dossier  médical  sur support papier.  Il  résume une relation entre un patient et un professionnel de  la santé et contient  les  diagnostics,  les notes  des  professionnels  et  appartient  à  un  établissement  de santé ou à une clinique médicale. Par contre,  le DSE, englobe  les  informations de  tous  les professionnels  de  la  santé  et  fait  circuler  un  grand  volume  d’informations  rapides  à  un grand nombre d’utilisateurs. L’enjeu réside dans le fait de passer d’un modèle de protection des renseignements personnels basé sur la divulgation volontaire des patients (DME) à un modèle dont la principale préoccupation est la circulation de l’information (DSE). Comment harmoniser ces deux  logiques en préservant  la protection des renseignements personnels des patients ?   

Problématique 

Comment  le  monde  de  la  santé  gère‐t‐il  le  développement  et  le  changement  relié  aux technologies de l’information, à la profusion de nouvelles connaissances informationnelles, à  l’augmentation  des  règlementations  et  des  nouvelles  pratiques  d’éthique 

                                                        24  Santé  Canada,  Bureau  de  la  santé  et  l'inforoute.  Vers  les  dossiers  de  santé  électroniques.  2001. http://www.hc‐sc.gc.ca/hcs‐sss/pubs/ehealth‐esante/2001‐towards‐vers‐ehr‐dse/index_f.html, consulté  le 9 mai 2011.  

Page 59: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

59

interdisciplinaire  ?  Peut‐on  apporter  des  réponses  aux  gestionnaires  de  l’information qui ont  du  mal  à  cerner  les  besoins  découlant  de  l’inflation  documentaire,  de  l’absence d’organisation,  de  coordination  et  de  normalisation  dans  la  gestion  des  dossiers  ?  Est‐il possible  de  mieux  former  les  étudiants  pour  qu’ils  développent  un  esprit  critique,  une capacité  d’évaluation  et  d’analyse  face  aux  problèmes  et  aux  exigences  de  leur  métier  ? Pourquoi est‐ce important de sensibiliser et de former les futurs professionnels en science infirmière  à  mieux  comprendre  les  besoins  et  les  obligations  en  matière  de  pratiques informationnelles  actuelles  ?  Le DME  risque‐t‐il  de modifier  la  consignation des notes de l’infirmière  au  dossier  ?  Cette  sensibilisation,  leur  permettrait‐il  d’assurer  une meilleure qualité de services ? Aborder l’éthique en santé sous l’angle des pratiques informationnelles devenait  plus  significative  en  raison  des  formations  différentes  des  étudiants, mais  aussi complémentaires.  Aussi  pour  mieux  comprendre  cette  problématique,  allons‐nous présenter les résultats d’un sondage et d’une étude de cas.  

Analyse et résultats d’un sondage sur l’implantation du DME   Une étudiante en gestion de l’information a fait un travail de recherche25 sur le DME à partir d’Inforoute Santé du Canada et a regardé le dossier du point de vue de la confidentialité. Cet organisme  à  but  non  lucratif  et  investisseur  stratégique  veille  à  ce  que  la  fonction « confidentialité » soit incorporée dans la création et la mise en place des systèmes de DME. Une architecture conceptuelle a été développée sur les aspects de la confidentialité et de la sécurité.   Les avantages offerts par le DME sont multiples et concernent aussi bien la qualité des soins et  la sécurité des patients que  la diminution des coûts, une communication  facilitée entre les  prestataires  de  services  et  les  patients,  la  diffusion  rapide  des  données  et  le renforcement de la capacité d'analyse de ces dernières.   De ce fait, les renseignements sur le patient sont de meilleure qualité, des erreurs cliniques peuvent être évitées et le continuum des services de santé assuré. Il aide les prestataires de soins à  tenir des dossiers plus  complets  en  les obligeant  à  consigner des  renseignements précis, au fil du temps et entre les milieux de soins. L’accent est mis sur les renseignements essentiels  grâce  au  recours  à  des  rappels  automatisés.  L’information  est  structurée, normalisée, rendant plus efficace  l’analyse et  les communications entre  les prestataires et les organisations de services de santé. Le DME, limite les services superflus en raison de la non‐disponibilité des résultats d’examens et favorise un accès plus rapide aux résultats de laboratoires, de pathologie, de radiologie et de profil pharmaceutiques. En cas d’urgence, il est  donc  facile  de  retracer  le  profil  global  et  les  antécédents  du  patient  de manière  à  le traiter efficacement et sécuritairement. On peut extraire facilement des données médicales ou d’interventions et de statistiques sans travail supplémentaire  lors de  la saisie. De plus, les  renseignements  sont  exacts,  complets  et  accessibles  rapidement  et  en  temps  réel. Ces renseignements permettent de mieux connaitre la santé populationnelle et la mise en place 

                                                        25  Power,  M.  Dossier  médical  électronique.  Rapport  remis  dans  le  cadre  du  Cours  GEIN3050  d’éthique, politique sur l’information, Université de Moncton, campus de Shippagan, 2011. 

Page 60: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

60

de programmes correspondant aux besoins.26 Cela a l’avantage de fournir de l’information pour  appuyer  la  recherche  et  l’analyse  afin  d’améliorer  les  connaissances  de  la  pratique médicale  et  professionnelle.  Enfin,  cela  accentue  la  capacité  d'analyse  des  données  et  la démonstration  de  la  compétence  clinique  à  des  fins  de  revalidation,  d’homologation  et d’amélioration continue de  la qualité. Une  fois maîtrisé,  le DME devient un  facilitateur de pratique.   Il serait pourtant grave d’ignorer les inconvénients du DME qui sont parfois occultés par les promoteurs  du  projet.  La  perte  d’information  et  le  vol  de  données  sont  à  prendre  en compte27. Une mauvaise sauvegarde, un bris d’équipement, une dépendance  informatique ou  une  simple  incompatibilité  de  systèmes  ou  de  logiciels  sans  parler  du  transfert  des données  peuvent  conduire  à  des  problèmes  de  restitution  de  l’information  complète  ou valide. Il s’agit aussi de protéger adéquatement la sécurité de l’information et de veiller au remplacement périodique des supports informatiques qui sont d’une grande fragilité. Il est aussi plus facile de voler un grand nombre de dossiers médicaux sous format numérique à partir du moment où on peut s’introduire dans le système. Une seule clé USB peut conduire au  vol  de nombreux dossiers.  Il  faut  être prudent  lors des mises  à  jour dans  les dossiers médicaux et être certain d’avoir la bonne version du document. La traçabilité doit être prise en  compte,  car  il  peut  être  difficile  de  savoir  si  des  informations  ont  été  effacées  d’un dossier ou si l’historique des modifications est absent.   Le  dossier médical  électronique  crée  une  dépendance  aux  technologies  et  peut  entrainer des problèmes lors de panne de courant ou encore de serveur informatique. Enfin, le point le plus important est le problème de confidentialité et de protection des données. Comment protéger  les  données  personnelles  de  manière  efficace ?  Ainsi,  les  soumissionnaires  de projets  doivent  remplir  ces  conditions  pour  l’obtention  de  financement.  Le  mandat d’inforoute  consiste  à  intégrer  la  protection  des  données  personnelles  dans  ses  activités suivant les lois et les principes appliqués au Canada.   Le sondage mené auprès de 40 patients et de 10 professionnels de la santé avait pour but de mieux cerner leurs opinions en ce qui a trait à l’implantation du DME. Le sondage a été fait par courriel, par téléphone et sur format papier. Il semblerait que la population soit peu sensibilisée aux enjeux du DME, qu’elle méconnaisse  les dangers de divulgations de  leurs données personnelles, les risques rattachés à la sécurité et à  la pérennité de l’information. De  plus,  le  sondage  révèle  que  plusieurs  répondants  connaissaient mal  le DME qui  selon eux,  n’est  que  la  reproduction  du  dossier  papier  patient  sur  ordinateur.  Par  ailleurs,  les enjeux liés à l’exploitation du DME sont méconnus de ces derniers.   Le  tableau  ci‐dessous  présente  les  « pour »  et  « contre »  de  l’implantation  du  DME concernant les patients et les professionnels. Les commentaires semblent plus positifs que                                                         26  Profession  Santé.  Qu’arriverait‐il  si…  le  système  de  santé  était  complètement  informatisé  ?2011. http://www.professionsante.ca/gestionnairesdesante/interprofessions/quarriverait‐il‐si/quarriverait‐il‐si‐le‐systeme‐de‐sante‐etait‐completement‐informatise‐2‐9383/6, consulté le 11 mai 2011.  27 Auffrey, Ch. Vol de données médicales : un pirate demande une rançon, 6 mai 2009. http://www.zdnet.fr/actualites/vol‐de‐donnees‐medicales‐un‐pirate‐demande‐une‐rancon‐39500888.htm, consulté le 18 mars 2011. 

Page 61: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

61

négatifs,  cependant  les  craintes  de  perte  de  confidentialités,  d’atteintes  aux  données personnelles, de fragilité et de sécurité des systèmes, sont les plus évoquées. Les avantages sont nombreux en particulier pour l’accès rapide aux données sur l’état de santé du patient, la  continuité  et  l’amélioration  des  soins  prodigués  ainsi  que  le  transfert  rapide  de l’information vers les spécialistes et les professionnels de la santé.  

Avis des répondants sur l’implantation du DME  (Source : synthèse des questionnaires d’enquête auprès de patients et de professionnels de la santé28) 

Avis des patients (40 répondants)  Avis des professionnels de la santé (10 répondants) 

Pour l’implantation Transparence du dossier médical   Simplification de la tâche lors d’urgences Diminution du temps d’attente pour prise d’informations et des résultats de tests 

Diminution des risques (antécédents médicaux, médicaments, allergies) 

Base de connaissance pour soins donnés et réussis sur un autre patient présentant les mêmes symptômes  

Meilleurs suivis et mise à jour de la médication prescrite, traitements et autres 

Meilleur accès et suivi   Regroupement rapide de données de santé Économie de papier et de frais d’entreposage Lisibilité et compréhension de l’informationContinuité dans les dossiers  Économie de temps et d’argent Accessibilité facilitée aux professionnels de la santé 

Élimination de duplication de documents

Amélioration des communications sur l’état de santé 

Facilité de consultation

Amélioration du travail interdisciplinaire Transfert de dossiers entre les professionnelsRapidité d’accès aux données en cas d’urgence Relevé complet de l’état de santé Informations suivent les déplacements du patientSoins administrés plus rapidement Améliorations des soins aux personnes âgéesSoins favorisés en cas de maladie à l’étrangerTransfert rapide à un spécialiste Statistiques 

Contre l’implantation Risque de fraudes, de modifications des données Nécessité d’un support papier complémentaireTrop d’informations recueillies par rapport aux soins demandés  

Dépenses importantes pour l’achat et l’entretien de matériels informatiques 

Perte, vol d’information, piratage  Piratage, falsification des données, virusPeur de divulgation des données personnelles (recherche, assurances, sondage, voisinage)  

Peur de divulgation des données personnelles(recherche, assurances, sondage, voisinage) 

Bris de confidentialité  Nécessité d’un personnel qualifié pour gérer les dossiers 

Dépendance à la technologie  Manque de sécurité des systèmes Problèmes de conservation à long termeErreurs de saisie 

                                                        28  Power,  M.  Dossier  médical  électronique.  Rapport  remis  dans  le  cadre  du  Cours  GEIN3050  d’éthique, politique sur l’information. Université de Moncton, campus de Shippagan, 2011.Annexes des réponses, 27‐43, 2011. 

Page 62: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

62

Obsolescence des supports technologiquesAccès non contrôlé au dossier Peu de garanties de sécurité  Étude de cas éthique interdisciplinaire  Que se soit dans le domaine de la santé ou dans celui de la gestion de l’information, chaque professeur  rencontre  des  difficultés  quand  il  s’agit  de  faire  assimiler  les  nombreuses contraintes de  ces métiers  aux étudiants. Plus  encore, passer de  la  théorie  à  la  réalité du monde professionnel demande de s’intéresser aux nombreuses disciplines. La pratique solo n’est plus possible!  C’est  pourquoi,  Mesdames  Charlotte  L’Heureux‐Lemieux,  professeure  d’éthique professionnelle  au  baccalauréat  en  Science  infirmière  et  Florence  Ott,  professeure  en gestion  documentaire  au  baccalauréat  en  gestion  de  l’information,  toutes  deux  de l’université  de  Moncton,  Campus  de  Shippagan,  ont  décidé  de  tenter  une  première expérience interdisciplinaire au site de Bathurst, le 18 novembre 2010.   Il  s’agissait  de  proposer  à  leurs  étudiants  respectifs  une  étude  de  cas  construite  en partenariat et rejoignant des préoccupations communes, notamment dans la protection des données personnelles et dans la tenue des dossiers par l’entremise d’une étude de cas.  Dans  un  premier  temps,  un  échange  de  sommaires  eut  lieu,  l’un  sur  l’éthique professionnelle en science infirmière et l’autre sur la gestion d’information en santé. Était‐ce  réalisable ou  faisable de rassembler ces deux entités à  travers un médium quelconque permettant  aux  étudiants  de  vivre  une  expérience  interdisciplinaire  et  complémentaire simulant la réalité du travail ?  Selon la définition de Prevost et Bougie29, nous entendons par expérience interdisciplinaire, la mise en commun des compétences des professionnels appartenant a un même organisme qui  se  complètent  et  s’harmonisent  pour  répondre  aux  objectifs  fixés  par  l’équipe  ce  qui favorise  l’interactivité et  la dynamique de groupe. Pour  leur part, D’amour et Oandasan30, précise  que  l’interdisciplinarité  est  une  réponse  à  des  disciplines  diverses  dont  les connaissances sont fragmentées. Le but étant de les rassembler et de les rendre cohérentes au  profit  des  besoins  de  santé  des  clients/patients/familles  et  communautés. L’interdisciplinarité devenait l’approche crédible et susceptible de confronter les idées afin de faire surgir des solutions en éthique de la santé.   Dans un second temps,  les professeures se sont rencontrées pour mettre en commun leur champ  d’expertise  et  explorer  les  possibilités  de  collaboration  pour  enrichir  les connaissances et développer de nouvelles compétences interdisciplinaires se rapportant au                                                         29 Prevost, A-P. et Bougie, C. 2008. « Équipe multidisciplinaire ou interdisciplinaire qui fait quoi ? ». Le médecin du Québec, volume 43, numéro 11, 43-48, novembre 2008. 30 D’Amour, D. et Oandasan, I. « Interprofessionality as the field of interprofessional practice and interprofessional education : An emerging concept ». Journal of Interprofessional Care, Supplement 1, 8-20, Mai 2005.  

Page 63: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

63

monde de la santé. Les professeures ont conclu que l’étude de cas apparaissait le moyen ou la méthode privilégiée pour y parvenir.  Par la suite,  la professeure en éthique professionnelle a rassemblé des documents portant sur  cinq  situations  infirmières  cliniques  réelles.  À  partir  de  ces  documents,  les  deux professeures  ont  développé  une  situation  infirmière  clinique,  allant  de  l’admission  de  la cliente  en  passant  par  l’hospitalisation  et  par  son  retour  à  domicile.  Pour  stimuler  la réflexion, l’étude de cas était accompagnée de vingt questions, de quatre articles et du texte de loi sur l’accès et la protection en matière de renseignements personnels sur la santé au Nouveau‐Brunswick,  sanctionnée  le  19  juin  200931.  Avant  l’expérience  clinique  du  18 novembre  2010  à  Bathurst,  les  étudiants  devaient  préalablement  faire  leurs  lectures  et répondre aux questions sur l’étude de cas.   La  méthode  choisie  s’est  déroulée  au  cours  d’une  session  où  les  étudiants  des  deux disciplines  se  devaient  de  faire  un  jeu  de  rôle  lié  à  l’étude  de  cas.  Cinq  groupes  ont  été formés de façon aléatoire et chacun d’eux a reçu six rôles, qu’ils devaient se partager.   Parmi  ces  rôles,  nous  retrouvions  la  cliente  ayant  subi  une atteinte  à  sa dignité,  les deux infirmières  impliquées dans  la  situation, une commissaire aux plaintes et  à  la qualité des services,  un  directeur  général  et  un  observateur.  Chaque  groupe  se  voyait  attribuer  un consultant en information qui avait la responsabilité de questionner les interventions et les commentaires émis par les membres de l’équipe interdisciplinaire.   Au  cours  de  l’exercice,  les  professeures  sont  intervenues  l’une  à  titre  de  journaliste  et l’autre  comme  responsable  de  la  gestion  des  risques.  La  durée  de  l’exercice  a  été  de  90 minutes incluant une revue des questions liées à l’étude de cas aux fins de confirmation et de  suivi  se  rapportant  aux  lectures  demandées.  Cet  exercice  a  suscité  l’engouement,  la participation  active  et  une  réflexion  intensive  sur  des  sujets  tels  que  le  respect  de  la  vie privée et des renseignements personnels de la personne, la rédaction exhaustive des notes d’évolution au dossier médical, la tenue des dossiers et la gestion de l’information dans l’ère de l’informatisation.   Comme  on  le  voit,  la  gestion  des  données  personnelles  contenues  dans  les  dossiers  des patients  du  réseau  de  la  santé  constitue  une  question  cruciale  dans  le  contexte  actuel. Comment  protéger  les  renseignements  personnels  contenus  dans  le  DME  et  le  DSE  ? Comment  assurer  l’éthique  en  santé  dans  la  circulation  des  informations  et  des renseignements personnels dans  le  réseau de  la  santé  ? Est‐ce possible que de nouveaux risques éthiques surgissent et que les questions éthiques se multiplient ?  Les  résultats  obtenus  par  cette  étude  de  cas  ont  permis  d’apprécier  la  satisfaction  des quarante étudiants. Plusieurs ont mentionné que l’expérience leur a permis de sortir de leur 

                                                        31  Gouvernement  du  Nouveau‐Brunswick.  Loi  sur  l’accès  et  la  protection  en  matière  de  renseignements personnels sur la santé. 2009. http://www.gnb.ca/0062/PDF‐acts/p‐07‐05.pdf, consulté le 9 février 2011.  

Page 64: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

64

isolement  et  de  réaliser  que  d’autres  professionnels  pouvaient  se  joindre  à  eux  pour  la résolution  des  problèmes  éthiques.  Les  étudiantes  en  science  infirmière  ont  compris l’importance  de  la  rédaction  rigoureuse  des  notes,  car  elle  reflète  la  qualité  des  soins prodigués aux patients au dossier médical. En ce qui concerne  les étudiants en gestion de l’information, ils ont réalisé que leur présence et leurs interventions à titre de responsable ou  de  gardien  des  informations  sont  cruciales  dans  la  bonne marche  du  processus  et  au niveau de la qualité des soins et services.   Les  formulaires  d’appréciations  remplis  par  les  étudiants  révèlent  que  l’expérience  est concluante. Les pistes d’améliorations suggérées sont : préciser  les rôles des acteurs dans l’étude  de  cas,  clarifier  certaines  questions  et  en  élaborer  de  nouvelles  sur  la  gestion  de l’information. De ce fait, l’apprentissage des apprenants sera bonifié.   En  général,  les  étudiants  ont  apprécié  la  libre  expression  et  le  partage  d’opinions.  Une étudiante  en  science  infirmière  cite :  « cette approche m’a permis de  confronter mes  idées avec d’autres personnes que des infirmières. Je comprends que l’éthique professionnelle est un travail d’équipe et de collaboration. Je saisis mieux la portée du travail interdisciplinaire. Les étudiants en gestion de l’information étaient bien préparés pour intervenir avec nous. Garder un esprit ouvert est capital dans la santé ».  Conclusion   En conclusion,  les enjeux du DME sont un bon exemple de réflexion à tenir entre les deux disciplines  que  sont  la  gestion  documentaire  et  la  science  infirmière,  puisqu’ils  sont concernés par la qualité et la sécurité de l’information en santé. Chacun en fonction de ses connaissances  peut  favoriser  la  discussion  et  la  mise  en  place  de  stratégies  auprès  des décideurs  et  des  praticiens  et  apporter  sa  pierre  à  l’édifice  pour  favoriser  l’implantation réussie du DME.  Les collaborations entreprises ont démontré l’intérêt commun dans le souci de développer une  prise  de  conscience  des  étudiants  et  des  praticiens  à  ces  nouvelles  problématiques d’informatisation  des  réseaux  de  la  santé  et  aux  répercussions  retentissantes  dans  la  vie privée  des  personnes.  Le  sondage  a  confirmé  la  pertinence  de  poursuivre  une meilleure sensibilisation à la gestion et à la protection de l’information. Pour se faire, les gestionnaires de  l’information  doivent  impérativement  s’associer  aux  disciplines  médicales  et professionnelles  actuelles.  Il  serait  utopique  de  vouloir  travailler  seul  dans  un monde  en profonde  mutation  qui  réclame  des  compétences  multiples,  complexes  et  sans  cesse renouvelées.  L’intégration  d’études  de  cas  interdisciplinaires  entre  les  étudiants  de  programmes complémentaires  est  une  opportunité  d’apprentissage  à  ne  pas  négliger.  Au  cours  des travaux,  les professeures ont  réalisé que  les  sujets  traités en éthique professionnelle,  tels que la tenue des dossiers, le respect de la vie privée des patients, les informations partagées entre  les  professionnels  de  la  santé,  le  respect  de  la  loi  sur  l’accès  et  la  protection  en matière de renseignements personnels sur la santé et les modes de défaillances en cours de processus  interpellaient  les  étudiants  des  deux  programmes.  Le  partenariat  et 

Page 65: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

65

l’interdisciplinarité  devenaient  donc  possibles,  voire  indispensables,  surtout  à  l’ère  de l’informatisation.   Maintenant  que  nous  sommes  convaincues  de  la  pertinence  et  de  la  richesse  des collaborations, il nous faut élargir les partenariats à d’autres champs cliniques du réseau de la  santé et aux organismes qui  font  la promotion des DME et des DSE. L’expérience a été interactive  et  novatrice  pour  les  étudiants  et  la  communauté  universitaire.  De  nouveaux projets  sont  en  route  notamment  des  interventions  dans  les  cours  universitaires,  dans l’activité  clinique  en  santé,  la  sensibilisation  des  administrateurs  et  dans  les communications auprès des chercheurs.   Nous espérons que de nouvelles collaborations viendront stimuler ces expériences et faire évoluer les mentalités et les façons de travailler pour favoriser des partenariats ouverts sur tous ces enjeux  technologiques et  informationnels qui  interagissent sur  les personnes. Un système  complètement  informatisé  amènerait‐il  des  effets  sur  les  patients  en  termes d’autonomisation  et  de  prise  en  charge ?  Une  piste  à  suivre  lors  d’une  prochaine communication.   Bibliographie  Auffrey,  Ch.  Vol  de  données  médicales :  un  pirate  demande  une  rançon,  6  mai  2009. http://www.zdnet.fr/actualites/vol‐de‐donnees‐medicales‐un‐pirate‐demande‐une‐rancon‐39500888.htm, Consulté le 18 mars 2011.  D’Amour, D. et Oandasan,  I. « Interprofessionality as the field of  interprofessional practice and interprofessional education : An emerging concept ».  Journal of Interprofessional Care, Supplement 1, 8‐20, Mai 2005.  Gouvernement  du  Nouveau‐Brunswick.  Loi  sur  l’accès  et  la  protection  en  matière  de renseignements  personnels  sur  la  santé.  2009.  http://www.gnb.ca/0062/PDF‐acts/p‐07‐05.pdf, consulté le 9 février 2011.  Herveg,  J., Verhaegen, M‐N.  et Poullet,  Y.  2002.  « Les droits du patient  face  au  traitement informatisé  de  ses  données  dans une  finalité  thérapeutique:  les  conditions  d'une  alliance entre informatique, vie privée et santé ». Revue du droit de la santé, n° 2, p. 56‐85, 2002.  Inforoute santé du Canada et Association médicale canadienne. Expériences de  l’utilisation du DME aux premières  lignes,  2009. https://www.infoway‐inforoute.ca/flash/lang‐fr/emr‐case‐studies/docs/EMR_Case_Studies_FR_lowres.pdf, consulté le 10 mai 2011.  Infoway‐Inforoute.Ca.  Guide  de  l’Unité  collaborative  de  normalisation.  Créer  des  solutions, améliorer  les  résultats  en  santé…tous  ensemble,  2007.https://www.infoway‐inforoute.ca/working‐with‐ehr/solution‐providers, consulté le 11 mai 2011.  Infoway‐Inforoute.Ca et Inforoute Santé du Canada. Interoperable electronic health record solutions (EHRS) ‐ A giant step forward for healthcare delivery in Canada, april 2006.  

Page 66: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

66

https://www2.infoway‐inforoute.ca/Documents/EHRS‐Blueprint‐v2‐Exec‐Overview.pdf., consulté le 29 avril 2011.  Larouche,  Ch.  et  Dulude,  S.  « Les  dossiers  médicaux  électroniques :  êtes‐vous  prêt  pour l’adoption ? ». Le médecin du Québec, Fédération des médecins omnipraticiens du Québec, volume 45, numéro 2, 67‐69, février 2010.  Menart, J‐P. et Ménard, M. « Le dossier patient au Québec : Confidentialité et accès ». Réseau juridique  du  Québec.  2007.  http://www.avocat.qc.ca/public/iidossiermedical4.htm, consulté le 9 février 2011.  Oandasan,  I.  et  Reeves  S.  «  Key  elements  of  interprofessional  education.  Part  2:  Factors, process and outcomes ». Journal of Interprofessional Care, Supplement 1, 39‐48, May 2005.   Portail  du  droit  des  nouvelles  technologies.  Le  dossier  médical  informatisé  :  la  délicate protection  des  données  personnelles,  2005.  http://www.droit‐technologie.org/actuality‐831/le‐dossier‐medical‐informatise‐la‐delicate‐protection‐des‐donnees‐pe.html,  consulté le 9 février 2011.  Power, M. Dossier médical électronique. Rapport remis dans le cadre du Cours GEIN3050 d’éthique, politique sur l’information. Université de Moncton, campus de Shippagan, 2011.  Prevost,  A‐P.  et  Bougie,  C.  2008.  « Équipe multidisciplinaire  ou  interdisciplinaire  qui  fait quoi ? ». Le médecin du Québec, volume 43, numéro 11, 43‐48, novembre 2008.  Profession Santé. Qu’arriverait­il si… le système de santé était complètement informatisé ? 2011. http://www.professionsante.ca/gestionnairesdesante/interprofessions/quarriverait‐il‐si/quarriverait‐il‐si‐le‐systeme‐de‐sante‐etait‐completement‐informatise‐2‐9383/6, consulté le 11 mai 2011.   Santé Canada. La mise en œuvre des dossiers médicaux électroniques dans les établissements de  soins  de  santé  primaires.  Trousse  des  dossiers  médicaux  électroniques.  2006. http://www.troussedme.ca/view_section.php?section=90, consulté le 20 septembre 2008.  Santé  Canada,  Bureau  de  la  santé  et  l'inforoute.  Vers  les  dossiers  de  santé  électroniques. 2001.  http://www.hc‐sc.gc.ca/hcs‐sss/pubs/ehealth‐esante/2001‐towards‐vers‐ehr‐dse/index_f.html, consulté le 9 mai 2011.  Union  des  consommateurs.  Le  dossier  de  santé  électronique :  le  contrôle  des  données personnelles de santé dans un contexte d’informatisation des dossiers médicaux. Rapport final du  projet  présenté  au  Commissariat  à  la  vie  privée  du  Canada.  2010. http://www.consommateur. qc.ca/union‐des‐consommateurs/docu/vieprivee/100331UC_CVPC_DSE.pdf, consulté  le 10 mai 2011.  

Page 67: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

67

De la communication stratégique maîtrisée à la communication collective intelligente. Le cas de la stratégie Twitter d’un institut de formation 

 

Christian Marcon32  Maître de conférences hors classe, habilité à diriger des recherches  

en sciences de l’information et la communication Chercheur au laboratoire CEREGE – Centre de Recherche en Gestion  EA 1722 ‐  

Université de Poitiers _________________________________________________________________________________________________________  Résumé : La recherche‐action présentée ici a consisté à confier à des étudiants  l’initiative d’émettre  des messages  sur  la  plateforme  Twitter  au  nom  de  leur  institut  de  formation. Cette  communication présente  l’analyse préalable,  les modalités de  la mise  en œuvre,  les résultats observés et  les  conclusions qui en ont été  tirées en  termes de confiance dans  la collaboration, de progression de la présence sur Internet et de complexité de maîtriser les possibilités d’interaction offertes.   Mots­clés : Internet, communication, stratégie, Twitter, web 2.0 ________________________________________________________________________________________________________  

Contexte de la recherche action 

 L’apparition  du web  2.0  a  introduit  une  rupture  dans  les  conditions  de  la maîtrise  de  la communication  stratégique.  L’ère  de  l’avant web,  et  dans  une  très  large mesure  celle  du web  de  première  génération,  étaient  celles  de  l’asymétrie  forte  des  moyens  dans  la communication entre les acteurs institutionnels et les acteurs individuels. Aux premiers, les dispositifs  organisés  de  communication  (personnels  spécialisés,  dotations  financières,                                                         32 Christian Marcon est maître de conférences hors classe en sciences de l’information et la communication à l’Université de Poitiers où il dirige l’ICOMTEC (Institut de la Communication et des Technologies numériques) et le master « Stratégie et Management de la Communication ».  Habilité à diriger des recherches, il accompagne plusieurs doctorants au sein du laboratoire CEREGE (Centre de  Recherche  en  Gestion).  Il  est membre  et  vice‐président  de  la  commission  d’expertise  scientifique  de  la section  universitaire  mixte  sciences  de  l’information  et  la  communication  –  sciences  économiques  à l’Université de Poitiers.  Christian Marcon est  l’auteur de  la première  thèse  française  sur  l’intelligence économique dans  le domaine des sciences économiques en 1998. Depuis lors, seul ou en collaboration notamment avec le Pr Nicolas Moinet, il  développe  des  recherches  dans  trois  domaines  :  l’intelligence  économique  (intelligence  territoriale, information  informelle,  perception  de  l’environnement  pertinent),  les  stratégies  d’acteurs  en  réseau  (dans leurs  dimensions  stratégique,  communicationnelle,  organisationnelle…)  et  les  stratégies‐réseaux  dans  le champ  spécifique  de  l’intelligence  économique.  Il  a  publié  trois  ouvrages  et  en  prépare  un  quatrième.  Ses derniers  travaux  portent  sur  l’épistémologie  en  intelligence  économique  dans  le  champ  de  l’information‐communication, notamment sa dimension communicationnelle et sur les blogs consacrés aux réseaux sociaux numériques et à l’intelligence économique (colloques MUSSI 2010 & 2011).   

Page 68: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

68

maîtrise  des  outils  et  des  techniques  de  communication  telles  que  la  propagande,  le journalisme, la publicité) leur donnant une relative maîtrise de leur communication tant en termes de messages que de programmation ; aux seconds, l’amateurisme avec ses talents de créativité, d’enthousiasme, de débrouillardise, parfois suffisants pour que, dans un rapport de  David  à  Goliath,  David  garde  quelques  chances  occasionnelles  de  succès  lorsque  les médias veulent s’emparer des messages ainsi émis.  Le web 2.0 a bouleversé  la donne au niveau  technique. Là où  la  première génération des technologies  du  web  imposait  un  apprentissage  long  avant  une  maîtrise  des  outils  de réalisation  de  sites,  préambule  à  toute  expression  d’une  opinion  sur  la  toile,  le  web  2.0 permet à presque tout le monde (en exagérant à peine) d’être présent sur Internet (Cardon, 2010) et facilite les interactions à grande vitesse et grande échelle.   Le web 2.0 a également transformé la manière commune de calculer la valeur des réseaux de communication. On estimait couramment avec  la « loi » dite de Sarnoff33 que  la valeur d’un  réseau  descendant  (one  to many)  était  proportionnelle  au  nombre  de  récepteurs  de l’information via le réseau, comme dans les réseaux de télévision par exemple. Cette « loi » pouvait caractériser la communication institutionnelle traditionnelle. On estima ensuite par la  « loi »  de Metcalfe34  que  la  valeur  d’un  réseau  dans  lequel  chacun  peut  échanger  avec chacun (one to one) tel le réseau téléphonique, devait être estimée en fonction du nombre de  paires  qui  pouvaient  se  constituer  pour  communiquer,  soit  le  carré  du  nombre d’utilisateurs. Bien des auteurs actuels adoptent, sans trop y réfléchir, une troisième « loi », dite de Reed35 (Reed, 1999) qui verrait la valeur du réseau communautaire (many to many) augmenter  à  la  puissance  du  nombre  d’internautes  en  mesure  de  se  connecter techniquement.  Cette  « loi »  est  contestée  par  d’autres  auteurs  qui,  portant  un  regard empirique sur les communications opérées réellement au sein des réseaux communautaires (Lefebvre,  2005),  considèrent  Reed  comme  « très  théorique »,  ce  qui,  dans  leur  propos, signifie que la mesure proposée par Reed est illusoire.   Dans ces conditions, au delà de la controverse sur la formule même, l’idée d’une maîtrise de la  communication  stratégique  par  l’organisation,  qui  renvoie  à  une  communication essentiellement descendante, « à  l’ancienne », ou bijective (entre  l’entreprise et chacun de ses parties prenantes isolément) est une illusion. Les organisations de toutes natures sont confrontées  à  une  communication  des  acteurs  individuels  massive,  rapide,  sans  doute moins  construite  en  termes  de  techniques  de  communication  habituelles, mais  beaucoup plus réactive et  innovante, se coordonnant par d’autres procédés plus  intuitifs, et surtout, une communication décomplexée tant sur la question de la technologie que de l’expression.  Le problème  Face à un contexte bouleversé, l’organisation désireuse de communiquer sur ce qu’elle est et  ce  qu’elle  fait  peut  choisir  entre  plusieurs  voies.   La  première,  aujourd’hui  en  voie  de 

                                                        33 Homme d’affaires américain, pionnier de la radio et la télévision. 34 Ingénieur américain, inventeur d’éthernet. 35 Informaticien ayant participé à la normalisation du protocole TCP/IP. 

Page 69: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

69

disparition,  est  le  conservatisme,  qui  conduit  à  maintenir  un  dispositif  classique  de communication  reposant  sur  les  outils  traditionnels  que  sont  les  relations  presse, l’organisation d’évènements, la production de supports papier…   La seconde voie est celle de la mise en place d’un site web portail qui permet de chercher à canaliser  l’expression  des  internautes  en  leur  offrant  des  possibilités  de contacter l’organisation,  tout  en  essayant  de maitrisant  l’émission des messages,  dans  leur  rythme, leur contenu et leur forme. Dans cette voie, l’organisation continue de chercher à contrôler les possibilités d’expression des personnels de l’entreprise, via une charte de bon usage, des clauses de confidentialité, un système de modération des messages…   Une troisième voie représente un véritable défi : celui de l’appui sur l’expertise et l’envie de contribuer  à  la  communication  manifestée  par  les    membres  de  l’organisation,  en complément du maintien d’une démarche de communication  institutionnelle  intégrant  les outils  numériques.  Cette  voie  du  pari  de  la  co­construction  va  à  l’encontre  des préconisations  courantes  des  Directions  des  Services  Informatiques  dont  le  contrôle  des usages et des logiciels est une prérogative habituelle,  justifiée par la nécessaire cohérence interne du dispositif et une appréhension à l’égard de tout risque d’introduction d’élément malveillant (virus, logiciels espions). Elle va aussi à l’encontre d’une volonté commune des directions de la communication, relayant en cela leurs directions générales, de contrôler les messages émis avant  toute diffusion par crainte de dérapages. Dans une perspective plus précise d’intelligence stratégique, elle constitue également une prise de risque sensible.   Cette  situation  est  précisément  celle  que  rencontre  l’Institut  de  la  Communication  et  des Technologies  Numériques  (ICOMTEC)  de  l’Université  de  Poitiers.  Jusqu’à  présent,  sa communication  externe  était  restée  maîtrisée  dans  la  mesure  où  tout  message institutionnel  imprimé ou diffusé sur Internet faisait  l’objet d’une procédure de validation par  le  directeur  de  l’institut.  Cette  procédure,  classique  et  qui  donnait  satisfaction, introduisait  un  délai  avant  parution,  avec  pour  conséquence  de  limiter  les  informations diffusées à celles qui pouvaient supporter ce relatif délai.   Une analyse des dispositifs de communication à l’œuvre a conduit à constater au printemps 2010 que, si  l’information  institutionnelle construite, validée, pesée mot à mot, demeurait pertinente  sur  certains  sujets  pour  constituer  une  référence  officielle,  elle  présentait plusieurs limites : 

- Le fait brut, l’information non construite et officialisée, était souvent déjà diffusé par les  multiples  canaux  dont  disposent  les  étudiants  de  l’institut  (plateformes  de réseaux sociaux, téléphone). 

- Seule une petite partie de  ce qui mériterait d’être  communiqué  l’est  effectivement car  les  supports  classiques  ne  se  prêtent  pas  à  l’exposition  de  toutes  les informations. 

- Les  pratiques  des  publics  de  l’institut  (étudiants,  partenaires, médias)  ont  intégré des moyens de communication plus réactifs que le site web ou la lettre d’information semestrielle. 

- L’institut ne peut plus se contenter de communiquer sur lui‐même. Il doit aussi jouer un  rôle  de  « tiers  facilitateur »  (Alloing  &  Deschamps,  2011)  pour  construire  et 

Page 70: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

70

entretenir  son  image.  Il  peut  aussi  chercher  à  susciter  le  maillage  d’un  réseau d’experts issus de ses diplômés, dont l’animation marquerait une volonté de l’institut de  « créer  une  interaction,  un  partage,  des  échanges  d’informations  entre  les diverses  micro‐communautés  reliées  aux  experts  présents  dans  [ce]  réseau. » (Alloing & Moinet, 2010)  

- Les étudiants de l’institut ont de plus en plus une présence numérique sur Internet sous  la  forme  de  blogs,  de  pages  personnelles  ou  institutionnelles  (associations d’étudiants, Junior Entreprise), de pages sur les réseaux sociaux Facebook, Linkedin, Viadeo,  etc,  d’interventions  sur  Twitter.  Cette  présence  n’est  pas  utilisée  par l’Institut pour démultiplier sa communication et renforcer sa réputation numérique. 

 Les objectifs  Les  constats  précédents,  en  termes  de  dynamique  de  communication,  doivent  être complétés de trois observations managériales : 

- Contrainte  de  ressources  humaines :  l’institution  n’a  pas  les  moyens  humains nécessaires pour assurer un contrôle ex ante de  toutes  les communications émises avec  un  délai  de  réaction  très  court  et  sa  communication  institutionnelle  finit  par relever du « bricolage » (Ciborra, 2004 ; Comtet, 2009), sans que cela soit négatif par nature. 

- Ressources internes en termes de compétences : les étudiants de l’institut se forment au management de la communication pour une part et à l’intelligence économique et la communication stratégique pour l’autre part. Ils se forment donc précisément à la maîtrise  des  outils  et  stratégies  de  la  communication  sur  Internet.  S’ils  sont  en apprentissage, il se trouve parmi eux des étudiants avancés, voire quasi experts dans certains domaines de la communication sur Internet.  

- Management : la communication de l’institut est déjà confiée, sous la responsabilité du  directeur,  à  un  « Service  Communication »,  piloté  par  deux  chargés  de communication  (interne &  externe)  depuis  quatre  ans.  L’expérience  a  prouvé que, globalement,  les  étudiants  investis  dans  ce  projet  professionnel  (chargés  de communication,  chefs  de  pôles)  ont  conscience  de  leur  responsabilité  vis  à  vis  de l’institut et des limites à ne pas franchir dans leur liberté d’action. 

 Dans  ce  contexte,  l’objectif  général  de  l’expérimentation  est  de  développer  la  présence numérique  de  l’institut  tout  en  testant  le  degré  de  confiance  qui  peut  être  accordé  aux étudiants dans ce processus de co‐construction qui s’appuie lourdement sur eux.   La solution retenue  Pour essayer d’atteindre cet objectif, quelques étudiants se sont vus confier, pour le compte de l’institution, l’ensemble des outils de type « réseaux sociaux » : pages Viadeo & Facebook (2 étudiants),  compte Twitter  (2 étudiants). La  responsabilité  éditoriale engagée est  celle du directeur de  l’institution, qui accepte  le risque de ne pas  contrôler chaque mouvement de communication engagé au nom de l’institution par ce petit groupe d’étudiants.   

Page 71: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

71

Dans  le  cadre  de  cette  communication,  ce  sont  les  résultats  de  l’expérience  menée  sur Twitter  qui  sont  présentés.  Rappelons  que  Twitter  est  un  service  en  ligne  qui  permet l’émission de messages courts  (140 caractères au maximum,  incluant éventuellement une adresse  internet)  à  une  liste  d’abonnés  ou  « followers »,  tout  en  suivant  soit  même  les messages émis par d’autres via des « abonnements ». Le principe de Twitter est celui de la réactivité par rapport à l’information.  Méthode  La mise  en  place  de  cette  recherche‐action  a  suivi,  naturellement,  une  logique  empirico‐inductive,  les  sources  scientifiques  manquant  encore  pour  procéder  autrement.  La démarche  est  essentiellement  qualitative,  même  si  une  observation  quantitative  des productions est également opérée.   Nous avons procédé en quatre étapes. 

Etape  1.  Suggestion  par  les  étudiants  de  la  création  d’un  compte  Twitter institutionnel,  sur  la  base  d’une  analyse  globale  de  la  présence  de  l’institut  sur  Internet. Cette  suggestion  est  refusée,  ce  qui  conduit  les  étudiants  à  remettre  un  dossier  complet d’analyse et d’argumentation.  

Etape 2. Sur la base de cette argumentation, acceptation du principe et définition de principes  généraux :  confiance  accordée  aux  étudiants  chargés  du  compte  pour  ne  pas diffuser  de  messages  pouvant  porter  atteinte  à  l’image  de  l’institut  ou  impliquer  sa responsabilité juridique ; choix des sujets libre ; initiative d’envoi accordée, sans validation préalable, aux étudiants concernés, seuls habilités.  

Etape  3.  Création  du  compte  le  26  janvier  2011  et  début  de  l’envoi  de  tweets. Parallèlement,  les  étudiants  consultent  l’abondante  littérature  professionnelle  disponible en  ligne,  tant  pour  maîtriser  techniquement  l’outil  que  pour  en  appréhender  la « philosophie ». Création d’un compte personnel pour suivre les tweets émis.  

Etape 4. Evaluation des résultats sur une base qualitative et quantitative.  Résultats   Analyse quantitative : ­ Rythme de publication : sur la période concernée (26 janvier – 12 mai), soit 131 jours, 157 tweets ont été émis, à un rythme d’abord très rapide, puis plus lent à partir de début avril comme  le  montre  le  graphique  ci‐dessous  qui  opère  une  comparaison  entre  le  nombre d’informations  émises  par  ce  canal  avec  celles  mises  en  ligne  sur  la  page  Facebook  de l’ICOMTEC  et  celles  diffusées  via  Twitter  par  la  Junior  Entreprise  de  l’institut :  Icomtec Consultants ©. 

     

Page 72: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

72

Figure 1. Tweets émis par le compte officiel ICOMTEC  du 26 janvier au 12 mai 2011  

  ­ Poids des envois originaux : l’analyse du contenu de ces messages montre la part accordée aux  envois  en  nom  propre  et  la  part  des  renvois  de  messages  reçus  dans  le  cadre  des abonnements choisis (re‐tweets). Là encore, une comparaison mérite d’être faite entre les deux  émetteurs  disposant  d’une  légitimité  institutionnelle  et  contribuant,  tous  deux,  à l’image de l’institut.    

Figure 2. Poids des messages originaux dans les tweets envoyés.  

   

   ‐  Nombre  d’abonnés :  ICOMTEC  compte  sur  Twitter  253  abonnés.  Ce  chiffre  n’est  pas considérable  si on  le  compare aux abonnés de certains étudiants ou anciens étudiants de l’institut  (CaddeReputation  –  4512 ;  terryzim  –  1024 ;    diawan  –  300 ;  koboyboyboy  ‐ 547…).   Mais  la plupart d’entre eux sont inscrits sur le service depuis plus longtemps et y montrent une activité très intense (CaddeReputation ‐  7957 tweets au 19 mai 2011 ; koboy – 7666 à  la même date).  La  Junior Entreprise  compte 349  abonnés  et  a  émis 671  tweets depuis sa création.  

0

50

100

150

200

250

1‐1‐11 2‐1‐11 3‐1‐11 4‐1‐11 5‐1‐11

Twitter JE cumul

Facebook ICOMTEC cumul

Twitter ICOMTEC cumul

050100150200

1‐1‐11 2‐1‐11 3‐1‐11 4‐1‐11 5‐1‐11

Twitter ICOMTEC cumul

dont re‐tweet cumul

0

200

400

1‐1‐11 2‐1‐11 3‐1‐11 4‐1‐11 5‐1‐11

Twitter JE cumul

Dont re‐weet cumul

Page 73: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

73

Analyse qualitative : L’analyse qualitative des messages envoyés depuis le compte Twitter de l’ICOMTEC semble indiquer : 

- que le rythme d’émission est directement lié à l’existence d’une actualité générée par l’institut, dans la mesure où, durant la période d’observation, le nombre de re‐tweets est extrêmement faible. Or le premier trimestre de l’année civile est toujours celui le plus générateur d’actualité. Comparativement, la Junior Entreprise, qui maintient un rythme  plus  rapide,  compense  ses  périodes  de  manque  d’actualité  propre  par davantage de re‐tweets.  

- que  le  rythme  d’émission  est  également  lié  à  la  présence  des  étudiants  dans  leur institut. A partir de début avril, non seulement l’actualité de l’institut s’est ralentie, mais les étudiants sont partis en stage, ce qui a réduit la place de leur institut dans leur champ d’attention, et par conséquent le rythme d’émission de messages. 

 Une enquête de  Jean‐Sébastien Chouinard, du cabinet  canadien Adviso  (Balagué & Fayon, 2010), distinguait cinq types de comportements sur Twitter : parler de ses émotions (15% des  tweets),  discuter  d’un  sujet  (20%),  partager  des  liens  (45%),  fil  de  presse  (20%), spamming  (marginal).    Notre  analyse  des  sujets  abordés  dans  les  tweets  révèle  ici l’existence de trois catégories: 

- les messages de courtoisie : annonce de création, bienvenue aux nouveaux abonnés, remerciements  pour  re‐tweets  opérés…  Ils  représentent  une  quarantaine  de message,  soit  environ  un  quart  du  tout.  Ces  messages  ne  contribuent  pas particulièrement  à  la  construction  de  l’image,  quoiqu’ils  témoignent  d’une compréhension des règles de sociabilité associées à l’outil. Ils exercent une mission phatique au sens de Jakobson (Jakobson, 1963).  

- Les messages relais d’information origine extérieure : que ce soit sous la forme de re‐tweets ou d’informations que les étudiants prennent l’initiative de communiquer, ils visent  à  diffuser  aux  abonnés  des  informations  qui  ne  relèvent  pas  d’une autopromotion  mais  de  sujets  d’actualité  en  lien  avec  les  deux  orientations  de formation de l’institut, soit l’intelligence économique (annonce de manifestations, de parutions  d’articles),  soit  de  la  communication  (concours,  articles,  informations humoristiques…)  Le  procédé  vise  à montrer  l’existence  dans  l’institut  d’une  veille thématique dont les abonnés bénéficient d’une partie, sélectionnée, des résultats. En aucun  cas  il  n’apparaît  que  les  informations  ainsi  diffusées  transgressent  les consignes données. Si quelques messages semblent au chercheur de moindre intérêt, il  s’agit d’un  jugement de valeur personnel qui n’est  sans doute pas partagé par  la plus  grande  fraction  des  abonnés  qui  sont  largement  des  étudiants,  des  anciens étudiants,  des  futurs  étudiants.  Cette  catégorie  représente  une  cinquantaine  de messages,  soit  environ  un  tiers,  qui  remplissent  une  double  fonction  conative (invitation  à  la  consultation)  et  expressive  (manifestation  d’intérêt  pour l’information transmise).  

- Les messages d’autopromotion ou hédonistes  :  ils sont  le cœur de la construction de l’image de  l’institut  en en montrant  l’activité,  les  succès,  les échos obtenus dans  la presse. Cette catégorie recouvre quelques thèmes centraux : l’annonce d’événements organisés  par  l’institut  ou  auxquels  participe  l’institut  (21)  et  leur  suivi  après achèvement  (10),  la  mise  en  ligne  d’articles  sur  le  site  web  de  l’institut  (10),  les 

Page 74: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

74

parutions  d’articles  sur  l’institut  dans  la  presse  (6), mais  aussi  les  parutions  de  la lettre  d’information  en  intelligence  économique  Vigie  (3),  les  activités  de l’association des étudiants et diplômés en  intelligence économique Métis (3), celles de la Junior Entreprise (3), l’actualité d’anciens ou intervenants de l’institut (4)… Le tout représente près de soixante dix messages.  

 Figure 3. Nuage de mots­clés caractéristiques du contenu textuel des tweets envoyés.  

  

Leur fonction est essentiellement conative mais il nous semble qu’ils remplissent aussi une fonction  phatique  à  l’égard  des  membres  de  l’institut  impliqués  ou  concernés  par  les informations  transmises  qui  attendent  de  l’institut  une  forme  de  reconnaissance  via l’émission de ces messages.      Conclusions de l’expérimentation  Le premier enseignement, managérial, de l’expérience est que la confiance placée dans les deux  étudiants  « missionnés »  n’a  pas  été  trahie.  Ceux‐ci  ont  respecté  une  éthique  de responsabilité  (Weber,  1919)  ou  formelle  (Reynolds,  2006)  en  étant  vigilants  sur  les conséquences  de  chaque  message  émis.  Nous  formulons  l’hypothèse  que,  conformément aux observations de Dukerich (et al., 1990) et Schminke (et al., 2002), notre propre éthique formelle, rappelée avec insistance dans nos rapports quotidiens avec les étudiants, ainsi que celle des étudiantes chargées d’encadrer la communication de l’institut, ont influencé en ce sens  les  décisions  prises  par  les  étudiants  autorisés  à  émettre  des  tweets.  Cependant, l’expérience  devra  être  poursuivie  plus  longtemps,  y  compris  dans  des  situations  plus délicates  en  terme  de  vie  de  l’institut  pour  mesurer  jusqu’à  quel  point  l’influence  de l’éthique du leader sur le groupe est prégnante.  

 Un  deuxième  constat  est  que  l’action menée ne  suffit  pas  à  conclure  que  la  présence  sur Internet  de  l’institut,  sa  « réputation  numérique »  a  progressé  de  manière  sensible.  Des messages ont été émis, vers un petit collectif d’un peu plus de 250 personnes qui a souhaité les  recevoir  et,  parfois,  a  réagi  ou  les  a  relayés,  introduisant  une  dimension  plus interactionnelle  dans  la  communication  de  l’institut.  A  l’aune  de  l’immensité communicationnelle du web 2.0, c’est moins qu’une goutte d’eau. Vis à vis des publics ciblés, dans  les domaines professionnels qui  intéressent  l’institut, c’est une amorce sensible qu’il 

Page 75: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

75

semble justifié de pérenniser. En termes de pédagogie, c’est une pratique pertinente. Qu’en est‐il en termes stratégiques ?  Résumons  les  formes  de  la  présence  numérique  directe  de  l’ICOMTEC :  un  site  web réactualisé  chaque  semaine  par  de  l’actualité pour  qui  prend  l’initiative  de  venir  le consulter  (approche pull)  ;  un  compte Facebook pour  informer un public  essentiellement composé  d’anciens  (approche  push) ;  un  compte  Twitter  pour  élargir  la  cible,  introduire davantage  de  réactivité,  créer  des  flux  vers  les  autres  espaces  numériques,  élargir  nos interventions  (approche  interactive).  Le  tout,  sans  être misérable,  n’est  pas  considérable parce que l’institut n’a pas directement les moyens de faire beaucoup plus sans adopter une approche plus  collaborative  avec  ses  étudiants  et  ses  anciens. Déjà,  ceux‐ci  constituent  le plus  actif  vecteur  de  construction  d’image  pour  l’institut,  avec  les  risques  que  cela comporte. Une rapide exploration permet, en quelques minutes, d’identifier 25 étudiants ou anciens étudiants actifs, lesquels ont émis un total de 39200 tweets depuis leur inscription. Tous  ne  sont  pas  encore  followers  de  l’ICOMTEC ;  tous  n’ont  pas  forcément  envie  de  re‐tweeter  ses  messages.  Mais  ils  peuvent,  lorsque  l’occasion  se  présente,  contribuer spontanément  à  diffuser  des  informations.  Plus  largement,  d’ailleurs,  en  s’identifiant comme diplômés ou étudiants, par leur propos, ils sont indirectement porteurs d’image.   A partir de cette expérimentation au périmètre bien circonscrit et de ses résultats se pose finalement  la  question  de  la  co‐construction  de  la  communication  numérique  d’une organisation avec ses membres, en l’occurrence un institut avec ses étudiants et diplômés. La problématique diffère des approches classiques de stratégie‐réseau (Marcon & Moinet, 2000)  dans  lesquelles  étudiants  et  diplômés  s’appuient  sur  un  parcours  de  formation commun pour s’ouvrir des opportunités, construire leur entregent, se forger des relais dans des  perspectives  d’emploi  et  d’échange  de  services  tout  en  communicant  sur  leur institution.  Il  s’agit  ici,  non  pas  de  relationnel  direct  établi  dans  le  cadre  d’échanges  qui permettent  l’émission  de  messages  éventuellement  négatifs  sur  l’organisation  parce  que ceux‐ci sont privés, mais de propos diffusés et dont on souhaite qu’ils aient la plus grande audience et qu’ils soient relayés. La contribution des membres de l’organisation, souhaitée, n’est  pas  programmable  dans  l’univers  du  numérique.  Comme  le  souligne  Dominique Cardon, la manière dont se forment les collectifs sur Internet est particulière. Il est difficile d’y recruter des internautes engagés au service d’une cause : « la demande de participation se  conçoit  plus  souvent  comme  une  expérimentation  qui  s’organise  autour  d’un  dispositif permettant d’agir et de coopérer » (Cardon, 2010).   Une communication numérique institutionnelle co‐construite n’est donc pas complètement contrôlable ;  il n’est pas possible non plus, à défaut, de la « manager » au sens habituel du terme. Entre l’absence de communication sur le web 2.0 qui, en s’excluant de l’interaction, laisse  la  place  à  n’importe  quel  discours,  et  le mythe  d’une  communication  contrôlée  se trouve donc un espace stratégique communicationnel  intelligent, hybride (Marcon, 2001), mi  institutionnel  ‐  mi  collaboratif,  qui  interroge  la  répartition  des  pouvoirs  dans l’organisation,  le  mode  de  relation  aux  membres  et  des  membres  avec  l’image  de l’organisation. La maîtrise de cette interaction (Fayard, 2000) nous semble être le défi des années qui viennent, notamment pour des acteurs universitaires qui n’en sont pas familiers 

Page 76: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

76

en général, formés davantage à la diffusion de leurs savoirs qu’à la co‐construction de ceux‐ci.   Bibliographie   Alloing, C. & Moinet, N. « Des réseaux d’experts à l’expertise 2.0 ». Les cahiers du numérique, vol. 6, 2010/1.  Alloing  C.  &  Deschamps  C.  « Veille  stratégique  et  internet  participatif :  les  agents facilitateurs  remettent‐ils  en  question  le  concept  de  signal  faible ? ». Actes du 3e Colloque Spécialisé en Sciences de l’Information, 2011.  Cardon, D. La démocratie Internet. Promesses et limites. Editions du Seuil, 2010.  Ballagué, C. & Fayon, D. Facebook, Twitter et les autres, Intégrer les réseaux sociaux dans une stratégie d’entreprise. Editions Pearson, 2010.  Berry,  M.  &  Deshayes,  C.  Les  vrais  révolutionnaires  du  numérique.  Editions  Autrement Frontières, 2010.    Champloix S. Limites et dangers des réseaux sociaux ouverts dans le cadre d’une utilisation professionnelle, Documentaliste – Sciences de l’information, vol 47, n° 3, 2010.  Ciborra,  C.    « Bricolage,  heuristics,  serendipity,  and make‐do »,  in  Avgerou  C.,  Ciborra  C., Land, F.  The social Study of Information and Communication Technology : innovation, actors and contextes. Oxford University Press, 2004.  Comtet, I. « Entre usage professionnel des TIC et structure organisationnelle : la capacité au bricolage comme compétence adaptative ». Etudes de communication, n° 33, 2009.  Dukerich,  J.M.,  Nicol,s  N.M.,  Elm,  D.R.,  Vollra,t  D.A.,  « Moral  reasoning  in  groups :  leaders make a différence », Human Relations, 43, pp. 473‐493.  Fayard, P. La maîtrise de l’interaction. Editions Zero Heure, 2000.  Huberman,  B.A.,  Romero,  D.  M., Wu  F.  « Social  networks  that matter :  Twitter  Under  the microscope », base Arxiv.org, 2008.  Jakobson, R.  Essai de linguistique générale, Editions de Minuit, Paris, 1963.   Lefebvre, A.Les réseaux sociaux, pivot de l’Internet 2.0, M2 Editions, Paris, 2005. 

Page 77: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

77

  Licoppe,  C.,  Proulx,  S.,  Cudicio,  R.  « L’émergence  d’un  nouveau  genre  communicationnel dans  les  organisations  fortement  connectées :  les  « questions  rapides »  par  messagerie instantanée ». Etudes de communication, n° 34, 2010.  Marcon, C. & Moinet, N. La stratégie­réseau. Editions ZeroHeure, 2000.  Marcon,  C.  « Le  champ  d’action  réticulaire :  un  espace  de  communication  stratégique hybride ». Communication et Organisation, n° 20,  2001.  Reed, D.  « That  sneaky exponential »,  1999, Disponible  sur  le  site de  l’auteur  à  l’adresse : http://www.reed.com/dpr/?sel=dprbiog    Reynolds,  S.  J.  « Moral  awareness  and  ethical  predispositions:Investigating  the  role  of individual  differences  in  the  recognition  of moral  issues ».  Journal  of Applied Psychology, 91(1), 2006.  Schminke, M., Wells, D., Peyrefitte, J., & Sebora, T. C. « Leadership and ethics in work groups: A longitudinal assessment ». Group and Organization Management, 2002.  Weber,  M.  Le  savant  et  le  politique,  1919.  Disponible  en  ligne  à  l’adresse  suivante : http://classiques.uqac.ca/classiques/Weber/savant_politique/Le_savant.html   

  

Page 78: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

78

La veille stratégique au sein de Bibliothèque et Archives Canada : leçons tirées de l’expérience 

 Ihtesham Rashid36 

Analyste de la recherche, Recherche stratégique Bibliothèque et Archives Canada  ihtesham.rashid@lac‐bac.gc.ca  

  Résumé :  La  présentation  suivante  a  pour  but  de  partager  les  leçons  apprises  par  les membres  de  la  division  de  la  recherche  stratégique  de  Bibliothèque  et  Archives  Canada (BAC) depuis sa création en 2008. La première partie expliquera les raisons qui ont mené BAC à créer une capacité institutionnelle pour entreprendre une veille stratégique continue.  La deuxième partie présentera les divers produits de recherche que la division a conçus à travers cette fonction administrative. La troisième partie discutera l’expérience de l’équipe en  ce  qui  a  trait  la mise  en œuvre  des  produits  de  recherche.  Finalement,  la  conclusion présentera quelques défis auxquels la division de la recherche stratégique à BAC doit faire face actuellement.  

 Mots­clés : Ère numérique, gouvernement du Canada, veille stratégique, outil d’affaires, capacité institutionnelle, documents de nature informationnelle, tactique ou stratégique    Contexte  Mise en place en 2008, la division de la recherche stratégique à BAC a le mandat de fournir des  renseignements  pertinents  et  de  grande  qualité  afin  de  soutenir  la  prise  de  décision institutionnelle  et  pour  assurer  que  l’institution  demeure  pertinente  pour  la  société canadienne  à  l’ère  du  numérique.  La  division  a  également  le  mandat  d’entreprendre  la recherche et l’analyse en se basant sur des données probantes sur divers sujets de l’heure qui ont un impact direct sur BAC en tant qu’entité administrative au sein du gouvernement du Canada et à titre d’institution publique responsable de la préservation à long terme du patrimoine documentaire canadien.  

                                                        36 Ihtesham Rashid est titulaire d'un baccalauréat en arts (2003) et d’une maîtrise en analyse de politiques et administration publique (2006) de l’Université de Concordia. En 2005, il se joint à la fonction publique en tant qu’analyste junior des politiques au sein du Leadership Network et participe à l’élaboration de la politique en matière d'apprentissage, de  formation et de perfectionnement. La même année,   Monsieur Rashid se  joint à Bibliothèque et Archives Canada (BAC) où il participe au cours des cinq prochaines années au développement et implémentation de divers projets de nature stratégique tels que l'initiative sur la tenue de documents; ainsi qu’à  d’autres  projets  de  nature  opérationnelle  tels  que  La  tenue  de  documents  et  la  gouvernance  dans  le monde. Depuis 2008, Monsieur Rashid travaille en tant qu’analyste de recherche au sein de la division de la recherche stratégique à BAC.  

Page 79: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

79

 Pour atteindre ces objectifs principaux,  la division de  la  recherche stratégique développe, entre  autres,  des  produits  de  recherche  de  nature  à  la  fois  informationnelle,  tactique  et stratégique destinés à la haute direction à partir d’une veille stratégique continue dans les domaines  des  sciences  de  l’information,  de  la  bibliothéconomie,  des  technologies  de l’information, de l’administration publique, et des sciences sociales.  La présentation suivante a pour but de partager les leçons apprises par les membres de la division de la recherche stratégique de BAC. La première partie expliquera les raisons qui ont mené BAC à créer une capacité institutionnelle pour entreprendre la veille stratégique continue.    La  deuxième  partie  discutera  des  produits  de  recherche  que  la  division  de recherche  a  développée  à  travers  cette  fonction  administrative.  La  troisième  partie partagera  l’expérience  de  l’équipe  en  ce  qui  a  trait  la  mise‐en‐œuvre  des  produits  de recherche.   Finalement,  la conclusion présentera quelques défis auxquels  la division de  la recherche stratégique à BAC doit faire face.   I ­ Le problème  Aujourd'hui, la vitesse de l'innovation et la démocratisation de la technologie ont conduit à l'émergence  d'une  classe  d’utilisateur‐créateur,  des  usagers  qui  consomment  autant  de produits  numériques  qu’ils  en  produisent.  Cela  a  contribué  à  une  surabondance d'information, dont la plupart est de valeur transitoire (IDC, 2008). Par exemple, on n'a qu'à penser au phénomène récent de mashups, vidéos sur Youtube et des messages sur Twitter et Facebook. Dans ce contexte, la technologie transforme la façon dont nous participons et communiquons les uns avec les autres. Du point de vue de BAC, ces changements sociétaux à  l'ère  numérique  nous  poussent  non  seulement  à  réviser  nos  pratiques  et  méthodes existantes  qui  visent  à  acquérir,  à  rendre  accessible  et  à  préserver  le  patrimoine documentaire  du  Canada  pour  les  générations  actuelles  et  futures,  mais  aussi  à  nous questionner  sur  la  manière  dont  nous  pouvons  demeurer  pertinents  aux  yeux  de  nos usagers à l’ère numérique. Pour les professionnels de BAC, il n’est plus possible de faire face aux  défis  du  21ème  siècle  en  adaptant  des  solutions  analogues  développées  d’abord  au 19ème siècle et raffinées par la suite au fil des ans.   Tout  ceci  nous  oblige  présentement  à  revoir  nos  pratiques,  en  nous  posant  certaines questions  fondamentales :  Comment  devrait  BAC  déterminer  ce  qu'il  est  important  de documenter de manière durable pour les générations actuelles et à venir? BAC devrait‐elle agir  comme  filtre  et  évaluer  toute  forme  d'information  pour  en  déterminer  la  valeur? Comment  pourrait‐on  demeurer  vigilant  à  l'égard  de  l'information  instantanée,  sans négliger  de  saisir  et  capter  d'autres  ressources  documentaires,  qui  s'avèrent  tout  aussi importantes?  Comment  devrait‐on  rassembler  et  intéresser  les  citoyens  et  les professionnels de tous les horizons autour de notre travail? Comment pourrait‐on refléter la diversité des points de  vue  et des perspectives  sur un même  sujet? Et  enfin,  comment devrait‐on collaborer avec de multiples parties prenantes? (Caron, 2010).     

Page 80: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

80

Objectifs  Pour  alimenter  la  réflexion  continue  de  la  haute  direction  sur  les  sujets  courants  qui  la préoccupent,  réduire  le  risque  d’impacts  négatifs  qui  pourraient  être  causés  par  des évènements  imprévus,  et  pour  assurer  la  planification  stratégique  à  long  terme  de l’institution,  le  Bibliothécaire  et  Archiviste  du  Canada,  en  tant  qu’administrateur  général, créa  la  division  de  la  recherche  stratégique  à  BAC  en  2008.  Cette  division  de  BAC  fut mandatée  de  concevoir  des  produits  de  recherche  tel  que  des  rapports  techniques,  des présentations,  ainsi  que d’autres produits  connexes pour  appuyer  la  prise de décision  au sein  l’institution.  Pour  atteindre  ces  objectifs,  le  cadre  exécutif  initial  au  sein  de  l’équipe adopta  une  approche horizontale  ou  la  division  se  transforma  en une boîte  de  recherche opérationnelle (se concentrant exclusivement sur  la recherche de nature informationnelle et tactique). Le changement de cadres exécutifs à BAC, incluant ceux au sein de la division de  recherche,  mena  à  l’adoption  d’une  approche  plus  hiérarchique,  ainsi  qu’un  soutien continu et direct du Bibliothécaire et Archiviste du Canada qui nous demanda de créer des rapports  de  nature  stratégique  principalement  en  s’appuyant  sur  une  veille  stratégique mettant  l’accent  sur  les  axes  de  recherche  suivante:  les  sciences  de  l’information  et  la bibliothéconomie,  les  technologies  de  l’information,    l’administration  publique,  et  les sciences  sociales.  Étant  donné  les  ressources  limitées  de  l’équipe,  les  analystes  de  la division de la recherche stratégique ont choisi d’entreprendre une veille stratégique sur ces thèmes généraux sur une base quotidienne,  ce qui  leur permettrait d’avoir un aperçu des tendances  socio‐économiques  et  technologiques  pouvant  soutenir  directement  et indirectement le développement de solutions pour les divisions opérationnels de BAC, soit l'acquisition, l'accès et la préservation des ressources documentaires.  II ­ Les solutions mises en place  Les outils et  les techniques employées par  l’équipe de  la recherche pour   bien mener  leur travail de veille ont progressivement évolués. La conceptualisation des premières ébauches en  2008  fut  tout  un  défi  car  l’équipe  avait  besoin  de  définir  la  quantité  et  la  qualité  des sources d’information à partir de rien, malgré les grands thèmes de recherche identifiés par l’administrateur général. En outre,  les débats sur la pertinence et la valeur des différentes sources  à  retenir,  de  même  que  sur  les  méthodes  de  sélection  et  de  diffusion,  ont amplement évolués. Au cours de cette première période, les analystes avaient convenu que chacun d’entre eux devrait d’abord identifier  les sources  incontournables de son domaine d’expertise.  Cela  a  permis  à  la  division  de  la  recherche  de  créer  un  outil  d’affaires transdisciplinaire  dans  les  domaines  qui  incluent  par  exemple  la  bibliothéconomie, l’informatique, l’anthropologie, les sciences de l’information, l’administration publique et  la sociologie.   Après avoir  identifié  les sources,  l’équipe avait décidé d'allouer un montant spécifique de temps  par  jour  pour  examiner  les  affaires  courantes  et  ce,  en  consultant  des  listes  de diffusion par courriel, des sites Web d’entreprises et d’institutions de mémoire et des flux RSS.  Pour  identifier  et  diffuser  les  nouvelles  tendances  repérées,  une  rencontre hebdomadaire de l'équipe permettait à chaque analyste de partager avec ses collègues ses principales conclusions. Si l'équipe était collectivement en accord à propos de l’importance 

Page 81: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

81

d’une  nouvelle  ou  d’une  tendance,  une  fiche  d’analyse  serait  créée  pour  le  bulletin d'information, un document analytique bimensuel visant à communiquer les informations identifiées, de nature tactiques et stratégiques à la haute direction de BAC. La division de la recherche  stratégique  constata  rapidement  que  ce  premier  outil  de  diffusion  de  leurs résultats  de  recherche  n’était  pas  efficace  parce  qu’il  ne  permettait  pas  de  communiquer l’information au moment opportun aux clients. Il était trop ambitieux et difficile à maintenir compte tenu du cycle de production relativement court.   Trois  ans  plus  tard,  la  situation  s’est  considérablement  améliorée.  L’équipe  développe maintenant  trois  produits  clés  de  recherche  suite  à  leur  survol  quotidien  des  sources d’information. Le premier produit,  le Business Intelligence Report (BIR), est un rapport d’analyse  trimestriel  de  nature  stratégique  qu’elle  créé  pour  la  haute  direction.  Ce document regroupe des rapports techniques, compte‐rendu de monographies ainsi qu’une analyse des tendances (identifiées, entre autres, dans des tweets quotidiens) dans les axes de recherche adoptées. Après avoir reçu une rétroaction sur  les résultats d'analyse et sur les thèmes de recherche actuels, les analystes de la division passent en revue leurs sources, de  temps  à  autre,  afin  de  s'assurer  qu'elles  sont  toujours  pertinentes.  Il  s'agit essentiellement d’une évaluation continue de  leur  fonction de veille  stratégique pour que l’équipe  puisse  continuer  d’élaborer  et  d’offrir  des  produits  de  veille  et  de  recherche  qui répondent aux besoins du cadre exécutif au fil du temps.  Le  deuxième  produit  est  un  journal  quotidien,  The  strategic­research  Daily (http://paper.li/pdesrochers/strategic‐research).  Il  présente  des  tendances  et  rassemble des  nouvelles  dans  les  domaines  de  recherche  identifiés  précédemment.  Accessible  au public, mais  conçu principalement  pour  la  haute  direction de BAC et  pour  son personnel interne, ce produit de recherche de nature informationnelle recueille les tweets de l’équipe de recherche et le présente d’une manière efficace.   Le troisième produit, la veille de média, est un document d'analyse de nature tactique qui est  produit  occasionnellement  à  la  demande  de  la  haute  direction  pour  soutenir,  par exemple,  les  prochaines  réunions,  des  présentations  ou  des  « questions  d'actualité  »  qui peuvent  avoir  un  impact  sur  BAC  dans  un  avenir  proche.  Les  veilles  de médias  récentes portaient sur des sujets variés tels que l'accès à l'information et l'économie numérique. La production  de  ce  type  de  rapport  d’analyse  repose  sur  la  surveillance  et  l’analyse  des travaux  entrepris  par  la  Chambre  des  communes,  les  réunions  du  Comité  permanent  du Sénat,  les  blogs  de  spécialistes  du  domaine  (juristes,  économistes,  professeurs universitaires, etc.) et de plus en plus, les médias sociaux comme Twitter, en particulier les tweets des  journalistes qui  rapportent  les nouvelles en direct  des rencontres des comités permanents.  III ­ Mise en œuvre des solutions et résultats obtenus  La division de recherche a appris beaucoup de choses grâce à la mise en œuvre du bulletin d’information.  Premièrement,  le  délai  entre  l'identification  et  la  transmission d'informations stratégiques par la division de la recherche étaient beaucoup trop longs. Le seul moyen de contact de  l’équipe avec  leurs destinataires visés (principalement,  la haute 

Page 82: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

82

direction) était uniquement à travers le bulletin d'information. En raison du flux de travail, qui  incluait  la  création d'une  version  française  et  anglaise  du document,  les membres  de l’équipe  avaient  constaté  que  l’information  qu’ils  communiquaient  avait  peu  de  valeur stratégique  au  moment  où  elle  se  rendait  à  leur  destinataire.  Deuxièmement,  au  lieu d'analyser  la  somme  des  informations  repérées,  l’équipe  se  concentrait  plutôt  sur la microanalyse de ces informations. Par conséquent, elle n’était pas en mesure de fournir une vue globale des tendances émergentes. La troisième et dernière leçon apprise réside dans le fait que le changement rapide des priorités, ainsi que le manque d’un soutien continu de la haute  direction,  ne  facilitaient  pas  l’existence  du  bulletin  d’information  en  tant  qu’outil analytique institutionnel. Ce premier document analytique ne répondait pas aux attentes et aux besoins du public  cible.  Il  fut  abandonné    après un cycle de vie  très  court  et  l’équipe retourna  à  la  planche  à  dessin  pour  trouver  une  meilleure  méthode  de  diffusion  des résultats de leurs travaux de veille et de recherche.   Avec  la  création  du  BIR,  les  analystes  commencèrent  à  aborder  ces  questions  ainsi  que d’autres défis  identifiés. Tout d'abord,  sous  la direction du Bibliothécaire et archiviste du Canada,  il  a  été  convenu  que  l’administrateur  général  de  l'établissement  et  la  haute direction serait les clients principaux du rapport analytique. Pour répondre à leurs besoins et réflexions qui sont en évolution constante,  la division décida dès le départ d’intégrer le processus d’évaluation dans leur plan de travail. De ce fait, une fois le BIR distribué, l’équipe demande à ses clients de leur faire part de leurs opinions et commentaires sur le choix des thèmes  et  le  contenu  général  pour  qu’elle  soit  assurée  d’être  sur  la  bonne  voie institutionnelle.   Ainsi,  on  peut  noter  une  progression  naturelle  des  thèmes  de  recherche  qui  reflètent  les besoins changeants de  la haute direction et du Bibliothécaire et archiviste du Canada. Par exemple,  le  premier  numéro  du  BIR  contient  deux  sections:  1)  Affaires  et  tendances actuelles  et  émergentes,  et  2)  Analyse  de  la  recherche  sur  des  thèmes  d'intérêt  du Bibliothécaire et archiviste du Canada. Cette section a été subdivisée en cinq sous‐sections: la valeur des ressources de l'information et information du secteur public; transformation des  institutions  de  l’information,  les  idéologies  de  l'information  et  l'information  des professions;  l’information  et  des  communications;  le  gouvernement  et  la  gouvernance;  et l’épistémologie sociale.   Le dernier numéro du BIR (no 6), pour sa part, a été composé de trois sections: 1) la théorie sociale,  2)  le  perfectionnement  professionnel  en  sciences  de  l'information;  et  3)  la modernisation,  elle‐même  composée  des  sous‐sections  suivantes:  1)  Acquisition,  2) Exploration des ressources, et 3) Préservation. Dans un sens, l’identification et l’analyse des sources clés portant sur  l'épistémologie sociale,  tels que Manuel Castells Communication Power (2009), et les écrits de Luciano Floridi, entres autres, ont progressivement influencé les priorités du Conseil de direction, qui à son  tour, a  redirigé  les priorités de  la division. C'est‐à‐dire,  la communication des résultats de  la veille a conduit  les clients à reconnaître l'importance des théories sociales et critiques, en termes généraux et en termes spécifiques (leur  application  dans  les  sciences  de  l'information  et  archivistiques).  Leur  appétit grandissant  pour  ce  sujet  a  conduit  les  membres  de  la  division  à  découvrir  des  joyaux récents tels que l’ouvrage Critical Theory for Library and Information Science (2010) et 

Page 83: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

83

le travail de Barry Wellman sur l'analyse des réseaux. Ces études sont actuellement en train de guider le développement de projets internes ainsi que des discussions continues avec les parties prenantes à  l'égard de discussions  autour des  compétences des professionnels de l'information au 21e siècle.  Donc  après  avoir  identifié  leur  auditoire  clé  et  pour  se  donner  une marge  de manœuvre suffisante pour développer  le BIR,  l’équipe décida de garder un cycle de production assez souple  pour  publier  un  nouveau  numéro  à  tous  les  trois  ou  quatre  mois.  Ceci  a  permis d'adopter un régime de publication qui a déjà fait ses preuves dans le monde académique, et plus encore, de suivre l'année fiscale du gouvernement du Canada (septembre‐avril).  La division a également convenu collectivement que compte tenu de la nature confidentielle du document  (destiné  pour  la  circulation  interne  seulement)  et  de  leur  public  cible (l’administrateur général et la haute direction), chaque analyste est encouragé d’écrire des articles dans  la  langue de son choix. Le BIR sera  traduit  lorsqu’une décision sera prise au sein  de  l’institution  de  publier  une  version  abrégée  (qui  sera  plus  de  nature informationnelle) pour partager nos découvertes avec la communauté externe.  Pour  offrir  véritablement  une  « vision  d'ensemble »  de  l'analyse  de  tendances  dans  les domaines indiqués, les membres de l’équipe décidèrent que la collecte de données doit être modifiée,  et  que  l'analyse  doit  se  faire  au  niveau  macro.  Ainsi,  en  plus  de  consulter  les sources  traditionnelles  (par  exemple,  les  périodiques,  les  livres  et  les  documents d'archives),  les analystes commencèrent également à suivre de près  les discussions et  les présentations en format vidéo mise en ligne sur les sites populaires comme Youtube, TED Conférence,  et  tel  que  mentionné  précédemment,  les  réseaux  sociaux  comme  Twitter. Maintenant en ce qui concerne l'analyse au niveau macro,  les analystes veillent à ce qu’ils aient  analysé  leurs  données  au  niveau  du  thème  (par  exemple,  l'acquisition)  et  non  au niveau de l’unité (par exemple, un seul article sur l'acquisition). En outre, ils ont développé un  cadre  analytique  pour  s'assurer  que  tous  les  conseils  fournis  à  leurs  destinataires  à travers le BIR (et autres produits connexes), a pris en compte les évolutions et les priorités du  gouvernement  canadien  en  place    et  au  niveau  international,  de  l'état mondial  socio‐économique  des  affaires  et  de  développement  dans  les  domaines  indirectement  liés  (les technologies  de  l'information,  la  théorie  sociale,  l'anthropologie,  les  sciences  humaines numériques, etc.). En adoptant cette approche, la division de la recherche est confiante que leur public est informé de tous les défis potentiels qui peuvent surgir et ou qui doivent être traitées dans un  avenir proche.  Et  dans  l'ensemble,  en  adressant  les  carences du bulletin d’information.  En  tant  que membre de  l’équipe,  je  crois  que  la  division de  la  recherche a créé  un  outil  essentiel  au  niveau  institutionnel  qui  facilite  la  prise  des  décisions  et l'élaboration d’une vision à long terme pour  BAC.   Avec  la  création  du  strategic­research  Daily,  la  division  de  la  recherche  a  finalement réussi  à  résoudre  un  des  plus  grands  défis:  le  partage  d'information  de  nature informationnelle en temps opportun par un moyen accessible et facile. Le chemin emprunté pour  arriver  à  cette  étape  a  néanmoins  été  long  et  ardu.  Avec  la  création  du  BIR,  les principaux  résultats  identifiés  et  capturés par  l'intermédiaire de  la  veille  stratégique,  ont été communiqués par le biais de la première section du BIR. Ce n'est qu'après la publication du  6e  numéro  de  ce  rapport  que  l’équipe  commença  a  expérimenté  avec  les  nouvelles 

Page 84: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

84

technologies pour faciliter la diffusion des constatations quotidiennes. En fait, pendant cette période,  les  « trouvailles »  quotidiennes  étaient  communiquées  directement  au Bibliothécaire et archiviste du Canada par courriel. Cette approche était inefficace.   Pour  contrer  cette  inefficacité,  l’équipe  créa  un  flux  RSS  interne.  Mise  à  jour hebdomadairement, le public ciblé pouvait maintenant parcourir les sources beaucoup plus facilement et  ce,  sur une  interface dynamique. Bien que  l’équipe ait  reçu des éloges pour cette  nouvelle  approche,  on  réalisa  rapidement  que  cette  méthode  de  communication nécessitait beaucoup de ressources. En fait, les ressources allouées à l'exécution de la veille stratégique  étaient  désormais  transférées  progressivement  à  la  programmation  et  les fonctions de saisie des données ; deux activités nécessaires à  l'entretien de notre flux RSS interne.  Cette  approche  fut  donc  abandonnée  suite  a  la  découverte  du  site  web : www.paper.li.   Paper.li facilite la découverte de contenus pertinents et d'autres personnes d'intérêt sur le web en se connectant avec le compte Twitter ou Facebook de l'usager. Pour être concis en ce qui concerne Twitter, un  journal est créé en utilisant  tous  les  liens (articles,  sites web, annonces  de  conférences,  etc.)  partagés  au  cours  des  24  dernières  heures  par  l'usager (rédacteur  en  chef)  et  les  personnes  qu'il  suit  (les  contributeurs).  Un  journal  peut également être créé en utilisant une balise # Twitter (#hashtag), autrement dit, un mot‐clé. Il  s'agit d'un  journal #tag.  Il  sera créé en utilisant  tous  les  liens partagés au cours des 24 dernières  heures  avec  la  balise  #  associée,  mais  ne  sera  pas  détenu  par  l'utilisateur.  Le dernier type de  journal qui peut être créé en utilisant  la page Web www.paper.li est basé sur une liste Twitter (Twitter@list). Ce journal est créé en utilisant tous les liens partagés au cours des 24 dernières heures par tous les usagers de Twitter sur la liste sélectionnée.  La division de la recherche était déjà en train d'expérimenter avec Twitter et avait créé une liste composée de membres de l'équipe pour faciliter l'accès à  la haute direction à la veille stratégique sur une base quotidienne. Comme il y avait un consensus général à l'interne que les tweets quotidiens (repérage des principaux résultats) étaient de caractère informatif, ils pouvaient être partagés avec les parties  intéressées (personnel  interne et public externe). L’équipe  créa  donc The  strategic‐research  daily.  Les  avantages  de  cet  outil  par  rapport  à ceux utilisés précédemment  (le courriel par exemple,  le  rapport officiel bilingue et  le  flux RSS)  étaient  nombreux.  Tout  d'abord,  on n’avait  pas  besoin  d'allouer  des  ressources  à  la création de gabarits,  à  la programmation ou autres  activités de nature  administratives et techniques. Deuxièmement, les usagers pouvaient accéder le quotidien à partir du site web sans qu’il leur soit nécessaire de créer un compte Twitter. Troisièmement, le site web offrait des  données  de  base  (par  exemple,  le  nombre  d'abonnés)  pour  évaluer  l’utilisation  du quotidien. Enfin,  le quotidien offrait aux analystes de  la division une occasion de résauter avec la communauté de la science de l’information et autres en partageant leurs trouvailles avec celle‐ci.   Conclusion  Pour conclure, avant 2008, la veille stratégique en tant qu'une fonction d’affaires n'était pas institutionnalisée  à  BAC.  En  fait,  cette  fonction  était  entreprise  d’une  manière  plus 

Page 85: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

85

organique  parce  que  chaque  secteur  opérationnel,  incluant  les  chefs  de  projet,  était responsable  de  la  collecte  de  renseignements  sur  une  base  régulière.  Comme  les  récents succès  de  l'organisation  (par  exemple,  la  Directive  sur  la  tenue  des  documents)  le démontrent,  cela  n'a  pas  affecté  la  production  institutionnelle  de  BAC.  Toutefois,  les initiatives  de  modernisation  en  cours  nous  ont  permis  de  reconnaître  qu'il  y  avait  un déséquilibre dans  la maturation des connaissances à  travers  l'institution. C'est‐à‐dire,  il y avait  des  poches  de  divisions  opérationnelles  au  sein  de  notre  institution,  ceux  qui  ont travaillé  sur des projets pilotes novateurs pour être précis, qui étaient plus avancés dans leur  réflexion  que  d'autres  divisions.  À  ce  titre,  il  devint  de  plus  en  plus  clair  qu'il  est presque  impossible  d’avoir  une  discussion  franche  entre  le  personnel  interne  pour travailler à l'élaboration de solutions pour répondre aux nouveaux défis à l'ère numérique. En outre, alors que les cadres professionnels, au niveau opérationnel fut informés dans leur domaine, il était également devenu évident que notre institution avait besoin de développer une approche transdisciplinaire de la veille stratégique institutionnelle.  Tel qu’identifié par le gouvernement du Canada, l’administrateur général doit, entre autres, posséder  une  habilité menant  à  la  réflexion  stratégique.  C’est‐à‐dire,  il  doit  dénoter  une profonde  compréhension  des  lois  et  de  son  rôle  dans  son  interprétation  des  enjeux; identifier  les  liens  entre  les  tendances  mondiales,  sociétales  et  économiques,  les préoccupations  des  intervenants,  le  programme  politique,  les  valeurs  de  la  fonction publique  ainsi  que  les  questions  ministérielles,  régionales  et  horizontales;  extraire  les enjeux  clés  des  contextes  complexes,  ambigus  et  instables;  et  étudier  les  problèmes  en profondeur avant d’élaborer des solutions. Pareillement, l’administrateur général doit faire preuve  d’un  bon  jugement  et  offrir  des  conseils  éclairés  en  matière  de  politiques  au ministre;  élaborer  une  vision  et  des  politiques  qui  se  fondent  sur  la  vision  globale  et  les politiques dans le contexte national ; mettre de l’avant, au‐delà du statu quo, la contribution possible de son ministère à  la société ; établir  les objectifs  transformationnels nécessaires dans une perspective vaste et avec des échéances à  long terme ;  favoriser  la discussion et suscite  des  idées  qui  transcendent  les  échelons  hiérarchiques,  les  ensembles  de compétences  et  qui  proviennent  de  différents  intervenants  et  finalement  doit  prévoir  les nouveaux enjeux et  l’évolution du contexte et élaborer rapidement des stratégies visant à résoudre les problèmes ou à saisir les occasions qui se présentent (Bureau du Conseil privé, 2010).  Pour  relever  les  défis  institutionnels  et  pour  répondre  aux  attentes  individuelles,  le Bibliothécaire et archiviste du Canada a conçu notre division de recherche en 2008. Comme ce  fut élaboré,  il a  fallu plusieurs années et  le soutien continu de  la haute direction avant que  la  division  de  la  recherche  stratégique  fut  capable  de  s’établir  comme  un  organe important de l'institution qui désormais, facilite la discussion non seulement au niveau de la haute direction, mais aussi au niveau opérationnel. Cependant, plusieurs obstacles doivent être  surmontés:  la  volonté  du  personnel  interne  d’adopter  les  conclusions  de  recherche quand  elles  contredisent  leurs  opinions  traditionnelles,  le  développement  d'une organisation  de  données  conviviales  d'archivage  pour  saisir  et  faciliter  l'accès  à  nos constatations à l'état brut et finalement, du point de vue de l'auteur, le développement d'un réseau  informel de  chercheurs  et  analystes  à  travers  le Canada,  facilitant  la  collaboration 

Page 86: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

86

pour résoudre les grands défis communs auxquels font face les bibliothèques et les archives au 21e siècle et dans l’avenir.  Bibliographie  Bourgon, Jocelyne. Quatrième rapport annuel au Premier ministre sur la fonction, Bureau du Conseil privé, 1997.  Brouard, François. «La veille stratégique, un outil pour favoriser l’innovation au Canada»,  2002, Statistics Canada Economic Conference, Ottawa, May 2002.  Bureau du Conseil privé. Lignes directrice du programme de gestion du rendement : Sous‐ministres,  sous‐ministres  délégués  et  personnes  rénumérées  selon  l'échelle  salariale  GX. Directive, Gouvernement du Canada, 2010.  Calof, Jonathan and F. Brouard. "Competitive Intelligence in Canada." Journal of Competitive Intelligence and Management 2, no. 2 (Summer 20004): 1‐21.  Caron,  Daniel  J.  "Édifier  ensemble  notre  mémoire  continue  :  Constituer  un  patrimoine documentaire  représentatif."  Library  and  Archives  Canada.  March,  22,  2010. http://www.collectionscanada.gc.ca/bac/012007‐1000.001‐f.html (accessed 02 19, 2011).  Castells, Manuel. Communication Power. New York: Oxford University Press, 2009.  Floridi, Luciano. Information: A Very Short Introduction. New York: Oxford University Press, 2010.  —. The Philosophy of Information. New York: Oxford University Press, 2011.  IDC.  The  Diverse  and  Exploding  Digital  Universe  :  An  Updated  Forecast  of  Worldwide Information Growth Through 2011. White Paper, Framingham: IDC, 2008.  Critical Theory for Library and Information Science : Exploring the Social  from Across the Disciplines.  (  eds)  Leckie,  Gloria  J,  Given,  Lisa  M.  &  John  E  Bushman,  Santa  Barbara: Libraries Unlimited, 2010.  Wellman,  Barry  &  S.D.  Berkowitz.  Social  Structures:  A  Network  Approach.  New  York: Cambridge University Press, 1988.  Wouters, Wayne G. Dix­huitième rapport annuel au Premier ministre sur la fonction. Bureau du Conseil privé, 2011.  

Page 87: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

87

Médias publics en Afrique de l’Ouest : enjeu de prise et de conservation du pouvoir  

Sékouna Keita37 Directeur général adjoint du Quotidien national Horoya  

Ministère de l’Information BP. 191 Conakry, Guinée Tel. 224 68 21 47 32 

Email : [email protected]  

 Résumé : Les médias  de  service  public,  généralement  appelés médias  d’Etat,  constituent des moyens stratégiques de conquête et de conservation du pouvoir en Afrique. Composés principalement  de  la  radio  et  de  la  télévision  nationales,  ils  procurent  la  légitimité  et  la puissance à ceux qui en prennent le contrôle. Malgré le pluralisme médiatique, l’audiovisuel public garde une place considérable dans les stratégies de communication, d’information ou de désinformation ciblant les masses populaires. La prise de contrôle de ces médias est un enjeu essentiel dans la bataille pour le pouvoir,  que ce soit par les élections ou par la force.  Mots­clés : Médias, information, Afrique, démocratie, politique, pouvoir   Introduction  La bataille de la communication est un enjeu important tant en période de crise qu’en temps normal, quand on sait que la qualité de l’information peut avoir une influence significative sur la prise de position et la réaction de ceux à qui l’on s’adresse. Chaque partie s’évertue à convaincre le plus tôt et  le mieux possible de la  justesse et du bien‐fondé de son point de vue sur la situation. Pour ce faire, en Afrique, la radio et la télévision publiques dénommées « Médias d’État » sont l’objet de toutes les convoitises.  

Les médias sont considérés comme la pierre angulaire de la démocratie, en ce sens que par leur  indépendance,  leur  professionnalisme  et  leur  objectivité,  ils  servent  de  plateforme                                                         37 Sékouna Keita est docteur en Sciences de l’information et de la communication de l’Université Paul Verlaine de Metz depuis 2009 et titulaire d’un Master en Administration des affaires (IAE/UPVM) également obtenu en France en 2006. Il détient un DESS en Liberté de presse et démocratie de l’Université de Montréal au Canada (2000) et une Maîtrise en Journalisme de Université de Conakry en Guinée (1997). Il a été journaliste‐reporter au Quotidien national Horoya à Conakry de 1997‐2003 puis durant 4 ans responsable de la communication de l’antenne guinéenne de l’Union internationale de la presse francophone (UPF) à Conakry. Conjointement à ses études menées en France, il sera de 2004 à 2010, moniteur chargé de l’utilisation des nouvelles technologies à la bibliothèque universitaire de Metz. Depuis mars 2011, il est Directeur général adjoint du Quotidien national Horoya.  Il est  l’auteur d’articles et de communications dans des colloques et des conférences en Europe, en Afrique, au Moyen‐Orient et au Canada.  

Page 88: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

88

pour  le débat,  ils permettent  l’expression de  tous  les courants de pensée et  la production d’une  information  juste  en  direction  du  public.  Dans  la  réalité  des  faits,  force  est  de constater que nombre de médias, au Nord comme au Sud, sont loin de jouer correctement ce rôle. Que ce soit en Afrique ou ailleurs, les pressions, les manœuvres d’intimidation, les tentatives  de  prise  de  contrôle  ou  de  manipulation  de  la  part  du  pouvoir,  de  groupes économiques et de lobbies divers entravent l’exercice du journalisme professionnel.  

Les médias constituent un élément central sur lesquels s’appuient les régimes autoritaires et  dictatoriaux  pour  mettre  en  œuvre  leur  stratégie  de  communication  fondée  sur  la propagande  et  la  désinformation.  Une  « manipulation  de  l’opinion  publique,  à  des  fins politiques, avec une information traitée par des moyens détournés » (V. Volkoff 1999 : 31). La désinformation est donc une volonté délibérée de déformer les faits et la réalité dans le but  d’induire  l’opinion  en  erreur  ou  de  lui  faire  croire  à  autre  chose  que  la  réalité.  Cette pratique,  l’Afrique  en  connaît  encore, malgré  une  évolution  significative  de  l’univers  des médias. C’est une méthode qui a toujours été employée afin de convaincre le peuple, de le mobiliser dans le sens voulu et l’amener à accepter des choix politiques mêmes injustes.  

I ‐ Radio et télévision publiques : des instruments d’importance stratégique  

En  Afrique,  mieux  qu’ailleurs,  la  télévision  et  surtout  la  radio  permettent  de  toucher  la majeure partie du public. En décembre 2010, la situation post électorale en Côte d’Ivoire a ramené  au  premier  plan  le  rôle  central  que  joue  l’audiovisuel  public  dans  la  conquête, l’exercice  et  la  conservation  du  pouvoir  en  Afrique.  Le  premier  acte  de  la  confrontation entre  les  deux  camps  chacun  revendiquant  la  victoire  a  été  autour  de  la  Radiotélévision ivoirienne (RTI) dont la prise de contrôle apparaissait pour les uns et les autres comme une nécessité vitale pour mettre en place une communication de crise, adresser des messages aux  Ivoiriens  et  requérir  leur  soutien.  De  part  et  d’autre,  le  fait  de  contrôler  la  RTI apparaissait comme un avantage considérable pour gagner la bataille de la communication et  réussir  la  mobilisation  des  troupes.  En  pareil  contexte,  « l’information,  c’est  le pouvoir »38.La RTI est sous le contrôle du gouvernement en place qui nomme son directeur général  et  ses  principaux  responsables,  lesquels  lui  restent  favorables  ou  soumis.  Le président  sortant  Laurent  Gbagbo,  battu  dans  les  urnes  selon  la  Commission  électorale indépendante  (CEI)  et  les  Nations‐Unies  mais  proclamé  vainqueur  par  la  Cour constitutionnelle, exerçe un contrôle absolu sur la RTI et s’en sert comme un instrument de légitimation de son pouvoir à travers des discours et des messages favorables à son camp et hostiles à ses adversaires.  

Conscient de l’importance cruciale de l’information dans la formation et la prise de contrôle de  l’opinion  publique,  Alhassane  Dramane  Ouattara,  candidat  du  RHDP  (Rassemblement des  Houphouetistes  pour  la  Démocratie  et  la  Paix)  déclaré  vainqueur  de  l’élection présidentielle  du  28  novembre  par  la  CEI  et  reconnu  par  la  communauté  internationale comme le président légitime de la Côte d’Ivoire, décide de prendre le contrôle de la RTI. Il 

                                                        38  Propos  de  John  Foster  Dulles,  Secrétaire  d’État  américain  du  21 janvier 1953  au  22 avril 1959,  dans  Le Monde  diplomatique  de  janvier  1979  (p.  18),  cité  dans  CHAR  Antoine,  1999,  La  guerre  mondiale  de l’information, Québec, Presses de l’Université du Québec, coll. Communications et relations publiques. 

Page 89: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

89

nomme un nouveau directeur général  et  son Premier ministre Guillaume Soro  s’engage à aller l’installer le 16 décembre 2010 en appelant ses partisans à se mobiliser et à les suivre. La  suite  est  tragique :  l’armée  fidèle  au  président  sortant  L.  Gbagbo  intervient  pour empêcher  la marche  vers  le  siège  de  la  RTI,  tire  à  balle  réelle  sur  les manifestants,  une trentaine de personnes sont tuées et des dizaines d’autres sont blessées. La RTI reste sous bonne  garde,  contrôlée  par  le  pouvoir  de  M.  Gbagbo.  Cet  épisode  est  très  révélateur  de l’importance  stratégique  de  l’audiovisuel  public  qui  reste,  en  Afrique,  le  plus  facilement accessible aux masses populaires. La mainmise du pouvoir sur ces médias est une pratique inébranlable sur le continent depuis les indépendances.  

En Afrique en général, lors des coups d’État militaires ou tentatives de prise de pouvoir par la  force qui  émaillent  le  continent depuis  cinq décennies,  l’enjeu principal  est  toujours  la prise de contrôle du siège de la radiotélévision publique. En 1999, pendant son coup d’État qui a renversé le président Henri Konan Bédié, c’est à la RTI que le général Robert Guéï s’est rendu pour lire sa déclaration de prise de pouvoir. En Guinée, pendant le coup d’État qui a suivi  la  mort  du  président  Lansana  Conté,  en  décembre  2008,  l’objectif  numéro  un  des putschistes a été la prise de contrôle de la Radiotélévision guinéenne (RTG), mais aussi de toutes  les radios privées, réduisant ainsi au silence  les représentants du gouvernement et des institutions de la république. Totalement privés de moyens de communication de masse et rendus impuissants, ces derniers devaient perdre la face.  

Historiquement  bien  implantées,  la  radio  et  la  télévision  bénéficient  de  l’avantage  de  la notoriété.  Pourquoi  ces  médias  sont‐ils  si  importants ?  En  Afrique,  les  médias  d’État confèrent  la  légitimité  et  la  puissance  à  celui  qui  les  contrôle.  Ce  sont  des  outils  de communication  classiques  qui  restent  les  plus  accessibles  aux populations  africaines.  Ces dernières,  du  fait  de  l’analphabétisme,  sont  tentées  de  croire  ou  de  prendre  pour  vérité absolue  tout  ce qui  vient de  ces médias.  Plus qu’ailleurs,  la  télévision  et  la  radio ont une force  de  pénétration  et  un  impact  énormes  en  Afrique.  Elles  permettent  d’atteindre  des publics plus larges et plus nombreux. 

Conscients de cette place décisive dans  la démarche vers  le peuple,  les dirigeants en  font leur  première  arme  de  communication.  Une mainmise  qui  se  reflète  dans  le  contenu  de l’information produite. L’information est orientée, peu critique mais toujours insistante sur le  côté positif des dirigeants et de  leur action.  « L’actualité événementielle ne  semble pas toujours  commander  la  hiérarchie  de  l’information  du  journal  qui  commence  le  plus souvent  par  des  nouvelles  officielles  ou  institutionnelles  et  des  communications gouvernementales »  (Tozzo,  2004 :  106).  En  Côte  d’Ivoire,  après  la  proclamation  des résultats de la présidentielle de 2010, le fait que la RTI ne faisait plus aucune référence au candidat de l’opposition Alassane Dramane Ouattara, ne citant même plus son nom, est une illustration de  cette  réalité. L’objectivité et  l’impartialité,  gages de  la  crédibilité du  travail journalistique,  sont  ignorées  volontairement  ou  sous  contrainte.  « Croire  que  les  médias informent  ou  permettent  de  mieux  saisir  la  réalité  sociale  est  à  mon  avis  un  leurre », souligne M.  El  Yamani  (1998 :  11)  en  introduisant  un  ouvrage  qui  explique  comment  les organes d’information occultent certaines réalités et empêchent le public de comprendre la situation réelle. 

Page 90: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

90

Moyens  de  communication  de  masse  importants,  la  radio  et  la  télévision  publiques,  en Afrique plus qu’ailleurs,  restent sous strict contrôle des gouvernants qui  les orientent,  les censurent,  les  manipulent  à  souhait.  Avec  une  intervention  directe  et  constante  dans  le contenu  de  l’information.  A.  Char  (1999 :  50‐52)39,  dans  l’analyse  générale  qu’il  fait  des logiques de choix de l’information selon le type de régime et le contexte historique, permet une  bonne  compréhension  de  cette  situation.  S’agissant  des  pays  en  développement, notamment  ceux  d’Afrique,  il  résume  ainsi  les  critères  de  l’information :  « l’information, c’est  le  progrès,  la  croissance ;  l’information  ce  sont  de  nouveaux  barrages,  de  nouvelles routes,  de  nouveaux  hôpitaux ;  l’information  doit  « enseigner  et  instruire »,  en  mettant l’accent  sur  les  réussites  de  la  nation,  en minimisant  ou  en  ignorant  tout  simplement  les aspects négatifs,  les  échecs ;  l’information c’est  l’intégration nationale ;  c’est  en  résumé  le journalisme de développement et de responsabilité sociale ». 

La tradition de mainmise totale sur les médias publics est consécutive à « la généralisation des  autoritarismes  au  lendemain  des  indépendances »  (Gazibo,  2006 :  86).  Ces  médias, pratiquement  inaccessibles  à  toute  voix  discordante  du  temps  des  régimes  autoritaires, avaient  alors  été  considérés  comme  des  instruments  devant  servir  à  l’éducation  et  à l’endoctrinement des masses populaires. De cette façon, le pouvoir cherche à s’assurer que la  population  reçoive  de  l’information  produite  et  diffusée  suivant  la  ligne  politique officielle définie. L’objectif principal étant de garantir la solidité du régime, notamment en créant  le  consensus  et  en mobilisant  le  soutien  des  citoyens,  grâce  à  une  information  de propagande  assurant  la  promotion  de  l’idéologie  du  parti.  En  effet,  hormis  quelques exceptions,  les  États  africains  constitués  après  les  indépendances  étaient  des  régimes autoritaires  où  les  règles de démocratie  et  de bonne  gouvernance  étaient  ignorées.  « Des années 1960 à 1990, la plupart des pays africains ayant vécu sous l’emprise de ces régimes coercitifs  et  répressifs,  les moyens  de  communication  étaient  des  instruments  au  service d’une idéologie et d’un pouvoir arbitraire » (Makosso Kibaya, 2007 : 90). 

II ­ Ouverture démocratique et nouveau paysage médiatique  

Longtemps ignorées et bafouées sur le continent, des indépendances au début des années 90,  les  libertés  publiques  fondamentales,  dont  celles  relatives  à  la  libre  expression  des opinions  et  aux  médias,  ont  refait  surface  à  la  faveur  de  l’émergence  des  processus  de démocratisation. « A la fin de la décennie quatre‐vingt, un composé très réactif de pressions internationales  et  de  contestations  intérieures  a  fini  de  mettre  à  mal  l’ordre  ancien  en Afrique.  Celui‐ci  était  fondé  sur  un  principe  d’autorité  que  les  graves  difficultés économiques  avaient  déjà  amoindri.  L’une  des  premières manifestations  tangibles  de  cet affaiblissement  est  le  relâchement  du  monopole  sur  l’information »  (Perret,  2005 :  9).  À partir  de  là,  des  réformes  institutionnelles  s’engagent  sur  le  continent.  Des  conférences nationales  sont  organisées  et  de  nouvelles  constitutions  démocratiques  adoptées.  Dans chaque  pays,  la  constitution  consacre  les  principes  fondamentaux  et  universels  de  la démocratie  et  de  l’État  de  droit :  la  séparation  des  pouvoirs,  le  suffrage  électoral, l’indépendance de la justice, la reconnaissance des partis politiques et des organisations de la société civile, la liberté d’expression, les médias libres.                                                          39 CHAR Antoine, 1999, La guerre mondiale de l’information, Québec, Presses de l’Université du Québec. 

Page 91: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

91

Une  traduction  directe  de  cette  ouverture  démocratique  est  le  pluralisme  médiatique concrétisé par la naissance des médias privés, principalement des journaux et des stations de  radios.  « D’une presse monopartisane marquée par  l’intervention directe des États,  au sein de laquelle les journalistes jouaient le rôle d’agents de développement et de la pensée unique  […]  on  est  passé  au  début  des  années  1990  à  l’explosion  des  journaux indépendants »40.  L’étau  s’étant  un  peu  desserré,  on  assiste  à  l’émergence  d’un  contexte marqué par une pluralité des  titres de presse  et  des  stations de  radios, mais  aussi  à  une diversification  des  contenus  médiatiques.  Les  citoyens,  téléspectateurs,  auditeurs  et lecteurs, constamment mieux avertis, sont à la recherche d’informations justes et complètes sur  ce  qui  se  passe  dans  leur  pays  et  autour  d’eux.  « L’ère  des  réseaux  inaugure  un nouveaux mode de relations entre les citoyens et les hommes politiques » (Wade et Falcand, 1998 : 169). 

Les progrès technologiques ont permis de diversifier et de renforcer le paysage médiatique africain.  Au  cours  des  deux  dernières  décennies,  ils  ont  généré  de  nouveaux  moyens d’information et de communication d’une toute autre nature : des moyens numériques qui renforcent le rôle et la portée des médias classiques et permettent aux citoyens d’accéder à davantage de sources d’informations et d’espaces de libre expression. Comme le remarque J.‐F.  Havard  analysant  l’influence  des  médias  privés  sur  l’émergence  d’une  conscience citoyenne  et  sur  l’avènement  de  l’alternance  politique  en  Afrique,  « le  pluralisme  des médias est en lui‐même un facteur de démocratisation » (Havard, 2004 : 25). L’un des faits marquants  est  la  naissance  des  médias  en  ligne  qui  participent  de  l’animation  du  débat démocratique, de la prise de conscience et de la formation de l’opinion publique.   Ces médias modernes,  fruit des progrès technologiques, ont aidé à  faire face à un besoin : celui  d’un  déficit  de moyens  d’expression médiatiques  libres.  Ils  ont  contribué  à  abattre, sinon  à  affaiblir,  l’écran  de  difficultés mises  en  place  par  les  pouvoirs  politiques  afin  de restreindre la marge de manœuvre des membres de l’opposition politique, des acteurs de la société civile et des citoyens en général. En se demandant si  les TIC sont un viatique pour démocratiser  l’Afrique,  J.‐M.  Ledjou  (2008 :  279)  explique  qu’elles  engendrent  « de nouvelles  logiques  d’expression  du  collectif  et  qu’elles  contraignent  les  gouvernements  à une plus grande transparence ».  Au  Sénégal,  en  2000,  l’un  des  facteurs  de  transparence  de  l’élection  présidentielle  qui  a porté  l’opposant  historique Abdoulaye Wade  au pouvoir  et  sonné  la  défaite  du président sortant Abdou Diouf  a  été  le  rôle  joué  par  les  radios  privées  et  les  téléphones  portables. Dans  un  document,  l’Institut  Panos,  une  ONG  qui  œuvre  au  pluralisme  médiatique  en Afrique  de  l’Ouest,  explique  par  exemple  le  rôle  capital  joué  dans  cette  alternance démocratique par « le téléphone portable [qui a servi de] principal outil de liaison »41 aux mains de différents acteurs engagés dans le processus électoral, permettant de contrôler en temps  réel  le  déroulement  des  opérations  de  dépouillement  des  bulletins  de  vote  et empêchant ainsi les tentatives de fraude.  

                                                        40 Jeune Afrique L’INTELLIGENT, nº 2277, 2004 (p.40). 41 Institut Panos, 2001, Médias et élections au Sénégal. La presse et les nouvelles technologies de l’information dans le processus électoral, Dakar, Les Nouvelles Éditions Africaines du Sénégal (p. 144). 

Page 92: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

92

Parmi  les  populations,  beaucoup  ne  se  contentent  plus  des  informations  officielles  des médias d’État.  Internet et divers outils numériques  leur permettent d’accéder à une  large palette d’informations produites de façon plus libre. Malgré la fracture numérique entre le Nord  et  le  Sud,  l’usage  des  moyens  d’information  et  de  communication  modernes  se développe dans les pays africains. Progressivement, pour ce continent, se tisse le lien positif entre  « l’appropriation des TIC  [et]  la multiplication des médias  en  ligne »  (Lenoble‐Bart, Tudesq, 2008 : 113). Ces médias numériques dont beaucoup sont créés et animés à partir de  l’étranger,  y  occupent  une  place  centrale.  Ils  échappent  au  contrôle  et  à  la  régulation dont sont l’objet les autres types de médias de la part d’autorités gouvernementales.  

Si jusqu’à la fin des années quatre‐vingt, en Afrique, les gouvernements étaient très maîtres chez  eux,  pouvaient  contrôler  l’espace médiatique  en  filtrant  les  informations,  freiner  ou empêcher la propagation des médias étrangers, l’avènement des technologies numériques a changé  la  donne.  Les  moyens  d’expression  nés  dans  cette  révolution  technologique réduisent  la  marge  de  manœuvre  des  États.  Internet,  dont  l’appropriation  se  développe sans cesse sur le continent, « constitue une scène inédite d’expression publique, sur laquelle chacun peut librement entrer et évoluer » (Lepage, 2006 : 19). 

Dans  le  contexte  africain,  exprimer  librement  son  opinion  à  travers  l’audiovisuel  public, n’est pas toujours garantie. L’accès des partis politiques et des organisations de  la société civile à ces médias est souvent très  limité,  le débat démocratique contradictoire rarement toléré. Les nouveaux médias représentent donc une grande opportunité pour les citoyens et pour les acteurs de la vie politique et sociale, tant sur le plan de l’accès à l’information que sur  celui  de  la  libre  expression  des  opinions.  Ainsi,  la  révolution  numérique  vient‐elle « déstabiliser  le  système  et  perturber  le  contrôle  de  l’information  par  les  pouvoirs »  (Ba, 2003 : 236). 

Le  formidable  développement  des  TIC  permet  de  transcender  d’une manière  efficace  les barrières  et  les  entraves  diverses  quant  à  la  circulation de  l’information,  des  images,  des vidéos et de divers types des documents. Par sa spécificité, « internet est perçu comme un vecteur  de  démocratie  ‐de  la  liberté  d’expression  et  d’information‐  dans  les  États autoritaires  et  liberticides »  (Jeanne‐Perrier,  Candel,  2007 :  226).  En  l’espace  de  deux décennies, ces technologies dont l’appropriation se poursuit avec néanmoins des disparités plus  ou  moins  grandes  entre  les  régions  et  les  pays,  ont  entraîné  une  transformation profonde  du  secteur  de  l’information  et  des  médias,  en  occasionnant  plus  d’offres  de contenants et de  contenus,  et  conséquemment, plus de  choix pour  les usagers. De  ce  fait, elles  permettent  de  contourner  plus  facilement  les  barrières  à  l’évolution  de  l’espace médiatique et démocratique africain. Internet, les blogs, les forums de discussion et divers outils  électroniques  sont  devenus  des  moyens  importants  d’expression  et  de  combat démocratique.  

III ­ Un audiovisuel public prépondérant 

L’analphabétisme,  l’inégal  développement  des  infrastructures  et  les  disparités  entre  les zones urbaines et rurales sont de nature à relativiser la portée des nouveaux médias et leur impact  sur  l’évolution  démocratique  et  l’information  de  l’opinion  publique.  Car  seuls  les 

Page 93: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

93

habitants  des  villes  disposant  des  équipements  et  services  nécessaires  bénéficient  des avancées  technologiques en matière d’information et de communication. En conséquence, malgré le pluralisme médiatique favorisé par l’amorce de la démocratie et les technologies numérique, la place et le rôle de l’audiovisuel public restent prépondérants.  

Dans la plupart des pays, les radios et les télévisions privées créées suite à l’instauration de la  liberté  de  la  presse  ont  une  capacité  de  couverture  territoriale  réduite,  parfois  très limitée. De plus, l’étroitesse du marché de la publicité dû au faible dynamisme économique ne  leur  fournit  pas  suffisamment  de  recettes  pour  améliorer  les  capacités  techniques installées et faire face à tous les coûts. Certes, Internet a permis d’accroître la portée de ces médias. Mais dans  la  réalité de  terrain,  certains  facteurs  réduisent  l’effet  de  cet  avantage technologique :  l’insuffisance des réseaux physiques de  télécommunication,  les problèmes d’électricité,  la  faiblesse des ressources  financières etc. Cela étant,  la radio et  la  télévision publiques  demeurent  souvent  les  seules  capables  d’assurer  une  couverture  totale  du territoire et de supporter les coûts élevés de fonctionnement, grâce au soutien de l’État qui pourvoit  à  tout  (salaires,  équipements,  logistique,  maintenance,  production,  formation). Nombre de pays africains ne disposent pas encore de  télévision  privée en  raison du coût financier important que nécessite une telle entreprise. Le fonctionnement de la radio et de la télévision nécessitent des investissements importants et constants. 

Malgré  l’enclenchement  des  processus  de  démocratisation  au  début  des  années  90  et  la mondialisation  qui  rend  aléatoire,  voire  quasi  impossible,  toute  possibilité  de mettre  des freins à la circulation de l’information, nombre d’États africains, même aux gouvernements élus,  continuent  de  s’obstiner  dans  les  pratiques  d’un  autre  temps.  Cela  se  traduit notamment par le fait qu’en dépit d’une certaine ouverture et la métamorphose de l’espace médiatique, l’audiovisuel public, en Afrique, reste très soumis aux  pressions et aux ordres du pouvoir politique. Or, « plus les médias dépendent des autres pouvoirs, plus ils peuvent être considérés comme des appareils idéologiques » (Gingras, 2006 : 53).  IV ­ Conclusion  Au cours des deux dernières décennies, le paysage médiatique africain s’est métamorphosé en se diversifiant grâce à deux facteurs : l’ouverture démocratique et le développement des TIC.  Cependant,  certaines  pratiques  africaines  en  matière  d’information  et  des  médias, surtout  en  période  de  crise,  dénotent  le  fait  que  le  continent  peine  à  sortir  de  trois décennies  de  régimes  à  parti  unique,  contexte  dans  lequel  les médias  et  autres  outils  de communication  sont  restés  un  quasi‐monopole  de  l’État,  l’information  soigneusement retenue, voire déformée au besoin, même au détriment de l’intérêt national. Et ce, quel que soit  le  sujet :  politique,  économie,  santé,  armée…  Chercher  à  cacher  la  vérité  à  l’opinion nationale et internationale apparaît encore comme un réflexe.  

Dans  les  pays  développés,  outre  les  médias  du  service  public,  les  médias  privés  (radio, télévision,  presse)  et  divers  autres  moyens  de  communication  modernes  sont  aisément accessibles au public. En Afrique, malgré un progrès continu dans l’appropriation d’internet et  des  technologies  numériques,  avec  à  la  clé  le  renforcement  pluriel  du  paysage médiatique,  l’audiovisuel  public  occupe  une  place  centrale.  Plus  que  d’autres moyens  de 

Page 94: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

94

communication,  la  radio  et  la  télévision  publiques  sont  au  cœur  des  manœuvres stratégiques pour garder le pouvoir ou le conquérir.   Bibliographie  Monographies  Ba, A., Internet, cyberespace et usages en Afrique. Paris, L’Harmattan, 2003.  Bellenger, L. Du bon usage des médias. Vers une nécessaire remise en cause. Paris, Editions Stratégies, coll Stratégies, 2000.  Char, A. La guerre mondiale de l’information. Québec, Presses de l’Université du Québec, coll. Communications et relations publiques, 1999.  El  Yamani,  M.  Médias  et  féminisme.  Minoritaires  sans  paroles.  Paris,  L’Harmattan,  coll. Logiques sociales, 1998.  Gazibo,  M.  Introduction  à  la  politique  africaine.  Presses  de  l’Université  de  Montréal,  coll. Paramètres, 2006.  Gingras, A‐M. Médias et démocratie. Le grand malentendu. 2ème éd., Presses de  l’Université du Québec, 2006.  Lenoble‐Bart,  A.  et  Tudesq.  A‐J.  (dirs.).  Connaître  les  médias  d’Afrique  subsaharienne. Problématiques, sources et ressources. Paris, Karthala, 2008.  Lepage, A. (dir.). L’opinion numérique. Internet : un nouvel esprit public, Paris, Dalloz, 2006.  Perret, T. Le temps des journalistes. L’invention de la presse en Afrique Francophone, Karthala, 2005.  Wade, P. et Falcand D., Cyberplanète. Notre vie en temps virtuel. Paris, Éditions Autrement, coll. Mutations n°176, 1998.  Chapitres d’ouvrage  Havard,  J‐F.  « De  la  victoire  du  "sopi"  à  la  tentation  du  "nopi".  "Gouvernement  de l'alternance" et liberté des médias au Sénégal ». Politique africaine, n° 96, pp. 22‐38, 2004.  Jeanne‐Perrier, V. et Candel, E. « De la liberté de la presse à la liberté d’expression : quand les blogs s’emmêlent, RSF s’en mêle », dans Dahmani Ahmed, Do‐Nascimento  José, Ledjou Jean‐Michel, Gabas  Jean‐Jacques,  (dirs.), La démocratie à  l’épreuve de  la société numérique. Paris, éd. Karthala, pp : 225‐239, 2007.  

Page 95: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

95

Klinenberg,  E.  « Médias  américains  et  désinformation  pendant  la  guerre  d’Irak »,  dans GELARD J.‐P. (dir.), Médias, mensonge et démocratie. Rennes, PUR, pp. 69‐74, 2005.  Ledjou, J‐M. « Les TIC : un viatique pour démocratiser l’Afrique » dans Dahmani Ahmed, Do‐Nascimento José, Ledjou Jean‐Michel, Gabas Jean‐Jacques, (dirs.), La démocratie à l’épreuve de la société numérique. Karthala, pp. 279‐291, 2007.  Makosso  Kibaya,  J‐F.  « Mc  Luhan,  le  village  planétaire  et  l’Afrique »,  dans  Biyele  Franck François,  coord.,  Nouvelles  approches  des  problématiques  de  communication  sur  l’Afrique subsaharienne. Représentations, idéologie et instrumentalisation. Paris, L’Harmattan, pp. 83‐94, 2007.  Volkoff, V. Désinformation. Flagrant délit, Monaco, Éditions du Rocher, 1999.  Articles de périodique  Tozzo, E. A. « La réforme des médias publics en Afrique de l’Ouest. Servir le gouvernement ou le citoyen ». Politique africaine, nº 97, Paris, Karthala, pp. 99‐115, 2004.  Autres sources   Jeune Afrique L’INTELLIGENT, nº 2277, 2004.  Institut  Panos, Médias  et  élections  au  Sénégal.  La  presse  et  les  nouvelles  technologies  de l’information dans le processus électoral, Dakar, Les Nouvelles Éditions Africaines du Sénégal (p. 144), 2001. 

  

 

Page 96: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

96

Veille stratégique et internet participatif : les usages des agents­facilitateurs remettent­ils en en question le concept de signal faible ? 

 Camille Alloing42 

[email protected] Ingénieur R&D La Poste, Doctorant au laboratoire CEREGE (EA 1722) 

 Christophe Deschamps43 

Consultant‐Formateur en veille stratégique et gestion de l’information  

 Résumé : Le concept de signal faible, ou signe d’alerte précoce, est inhérent aux pratiques de  veille  stratégique.  A  l’heure  du  web  dit  2.0,  où  la  possibilité  est  donnée  à  chaque internaute  de  produire  et  diffuser  du  contenu,  il  parait  nécessaire  de  s’interroger  sur  la place du signal faible dans ce nouveau contexte informationnel. Mais aussi, sur les moyens de  le détecter,  et  ce en  s’appuyant  sur une nouvelle  classe d’usagers du web :  les agents‐facilitateurs, dont le rôle premier est de servir d’alternative aux moteurs de recherches par le biais de recommandation sociale de contenus.  Mots­clés : Veille stratégique, signal faible, agents‐facilitateurs, internet, réseaux sociaux   Introduction  Internet  et  ses  applications  web,  dont  la  démocratisation  en  terme  d’accès  et d’appréhension technique est souvent qualifiée de « 2.0 » ou « web social », est devenu un enjeu  majeur  en  terme  de  gestion  de  l’information  pour  les  organisations,  et  plus particulièrement  en  ce  qui  concerne  la  recherche  d’informations  stratégiques  utiles  à  la prise de décisions. Dans ce contexte où les usages des « internautes » sont de plus en plus autoritatifs, à savoir « l'attitude consistant à produire et à rendre public des textes (…) sur le  WWW,  sans  passer  par  l’assentiment  d’institutions  de  référence  référées  à  l’ordre                                                         42  Camille  Alloing  est  diplômé  du  Master  IECS  de  l’ICOMTEC,  ancien  consultant  en  e‐réputation,  il  est actuellement  chercheur  en  innovations  digitales  au  sein  du  Groupe  La  Poste  (Courrier),  et  Doctorant  en Sciences de  l’Information et de  la Communication  au CEREGE de  l’IAE de Poitiers.  Ses  travaux portent   sur l’apport de la recherche sociale pour le développement de méthodologie de veille en e‐réputation. 43  Christophe  Deschamps  est  consultant‐formateur  en  veille  et  intelligence  économique,  après  avoir  été responsable  de  veille  en  entreprise.  Il  est  l'animateur  du  blog  «Outils  froids»  ‐  www.outilsfroids.net,  (Prix spécial du Salon I‐Expo 2005), consacré à la veille et à la gestion des connaissances. Il enseigne depuis 10 ans dans  plusieurs  formations  en  Intelligence  économique  (dont  l’ICOMTEC,  l’EISTI  et  HEG  Genève)  et  écrit régulièrement dans des revues spécialisées (Veille Mag, Archimag, La lettre Recherche & Référencement). Il a publié  en  2009  «  Le  nouveau  management  de  l’information.  La  gestion  des  connaissances  au  cœur  de l’entreprise 2.0 » (FYP Editions) et en 2011 un second ouvrage intitulé « Organisez vos données personnelles – L’essentiel du Personal Knowledge Management » (Eyrolles).   

Page 97: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

97

imprimé.  »  (E.  Broudoux,  2003),  où  ceux‐ci  passent  du  statut  de  consommateurs d’informations  à  celui  de pronétaire  (« nouvelle  classe  d’usagers  des  réseaux numériques capables de produire, diffuser, vendre des contenus numériques non propriétaires », (J. de Rosnay,  2006)),  les  processus  de  détection  et  de  qualification  des  « signaux  faibles » (Ansoff, 1975), ou « signes d’alertes précoces » (Lesca, 2001) se complexifient. Les actes de prescriptions  informationnels  sur  les  réseaux  socionumériques  s’inscrivant  dans  ce  que nous  pourrions  qualifier,  en  référence  à  B.  Stiegler44,  « d’économie  de  la  contribution », voient  apparaitre  un nouveau  type d’usagers  que nous nommons  «  agents  facilitateurs  ». Leurs  pratiques  de  sélection,  qualification,  annotation,  éditorialisation  et  diffusion  à destination de leurs réseaux ou communautés, du contenu produit sur les web, amène à les envisager comme des substituts possibles aux moteurs de recherche et à leurs algorithmes. Entre  producteurs  et  consommateurs  de  contenus  numériques,  ces  agents‐facilitateurs apparaissent comme un nouveau levier à intégrer dans un processus de veille stratégique, un filtre humain et social potentiellement porteur de signes d’alertes précoces.  Problématique  Cette communication vise à identifier de quelle(s) manière(s) la détection de signes d'alerte précoces dans un contexte de veille stratégique sur Internet peut s'appuyer sur les usages d’agents‐facilitateurs.  Elle  se  questionne  notamment  sur  les  critères  de  détection  et d'identification d’agents‐facilitateurs, sur l'usage des nouveaux outils mis à leur disposition, ainsi  que  sur  les méthodes managériales  et  technologiques  visant  à  intégrer  ces  agents‐facilitateurs comme sources émettrices potentielles de signaux faibles au sein d'une cellule de veille stratégique.  Au final, cette recherche pose la problématique suivante : les usages des agents‐facilitateurs remettent‐ils en question le concept de signal faible ?  Revue de littérature  Le  concept de  signal  faible  a  été  formulé  initialement  par  Igor Ansoff  en 1975.  Il montre dans cet article45  fondateur que,  si un évènement peut  constituer une surprise en soi,  les éléments d’information qui auraient permis de  l’anticiper existent cependant. Les signaux faibles sont donc des éléments susceptibles de venir perturber un futur que  les décideurs ont trop souvent tendance à envisager comme une simple extrapolation du présent. Réussir à les « capter » devrait alors être possible, voire recherché par les organisations afin d’être en mesure d’en anticiper les conséquences sur leurs activités.   Dans ce même article fondateur, Ansoff ne donne pas de définition des signaux faibles mais explique  que  :  « De  tels  évènements  sont  des  surprises  stratégiques :  des  changements 

                                                        44 Bernard Stiegler, Pour une nouvelle critique de l’économie politique, Paris, Galilée, coll. Débats, 2009, p.66. 45 Ansoff H.I., Managing strategic surprise by response to weak signals, California Management Review, 1975. Vol. 18 n°2, p. 21‐33. 

Page 98: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

98

soudains, urgents, imprévus dans  les perspectives de l’entreprise et qui la menacent soit d’un renversement important de ses gains, soit de la perte d’une opportunité majeure ».  Il faut attendre 1984 et la publication de l’ouvrage Implanting Strategic Management, pour qu’Ansoff et McDonnell46 donnent du signal faible la définition suivante: « Un fait à propos duquel  seules  des  informations  partielles  sont  disponibles  alors  qu’une  réaction  doit  être entamée,  si  l’on  veut  qu’elle  soit  parachevée  avant  impact  sur  la  firme  de  l’évènement nouveau »47.  En  France,  les  chercheurs  du  CERAG,  sous  la  direction  d’Humbert  Lesca,  travaillent  sur l’intégration  du  signal  faible  dans  les  dispositifs  de  veille  depuis  de  nombreuses  années. Lesca indique, à la suite d’Ansoff, que chez le récepteur, il s’agit d’une sensation proche de l’intuition et qu’elle  « est déclenchée par une donnée qui aura été perçue et examinée avec attention.  (…) Ensuite  le manager  ainsi  interpellé  devrait  avoir  le  désir  d’en  savoir  plus  et d’obtenir des informations supplémentaires pour affiner sa sensation.»48.   Blanco  introduit  par  ailleurs  une  distinction  utile  entre  signal  faible  et  signe  d’alerte précoce.  Le mot  « signal »  prête  en  effet  à  confusion  car  il  évoque  la  diffusion  volontaire d’une information par son émetteur dans le but qu’elle soit captée par un récepteur (idée de signalisation).  Or,  ce  qui  nous  intéresse  ici  est  plutôt  de  l’ordre  du  non‐volontaire,  non‐conscient,  de  la  part  de  l’émetteur.  Il  diffuse  effectivement  une  information  (article  de presse,  billet  de blog, message de microblog de  type Twitter,…) mais  ce que  le  récepteur déduit  du  message  n’est  pas  nécessairement  ce  que  l’auteur  y  avait  placé  de  manière intentionnelle.  Tout  comme  on  dit  trivialement  que  « le  vice  est  dans  l’œil  de  celui  qui regarde »,  ce  qui  « fait  signe »  ici  est  dans  l’œil  du  récepteur  et,  sauf  acte  volontaire  de tromperie  de  sa  part,  échappe  à  l’émetteur.  Ce  que  nous  captons  est  donc  de  l’ordre  du signe et non du signal. Blanco caractérise ainsi le signe d’alerte précoce 49 :  Nature  Commentaires Qualitatif  Il ne consiste pas en des nombres et des faits puisqu’ils 

concernent des faits non encore survenus, non factuels. Il s’agit de «  bribes », de «  rumeurs », de  « commentaires », « d’indications fragmentaires » 

Ambigu  Il peut être sujet à de multiples ou bien à aucune interprétation 

Sans pertinence intrinsèque  Il n’est pas en relation avec les décisions ou les préoccupations en cours 

                                                        46 Ansoff H. I., McDonnell E., Implanting Strategic Management, 520 p., Prentice Hall International,  Englewood Cliffs, NY, 1990 (1ère edition 1984). 47 Cité par Castagnos, J‐C. et Lesca, H. Capter les signaux faibles de la veille stratégique : retoursd’expérience et recommandations. E & G, Economia et Gestäo, Belo Horizonte, v.4, n.7, p. 15‐34. 2004. 48 Humbert Lesca, Veille stratégique – La méthode L.E. Scanning. Editions EMS. 2003, p. 23. 49  Sylvie Blanco, Gestion de  l’information et  intelligence  stratégique :  cas  de  la  sélection des  signes d’alerte précoce de veille stratégique. Thèse de doctorat en Science de gestion, Grenoble 2 UPMF, ESA, CERAG, 307 p. Cité par Nicolas Lesca, processus de construction du sens à partir de signes d’alerte précoce : proposition d’un nouvel  outil  d’aide  à  la  production  de  connaissance :  PUZZLE.  Actes  de  la  9ème Conférence  de  l'Association Internationale de Management Stratégique (AIMS), Montpellier, 24‐26 mai, 2000, 22 p.

Page 99: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

99

Fragmentaire  Il ne constitue qu’un  « morceau » d’un événement futur possible. Par conséquent, son exploitation requiert des informations complémentaires 

De formes et sources diverses  Ils peuvent provenir d’émetteurs, de canaux et de supports variés tels qu’un bout de conversation, des documents électroniques, des coupures de presse, etc. 

 Dans le cadre de cette communication, une autre dimension déjà évoquée prend une place centrale.  Il  s’agit  de  l’aspect  intuitif  et  nécessairement  individuel  du  captage  des  signes d’alerte précoces. En effet, l’interprétation d’un signe en tant que signe d’alerte précoce est totalement  dépendante  de  l’individu  qui  le  reçoit.  Caron‐Fasan  explique  que  « chaque  individu mémorise et construit du sens aux  signes qu’il perçoit en fonction de son humeur, de ses  intentions,  de  son  projet,  de  son  interprétation  de  celui  de  l’organisation,  de l’environnement,  de  sa mémoire  et  de  ses  expériences  précédentes »50.    Or,  comme  nous  le verrons,  c’est  bien  de  cet  aspect  purement  subjectif  dont  il  est  question  lorsque  l’agent‐facilitateur sélectionne une information sur le web et décide de la diffuser.  Vers la détection d’agents­facilitateurs  Le  cabinet  d’étude  américain  Forrester  a  publié  en  2010  une  étude  (Social Technographics51)  visant  à  définir  les  profils  des  internautes  américains  en  termes  de comportements informationnels. Les résultats de cette étude mettent notamment en avant que  70% des  personnes  interrogées  se  définissent  comme  « spectateurs »  sur  Internet,  à savoir  consommateurs  et  non  producteurs  d’informations.  Là  où  24%  des  interrogés  se présentent  comme  créateurs  de  contenus,  et  59%  comme  utilisateurs  de  réseaux socionumériques,  il  est  intéressant de  remarquer que 20%   d’entre eux  se voient  comme « Collectors » : leur activité consiste à agréger du contenu et  l’annoter (métadonnées).   Ce rôle de collecteur de  l’information, notamment produite par  les créateurs de contenus, voit  son  importance  affirmée  par  les  utilisateurs  des  réseaux  socionumériques  et  de certains « spectateurs » qui, face au volume grandissant de données présentes sur Internet, se trouvent face à un fort « bruit informationnel ».  Là où le rôle des moteurs de recherche et de leurs algorithmes de classement des pages web (tel  le  Page  Rank  de  Google)    a  toujours  été  de  trier  cette  masse  de  données  pour  les internautes,  voir  pour  certains  algorithmes  tels  celui  d’Amazon  52  un  mode  de  « filtrage cognitif »  (Le Thran, Cheung‐Mon‐Chan, Bothorel, 2011),  le développement des usages de « recommandation sociales » ou de prescription par et pour l’utilisateur jouent aujourd’hui un rôle prépondérant (Stenger et Coutant, 2010). Appliquée à la recherche d’information, ce rôle  de  collecteur  et  de  facilitateur  d’accès  au  contenu  informationnel  sous  forme  de prescriptions  explicites  (que  nous  qualifions  d’ « agents‐facilitateurs »,  en  référence notamment aux recherches menées en systèmes d’informations) a vu son activité devenir                                                         50 Caron‐Fasan M.L, Une méthode de gestion de l’attention aux signaux faibles, Revue Système d’information et management, N°4 – Vol. 6, pp. 73‐90. 51 http://forrester.typepad.com/groundswell/2010/01/conversationalists‐get‐onto‐the‐ladder.html. 52 http://www.amazon.com 

Page 100: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

100

un  enjeu  économique  aux  USA  (qualifié  de  « the  new  billion‐dollar  opportunity »  par  le blogueur  Robert  Scoble  du  site  de  référence  TechCrunch53).  Ce  rôle  de  médiateur  de l’information,  proche  de  celui  « d’infomédiaire »  (A.  David,  A.  Knauf,  2004),  les  aspects managériaux et économiques mis de côté, a été qualifié par certains blogueurs américains54 de « curator », en référence au rôle opéré par les conservateurs de musées de sélection et d’agencement des œuvres artistiques.  Au‐delà du terme difficilement définissable (et très mercatique) de « curator », auquel nous préférons donc  celui  d’agent‐facilitateur  plus  explicite,  l’identification de  cette  activité  de collecteur/prescripteur  d’informations  a  amené  de  nombreuses  entreprises  à  développer des « plateformes de curation » : proche des outils de bookmarking (comme Delicious55 ou Diigo56),  ces  applications Web  permettent  à  l’internaute  de  collecter,  classer,  annoter  et diffuser  des  contenus  de  son  choix.  Ces  plateformes  donnent  l’opportunité  d’identifier rapidement des agents‐facilitateurs sur des thématiques définies pour, potentiellement, les intégrer  à  un  processus  de  veille  stratégique  (défini  par  Lesca  et  Blanco  comme  « le processus  par  lequel  un  individu  (…)  traque,  de  façon  volontariste,  et  utilise  des informations à caractère anticipatif »). Nous proposons ici une méthodologie simple de sélection d’agents‐facilitateurs basée sur le fonctionnement  de  deux  plateformes  dites  de  curation :  Scoop.it  et  Pearltrees.  Ces plateformes ont été sélectionnées en fonction de 5 critères (voir ANNEXE 1).   Les  critères  de  sélection  des  agents‐facilitateurs  reposent  alors  sur  ceux  communément présents dans les profils des utilisateurs des plateformes choisies, à savoir : ‐  Les  thématiques  abordées  par  l’agent‐facilitateur :  notamment  à  l’aide  de métadonnées descriptives des contenus (tags), l’affinement de ces thématiques permettant de définir leur adéquation avec la stratégie de veille. ‐ Le volume de contenus présents sur  le compte pour une thématique donnée : ce volume permet  notamment  de  définir  le  niveau  d’exhaustivité  voulue  par  l’agent‐facilitateur,  le périmètre dans lequel il s’inscrit, et sa capacité de filtrage. ‐ Le nombre d’abonnés au compte : ce chiffre peut être vu comme garant de la légitimité57 de l’auteur, de l’« expertise 2.0 » (Alloing, Moinet, 2010) que d’autres agents‐facilitateurs lui concèdent  en  lisant,  annotant,  ou  rediffusant  le  contenu  qu’il  filtre.  La  qualité  de  son éditorialisation et de  son  filtrage passe donc en partie par  ce  critère. Critère associable à celui du volume de visites du compte. ‐ Description de  l’agent‐facilitateur :  la « mise en récit de  l’identité personnelle »  (Cardon, Delaunay‐Téterel,  2006)  de  l’agent  est  un  critère  de  sélection  essentiel  puisqu’il  permet 

                                                        53 http://scobleizer.posterous.com/the‐new‐billion‐dollar‐opportunity‐real‐time 54  L’un  des  premiers  étant  le  blogueur  Robin  Good,  de  son  vrai  nom  Luigi  Canali  de  Rossi,  dans  une  série d’articles  dont  le  premier  est  accessible  ici :  http://www.masternewmedia.org/real‐time‐news‐curation‐newsmastering‐and‐newsradars‐the‐complete‐guide‐part‐1  55 http://www.delicious.com  56 http://www.diigo.com 57 Légitimité ne signifiant pas véracité des informations sélectionnées, mais reconnaissance comme source fiable et experte par d’autres internautes. 

Page 101: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

101

d’identifier  la posture que  celui‐ci  souhaite  adopter  sur  le web,  la  façon dont  il  se définit dans un contexte donné, et amène ainsi une idée de la fiabilité des informations qu’il diffuse.  ‐ Comptes de réseaux sociaux associés : le fait de pouvoir se reporter à d’autres comptes de l’agent‐facilitateur  sur  d’autres  plateformes  web  permet  de  renforcer  l’identification  de celui‐ci, mais aussi d’intégrer potentiellement de nouvelles sources d’information, et d’ainsi élargir ce que l’on pourrait nommer son « panel d’agents‐facilitateurs thématiques ». ‐ L’hétérogénéité des sources : plus  l’agent‐facilitateur basera sa sélection sur des sources web différentes, variées et « difficilement accessibles » (comme par exemple ce que certains nomment  « le  web  invisible »),  plus  la  possibilité  d’obtenir  des  signes  d’alertes  précoces augmentera.  Ces  critères  sont  fortement  dépendants  des  fonctionnalités  proposées  par  les  outils sélectionnés. Ils ne sont bien entendu pas les seuls possibles mais permettent néanmoins de capter rapidement de l’information à valeur ajoutée sur une thématique donnée.  Pour  les  deux  plateformes  choisies,  si  nous  prenons  la  thématique  de  « l’e‐réputation », Pearltrees nous permet d’identifier 51 profils différents collectant des contenus liés à cette thématique. Et Scoop.it 14 profils. Ces profils ne traitent pas exclusivement de ce sujet, mais à  eux  seul,  proposent  un  très  fort  volume  de  ressources  sur  « l’e‐réputation »  (parfois redondantes).  Après  qualification  des  profils,  selon  les  critères  cités  précédemment,  3 profils sur Pearltrees et 3 sur Scoop.it peuvent être potentiellement intégrés à un processus de veille  stratégique  (ANNEXE 2) :  ils  traitent de  la  thématique voulue, proposent un  fort volume  de  contenu,  ont  un  nombre  d’abonnés  compris  entre  12  et  55  pour  cette thématique,  se  présentent  de  manière  claire  et  identifiable,  font  le  lien  vers  d’autres  de leurs  comptes  sur  le  web,  et  enfin  « puisent »  de  l’information  dans  (en  moyenne)  une vingtaine de sources différentes. 

 Agent­facilitateur, cellule de veille et signal faible  L’intégration des agents‐facilitateurs à une politique de veille  stratégique en organisation ne  doit  pas  avoir  pour  objectif  de  reposer  entièrement  sur  ces  pratiques  souvent moins structurées que celles d’un professionnel de la gestion de l’information. En considérant que l’information recouvre deux  facettes (D. Wolton, 2009), celle normative  renvoyant à  l’idée de vérité et celle fonctionnelle soulignant le fait qu’on ne puisse vivre dans nos sociétés sans informations,  il  est  opportun  de  considérer  que  l’agent‐facilitateur  en  privilégie  une (fonctionnelle) plutôt qu’une autre (normative). En effet, si l’agent‐facilitateur est un relais, il peut  tout aussi bien diffuser une  information non emprunte de vérité (« une rumeur »), cette qualification dépendant  totalement de  sa  capacité  à  évaluer une  information  et  une source web, et à le signaler (certaines plateformes comme Scoop.it permettant par exemple les commentaires).  Il  revient donc au veilleur professionnel de développer un système de qualification des sources efficace et cohérent. Cependant, et tout comme le souligne Blanco, une rumeur peut tout de même être porteuse de signes d’alertes, qui plus est si l’objectif de la veille est d’évaluer l’image ou la réputation que reflète le web d’une organisation.  De  plus,  si  le  public  premier  d’un  agent‐facilitateur  est  la  « communauté  virtuelle »  (S. Proulx, G. Latzko‐Toth, 2000)  ou le réseau auxquels il diffuse ses informations il parait utile 

Page 102: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

102

d’analyser  le  fonctionnement de  ces dits  communautés ou  réseaux afin d’en appréhender les codes, notamment en matière de qualification de l’information. Dans le cas des pratiques de  « curation »  il  y  a  bien  volonté  explicite  de  rechercher  et  agréger  de  l’information  de qualité  et  potentiellement  porteuses  de  signes  d’alertes  précoces  de  la  part  de  l’agent facilitateur, et ce généralement à destination des communautés auxquelles il appartient.  Soulignons  que  les  différences  entre  ce  que  permettent  différentes  familles  de  services utiles  aux  agents‐facilitateurs  (curation,  bookmarking,  micro‐blogging)  sont  très  faibles. Depuis plusieurs années déjà, les blogs, à condition qu’ils soient orientés thématiquement, jouent  ce  rôle  d’outils  de  diffusion  au  service  de  ceux  qui  souhaitent  exprimer  leur connaissance/passion/expertise sur un sujet donné. Les internautes souhaitant simplement partager  leurs  découvertes  se  tournent  vers  des  services  de  bookmarking  social  dont l’emblématique  Delicious,  « créant  ainsi  et  sans  vraiment  le  savoir,  l’annuaire  le  plus exhaustif  et  le  plus  actualisé  existant  à  ce  jour,  un  annuaire  du  pauvre  certes58, mais  un annuaire  quand même59 ».  Plus  récemment,  Facebook  et  a  fortiori  Twitter,  ont  permis  la mise en œuvre de pratiques similaires   sous une forme à peine différente. Les services de curation  cités  dans  cet  article  reposent  pour  beaucoup  sur  le  principe  de  ceux  de bookmarking social et un service déjà ancien comme Pearltrees, s’est d’ailleurs initialement positionné ainsi.   Enfin, remarquons que les signes font sens pour celui (veilleur, manager) qui les voit mais qu’ils ne sont pas forcément perçus comme tels par l’émetteur. Le veilleur qui utilisera les contenus proposés par les agents‐facilitateurs pour mener sa veille prend alors le pari que ces personnes, dont il a initialement validé la production, pourraient multiplier sa capacité à détecter les signaux faibles. Plus exactement, le simple choix d’article qu’ils effectuent est le résultat de leur expertise ou de la bonne connaissance qu’ils ont du sujet qu’ils traitent. Ces mêmes qualités devraient théoriquement leur permettre de repérer les signaux faibles de leur domaine.  Discussion  L’approche présentée ici, principalement au niveau de la méthodologie, est volontairement restrictive.  Les  plateformes  dites  de  curation  sont  encore  jeunes,  et  il  est  raisonnable d’envisager  que  d’ici  quelques  temps  elles  subissent  le  contrecoup  de  « l’effet  de mode » (Internet  étant  friand des  bulles  spéculatives  sur  ses  usages).  Comme nous  le  soulignons précédemment bien d’autres plateformes web peuvent être prises en compte.   D’un  point  de  vue  épistémologique  les  concepts  de  signes  d’alertes  précoces  et  d’agents facilitateurs  s’intègrent  dans  une  vision  constructiviste  de  l’information  et  de  la communication.  Tout  d’abord,  et  comme  nous  l’avons  souligné,  car  le  « signe »  est  une représentation subjective propre au récepteur (une construction de  l’esprit), qu’il n’existe pas de « réalité objective donnée » (A. Mucchielli, 2000) quant à l’appréciation de ces signes 

                                                        58 Pauvre s’entendant ici en références aux métadonnées ajoutées. 59  Deschamps  C.,  Le  nouveau  management  de  l’information  –  La  gestion  des  connaissances  au  cœur  de l’entreprise 2.0. FYP. 2009. 

Page 103: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

103

et leur intégration possible dans une prise de décision. Les agents‐facilitateurs, quant à eux, construisent  aussi  une  certaine  réalité  informationnelle  grâce  aux  contenus  produits  par d’autres acteurs du web (producteurs de contenus principalement).  Il  est  d’ailleurs  intéressant  de  mettre  en  exergue  le  fait  que,  dans  un  environnement complexe comme Internet, les agents‐facilitateurs s’inscrivent dans le principe de récursion organisationnelle  définie  par  E.  Morin60 où  cause  et  effet  se  confondent.  En  l’occurrence, l’agent‐facilitateur est à la fois émetteur de signes d’alertes (pour le veilleur), et récepteurs de  ces  mêmes  signes.  Si  d’un  côté  il  permet  donc  de  « faire  remonter »  certains  signes permettant  la  construction  de  schémas  prédictifs,  d’un  autre  côté  il  « noie »  ces  mêmes signes dans une mise en contexte qui lui est propre et peut être difficilement appréhendable par un autre  individu. En quelque  sorte,  l’agent  facilitateur  réduit  le bruit  informationnel tout en produisant des échos pouvant brouiller l’interprétation de certains signes d’alertes.  Ce paradoxe, s’il ne remet pas totalement en question le concept de signes d’alerte précoces, accentue cependant son aspect subjectif et la nécessaire prise en compte du rôle managérial et méthodologique dans la captation de  ces dits signes.   Comme nous le soulignons dans la partie précédente, l’intégration d’agents facilitateurs au sein d’une cellule de veille pose la question de l’expertise du veilleur pour le domaine qu’il traite,  expertise  qui,  paradoxalement  encore  une  fois,  si  elle  est  trop  pointue  amène  le risque  de  se  fermer  à  certains  signes  d’alertes  (par  « routine »  principalement). L’intégration des agents‐facilitateurs dans la détection de signaux faibles renforce une fois de plus la conviction que la captation de ces signes dépend de l’individu et de ses capacités d’étonnement plus que de méthodologies parfois (trop) restrictives. 

 Conclusion  A l’heure du « tous producteurs d’informations » sur le web dit 2.0, la mise en contexte de données amenant à l’émergence d’informations utiles à la prise de décisions voit elle aussi son  fonctionnement  redéfinie :  le  filtrage  technologique  entre  en  concurrence  avec  le filtrage  humain  et  social,  accentuant  ainsi  la  redondance  d’informations  similaires  mais dont l’interprétation est déjà fortement influencée par la vision d’un tiers. Dans ce contexte, la  détection  de  signe  d’alerte  précoce  est  à  la  fois  facilitée  par  ce  filtrage  social,  tout  en multipliant les possibles interprétations individuelles des signaux émis. La démultiplication des  plateformes  et  outils  dédiés  à  ces  pratiques  renforce  l’importance  d’une  approche sociotechnique  et  du développement  de méthodologies  adaptées,  que  ce  soit  du point de vue du veilleur voulant collecter de l’information filtrée par les agents‐facilitateurs, comme pour celui du manager souhaitant s’appuyer sur ce  filtre humain et social afin de prendre des décisions adéquates.   Si  la  mise  en  corrélation  des  concepts  d’agents‐facilitateurs  et  de  signal  faible  laisse entrevoir  de  nouvelles  possibilités  en  termes  de  veille  stratégique  sur  le  web,  elle  offre 

                                                        60 E. Morin, Science avec conscience, Paris, Fayard, 1982. 

Page 104: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

104

aussi  de  nouvelles  perspectives  en  termes  de  gestion  des  connaissances  propre  aux organisations : et si chaque collaborateur était aussi un agent‐facilitateur ?  Bibliographie  ALLOING, C., MOINET, N., « Des réseaux d’experts à l’expertise 2.0. Le web 2.0 modifie‐t‐il la création  et  la  mise  en  place  de  réseaux  d’experts ? »,  Les  Cahiers  du  numérique,  2010/1 (Vol.6).  ANSOFF,  H.  I.,  « Managing  strategic  surprise  by  response  to  weak  signals »,California Management Review (Vol. XVIII), 1975.  ANSOFF,  H.  I.,  MCDONNELL,  E.,  «  Implanting  Strategic  Management  ».,  Prentice  Hall International, Englewood Cliffs, NY, 1990 (1ère edition 1984).  BLANCO,  S.,  « Gestion de  l’information et  intelligence  stratégique  :  cas de  la  sélection des signes  d’alerte  précoce  de  veille  stratégique »,  Thèse  de  doctorat  en  Science  de  gestion, Grenoble, UPMF, ESA, CERAG.  CARDON, D., « La démocratie Internet », Seuil, 2010.  CARDON,  D.,  DELAUNAY‐TETEREL,  H.  «  La  production  de  soi  comme  technique relationnelle », Réseaux 4/2006 (no 138), p. 15‐71.  CARON‐FASAN, M.L.,  « Une méthode de gestion de  l’attention aux  signaux  faibles », Revue Système d’information et management, N°4 – Vol. 6, pp. 73‐90.  CASTAGNOS,  J‐C.,  LESCA,  H.  « Capter  les  signaux  faibles  de  la  veille  stratégique  :  retours d’expérience et  recommandations », E & G, Economia et Gestäo, Belo Horizonte, v.4, n.7,  p. 15‐34, 2004.  DESCHAMPS, C., « Le nouveau management de l'information: La gestion des connaissances au coeur de l'entreprise 2.0 », FYP, 2009.  Forrester,  Social  Technographics:  Conversationalists  get  onto  the  ladder,  2010, http://forrester.typepad.com/groundswell/2010/01/conversationalists‐get‐onto‐the‐ladder.html  KNAUF,  A.,  DAVID,  A.,  « Vers  une  meilleure  caractérisation  des  rôles  et  compétences  de l’infomédiaire dans le processus d’intelligence économique », VSST 2004, Toulouse, Oct 25‐29, 2004.  LESCA, H.,  « Veille  stratégique  :  passage de  la notion de  signal  faible  à  la  notion de  signe d'alerte précoce », VSST 2001, Barcelone, Actes du colloque Tome 1.  

Page 105: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

105

LESCA,  H.,  BLANCO,  S.,  « Contribution  à  la  capacité  d’anticipation  des  entreprises  par  la sensibilisation  aux  signaux  faibles »,  6°  Congrès  international  francophone  sur  la  PME, Octobre 2002, HEC, Montréal.  LESCA, H., « Veille stratégique – La méthode L.E. Scanning », EMS, 2003.  LE  THRAN,  CHEUNG‐MON‐CHAN,  BOTHOREL,  « Conception  et  développement  de fonctionnalités  innovantes  liées  a  Facebook  pour  un  système  de  recommandation », Rapport bibliographique, TELECOM Bretagne, 2011.  Masternewmedia,  Real­Time  News  Curation,  Newsmastering  And  Newsradars,  2010, http://www.masternewmedia.org/real‐time‐news‐curation‐newsmastering‐and‐newsradars‐the‐complete‐guide‐part‐1  MORIN, E., « Science avec conscience », Fayard, 1982.  MUCCHIELLI, A. « La nouvelle communication », Armand Colin, 2000.  PROULX,  S.,  LATZKO‐TOTH,  G.,  « La  virtualité  comme  catégorie  pour  penser  le  social  : l’usage de la notion de communauté virtuelle », Sociologie et sociétés, vol. XXXII, Presses de l’Université de Montréal, Montréal, p. 99‐122, 2000.  PUJALTE‐BUSSEUIL, V., RAMADOUR, P., TRANVOUEZ, E., Conception par réutilisation  : des composants aux agents composants, Actes du colloque INFORSID, 2006.  ROSNAY, de., .J, La révolte du pronétariat : des mass média aux média de masse, Fayard, 2006.  Scobleizer,  The  new  billion­dollar  opportunity:  real­time­web  curation,  2009, http://scobleizer.posterous.com/the‐new‐billion‐dollar‐opportunity‐real‐time  STENGER, T., COUTANT, A. « La prescription ordinaire sur  les réseaux socionumériques », Médias 09, entre communautés et mobilité, Aix‐en‐Provence, France, 2009.  STIEGLER,  B.,  « Pour  une  nouvelle  critique  de  l’économie  politique », Galilée,  coll. Débats, Paris, 2009.  WOLTON, D., « Informer n’est pas communiquer », CNRS Editions, 2010.   

Page 106: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

106

Annexe 1 : Critère de sélection des plateformes 

 

Plateforme  Langue principale 

des contenus 

Critères AF Flux RSS 

Mode éditoria‐lisation 

Moteur de recherche interne 

Scoop.it  Français/ anglais 

Thématique(s) du compte, date de création, dernière mise en ligne, volume de pages visitées, volume de visiteurs uniques, volume de contenus mis en ligne, nombre d’abonnés au compte, tags descriptifs des contenus, comptes de réseaux sociaux associés 

Oui Manuel  Non (recherche aisée depuis un moteur classique) 

Curated.by  Anglais  Thématique(s) du compte, date de création, dernière mise en ligne, volume de pages visitées, nombre d’abonnés au compte, principales sources partagées, comptes de réseaux sociaux associés 

Non Automatique  Oui

Storify.com  Anglais  Thématique(s) du compte, volume de pages visitées, nombre d’abonnés au compte 

Non Manuel/ automatique 

Non

Trunk.ly  Anglais  Thématique(s) du compte, description de l’utilisateur, nombre d’abonnés au compte, nombre de comptes auquel l’auteur est abonné, tags descriptifs des contenus, principales sources partagées, localisation de l’utilisateur 

Non Manuel  Non

Pearltrees. com 

Français  Thématique(s) du compte, date de création, volume de pages visitées, volume de contenus mis en ligne, nombre d’abonnés au compte, description de l’utilisateur, comptes de réseaux sociaux associés, localisation de l’utilisateur 

Oui Manuel/ semi‐automatique (plug‐in) 

Oui

Bagtheweb. com 

Anglais  Thématique(s) du compte, date de création, volume de pages visitées, volume de contenus mis en ligne, nombre d’abonnés au compte, description de l’utilisateur, comptes de réseaux sociaux associés, localisation de l’utilisateur 

Oui Manuel/ automatique 

Oui

Keepstream.com 

Anglais  Nombre d’abonnés au compte, nombre de comptes auquel l’auteur est abonné, comptes de réseaux sociaux associés 

Non Manuel/ automatique 

Non

Page 107: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

107

 Les 7 plateformes analysées ont été préalablement sélectionnées par :  

- Le fait qu’elles se présentent explicitement comme « des plateformes de curation » - Leur présence dans un recensement effectué par le blog CaddE-Réputation61 ainsi que le

magazine en ligne 01Net62 - Leurs citations répétées (5 fois en moyenne) dans les 30 premiers articles de blogs

fournis par Google Blogs63 pour la requête « plateforme curation » au 1er mai 2011  La sélection finale des plateformes s’est appuyée principalement sur le contenu francophone présent dans celles‐ci, le volume de critères permettant de qualifier les agents‐facilitateurs présents, et le fait que le mode d’éditorialisation privilégié est manuel (plus grande souplesse d’annotation). Ainsi que deux critères fonctionnelles : la présence de flux RSS (pour une automatisation du suivi post‐sélection) et la présence d’un moteur de recherche interne (pour faciliter la recherche de thématiques et agents‐facilitateurs). 

 

                                                        61 http://caddereputation.over‐blog.com/article‐20‐plateformes‐de‐curation‐a‐experimenter‐64867079.html 62 http://pro.01net.com/editorial/529626/le‐guide‐de‐la‐curation‐%283%29‐les‐outils 63 http://blogsearch.google.com 

Page 108: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

108

ANNEXE 2 : profils d’agents­facilitateurs sur l’e­réputation  Pearltrees  Les  comptes  présentés  ici  ne  traitent  pas  exclusivement  de  l’e‐réputation.  La  colonne « Thématique » du tableau  indique donc  l’intitulé exact de  la  thématique traitée et en  lien avec  l’e‐réputation. A noter que Pearltrees (tout comme les autres outils dits de curation) développe son propre langage pour désigner, par exemple le « nombre d’abonné » (appelé « Prises »).  Toujours  pour  les  abonnés,  Pearltrees  à  la  particularité  de  faire  la  différence entre  le  nombre  d’abonnés  à  l’ensemble  des  thématiques  (regroupant  donc  diverses sources)  abordées  par  un  compte,  et  le  nombre  d’abonnés  totaux  au  compte.    De même pour  le  volume  de  contenu  (sur  l’ensemble  des  thématiques  ou  pour  une  thématique donnée). Dans les deux cas, sont comptabilisés et présentés ici seulement les volumes liés à la  thématique  voulue,  soit  l’e‐réputation.  De  plus,  Pearltrees  regroupe  les  liens  par « perles » :  une  perle  peut  contenir  plusieurs  liens  tout  en  étant  rattachée  à  une  même thématique (par exemple : pour la perle principale e­réputation, il y a 10 lien plus 4 perles contenant  elles‐mêmes  10  liens  chacune).  Ne  sont  présentés  que  les  chiffres  donnés explicitement par Pearltrees dans  la présentation des profils,  et que nous nommons donc « perles ».  Nom du  profil 

Thématique  de la « perle » 

Volume de  contenu 

Nombre d’abonnés 

Présentation Liens vers  d’autres comptes 

Volume de sources différentes 

Miniseb  

E‐réputation  32 perles 

37 Oui Blog 30 

Terryzim  Veille  image et  e‐réputation 

18 perles 

40 Oui Blog 16 

lavigiedelacomm  E‐réputation  38 perles 

22 Oui (seulement nom  de famille) 

Blog 30 

 

Page 109: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

109

Scoop.it  Scoop.it  à  un  fonctionnement  différent  de  Pearltrees  (notamment  au  niveau  de l’éditorialisation  des  contenus),  mais  repose  cependant  sur  le  même  principe  de  pages thématiques :  un utilisateur peut avoir plusieurs pages agrégeant des  liens et du  contenu sur des thématiques différentes. Nous nous sommes donc concentrer, pour notre exemple, sur les utilisateurs ayant développé une page sur la thématique de l’e‐réputation, page dont le titre contient explicitement le terme « e‐réputation ». De plus, et tout comme Pearltrees, Scoop.it  fournit des  statistiques générales pour un compte,  et  des  statistiques  spécifiques pour  chaque  page  liée  à  ce  compte. Nous  présentons  ici  les  statistiques  issues  des  pages thématiques  sur  l’e‐réputation.  La  présentation  et  les  liens  vers  d’autres  comptes  sont cependant issus du compte en lui‐même.  Nom du  profil 

Nom de  la  page thématique 

Volume de contenu 

Nombre d’abonnés 

Présentation Liens vers  d’autres  comptes 

Volume de sources  différentes  pour la page 

Mathieu Bruc 

E‐réputation, outils  de  veille  et monitoring  

22  55 Oui Twitter, Facebook 

21

gaelmallet  

e‐reputation  

14  14 Oui Twitter  10

Kevin Granger  

Hotel EReputation   

145  19 Oui Twitter, facebook 

112

  

 

Page 110: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

110

Les préoccupations concurrentielles liées aux pratiques de Google : l’avis de l’Autorité française de la concurrence 

 Florence Cherigny64 

Maître de Conférences à la Faculté de Droit et des Sciences Sociales de Poitiers Coresponsable du Magistère en Droit des TIC 

(Techniques de l’Information et de la Communication) Membre du laboratoire « Propriété Intellectuelle et Nouvelles technologies » du CECOJI 

(Centre d’Etudes sur la Coopération Juridique Internationale), (UMR 6224). florence.cherigny@univ‐poitiers.fr 

  Résumé :  Dans  un  avis  consultatif  rendu  le  14  décembre  2010,  l'Autorité  française  de  la concurrence a  affirmé que Google  jouissait d'une position dominante  sur  le marché de  la publicité  en  ligne  liée  aux moteurs de  recherche  et  elle  a  exprimé des préoccupations de concurrence tenant aux potentiels abus liés à cette position dominante. Elle a caractérisé de possibles abus d’éviction destinés à éliminer les concurrents par des procédés ne relevant pas  d’une  compétition  par  les mérites  et  d’éventuels  abus  d’exploitation,  par  lesquels  le moteur de  recherche  imposerait des  conditions  exorbitantes  à  ses partenaires  ou  clients. Elle  s’est  également  préoccupée  du  sort  de  la  presse,  à  la  fois  cliente,  partenaire, concurrente et potentiellement fournisseur de Google.  Mots­clés : Google, moteurs de recherche, recherche d’informations, publicité en ligne, concurrence, pratiques anticoncurrentielles.    Introduction  Dans sa course à  la centralisation de l’information mondiale, Google se trouve de manière récurrente confronté à trois critiques de la part des juristes : son absence de considération pour  le  respect de  la vie privée,  son mépris de  la propriété  intellectuelle et  ses pratiques anticoncurrentielles. C’est ce dernier point qui retiendra notre attention aujourd’hui.   

                                                        64 ‐ Maître de Conférences en Droit privé (HDR) à la Faculté de Droit et des Sciences Sociales de Poitiers depuis 1994.  ‐ Co‐responsable du Magistère en Droit des TIC (Techniques de l’Information et de la Communication)  et des Licence III et Master Professionnel Droit des TIC à la Faculté de Droit et des Sciences Sociales de Poitiers.  ‐ Responsable des aspects juridiques de la certification C2I (Informatique et Internet) Métiers du Droit dans le cadre de l’UNR‐PCL (Université Numérique en région Poitou‐Charentes‐Limousin).  ‐ Membre du laboratoire « Propriété Intellectuelle et Nouvelles technologies » du CECOJI (Centre d’Etudes sur la  Coopération  Juridique  Internationale),  unité mixte  de  recherches  associant  l’Université  de  Poitiers  et  le CNRS (UMR 6224). ‐ Membre du Comité d’expertise scientifique de la Section de Droit privé de la Faculté de Droit de Poitiers.  

Page 111: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

111

Les activités de Google font ces derniers temps l’objet d’une attention croissante de la part des autorités de la concurrence en Europe : deux plaintes ont été déposées auprès de l’office des  cartels  allemands  ;  deux  procédures  ont  été  engagées  auprès  de  l’Autorité  de  la concurrence  italienne ;  la Commission européenne a ouvert une enquête  approfondie  sur Google le 30 novembre 2010 et, comble de l’ironie, même Microsoft a décidé de se joindre à la vaste procédure d’enquête concernant Google, en apportant son témoignage et ses griefs.   De son côté,  l’Autorité  française de  la  concurrence a également été conduite à s’exprimer sur  les  activités  de  Google.  Elle  l’a  fait,  notamment,  dans  le  cadre  d’un  important  avis consultatif de 80 pages, rendu le 14 décembre 2010, sur le secteur de la publicité en ligne. Nous  nous  proposons  de  vous  livrer  une  analyse  critique  de  cet  avis,  en  adoptant  une méthodologie en cinq points. Nous commencerons par éclairer  le  contexte qui a présidé à cette  demande  d’avis  à  l’Autorité  de  la  concurrence  (1).  Puis,  nous  étudierons  les préoccupations  concurrentielles  exprimées  à  l’Autorité  par  les  concurrents  et  clients  de Google (2) et découvrirons les analyses développées par l’Autorité à propos des pratiques concurrentielles  de  Google  (3).  Enfin,  après  avoir  commenté  les  recommandations  que l’Autorité  a  adressées  aux  pouvoirs  publics  et  à  Google  (4),  nous  serons  en  mesure d’apprécier la portée de l’avis rendu par l’Autorité de la concurrence (5).   1 ­ Le contexte présidant à la demande d’avis adressée à l’Autorité de la concurrence  L’Autorité de la concurrence a été saisie par le ministre de l’Economie pour donner son avis sur    le  fonctionnement  concurrentiel  du  secteur  de  la  publicité  en  ligne,    secteur  très marqué  par  le  modèle  économique  de  la  publicité  liée  aux  recherches  ainsi  que  le développement économique de la firme Google.  1­1  La  saisine  pour  avis  de  l’Autorité  de  la  concurrence  sur  le  fonctionnement concurrentiel du secteur de la publicité en ligne  La situation centrale de Google dans le secteur de la recherche sur Internet a provoqué des inquiétudes  de  la  part  de  nombreux  protagonistes.  Ces  inquiétudes  ont  notamment  été relayées,  en  janvier 2010, dans  le  rapport  «Création et  Internet »  remis au Ministre de  la Culture et de  la Communication. Ce  rapport  suggérait de saisir, pour avis,  l’Autorité de  la concurrence.   Le  17  février  2010,  le  Ministre  de  l’Economie  a  saisi  l’Autorité  de  la  concurrence  pour solliciter son avis sur la situation concurrentielle existant dans le secteur de la publicité en ligne.  Cette  procédure  ne  mettait  pas  nommément  Google  en  cause,  contrairement  à l’enquête  anti‐trust  initiée,  depuis  lors,  par  la  Commission  européenne.  Néanmoins, l’enquête sectorielle réalisée par l’Autorité française a fourni l’occasion d’investigations très approfondies sur Google, au point d’ailleurs que la firme s’est émue des soupçons dont elle semblait personnellement faire l’objet.  Pour  réaliser  leur enquête,  les  services d’instruction de  l’Autorité ont  entendu  les  grands acteurs du secteur de la publicité en ligne ainsi que des spécialistes des études statistiques. Google a été reçue plusieurs fois. Ont également été entendus Pages Jaunes, Facebook et des moteurs de recherche concurrents de Google. L’instruction a aussi permis de recueillir  les 

Page 112: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

112

témoignages de syndicats des régies Internet et des acteurs de la presse. Enfin, les services de  l’Autorité de  la concurrence ont épluché 230 questionnaires  soumis à des annonceurs, questionnaires dont Google a d’ailleurs critiqué  la méthodologie, estimant qu’elle  le visait trop directement.   L'Autorité de  la  concurrence  a donc mobilisé d'importants moyens pour  rendre  son  avis, selon une méthode de  travail qui  se rapproche de celle aujourd’hui mise en œuvre par  la Commission  européenne,  dans  le  cadre de  l'enquête  ouverte  à  l'encontre  de Google  pour abus de position dominante.   1­2 Le modèle économique bi­face de la publicité en ligne liée aux recherches  En  peu  de  temps,  Google  s’est  imposé  comme  le moteur  de  recherches  le  plus  utilisé  au monde, au point que le nom de la firme se décline désormais comme un verbe. Aujourd’hui, pour  rechercher  sur  Internet  on  « googlelise ».  Cette  réussite  spectaculaire  en  cache  une autre, plus discrète : Google est également devenu la première régie cyber‐publicitaire sur le plan mondial, grâce aux liens sponsorisés qui sont au cœur de son modèle économique.   L’activité de moteur de recherche et celle de fourniture d’espaces publicitaires constituent, en effet, les deux versants d’un marché « biface », au sein duquel la réussite de la première conditionne l’attractivité de la seconde. D’un côté, l’activité de « référencement naturel » est fondée  sur  un  algorithme  qui  s’efforce  de  classer  les  pages  du  réseau  Internet  selon  la pertinence  par  rapport  à  la  requête.  Il  fournit  « gratuitement »  des  résultats  organiques, c'est‐à‐dire non sponsorisés. De l’autre,  le moteur de recherche propose aussi une activité rémunérée de liens commerciaux qui pointent vers la page Internet du site d’un annonceur.   Ce  modèle  publicitaire  présente  de  nombreux  avantages  pour  l’annonceur,  pour l’internaute et pour  le moteur de recherche. L’annonceur cible de manière pertinente des clients  potentiels  grâce  au  contexte  de  la  recherche  de  l’internaute,  ce  qui  augmente  son retour  sur  investissement.  En  effet,  l’affichage  de  la  publicité  dépend  d’une  intention  de l’internaute  et  la  publicité  est  sensée  répondre  à  un  besoin  de  l’utilisateur.  L’internaute, quant  à  lui,  ne  subit  pas  le  temps  de  chargement  des  pages  dû  à  l’affichage  de  lourdes bannières  publicitaires  qui  s’avèrent,  le  plus  souvent,  sans  intérêt  pour  lui.  Les  liens sponsorisés qui s’affichent, rapidement, à côté des résultats naturels présentent l’avantage d’être  discrets.  Enfin,  pour  le  moteur  de  recherche,  le  système  est  très  rentable. Entièrement automatisé, il permet  ‐ détail non négligeable ‐ de laisser définir le prix d'un clic par un système d’enchères sur les mots‐clés.     1­3  Le développement des activités économiques de la firme Google  Google est une société américaine fondée en 1998, dont la principale activité rémunérée est la vente de publicité. Sa réussite marchande est étroitement liée au succès de l’algorithme du  moteur  de  recherche,  développé  par  les  fondateurs  de  l’entreprise  il  y  a  quinze  ans, « PageRank ». À la différence des moteurs de l’époque, PageRank ne se limite pas à calculer l’occurrence  des  mots‐clés  présents  dans  une  page.  Il  intègre  d’autres  méthodes indépendantes du contenu des documents, afin d’obtenir un classement plus pertinent des 

Page 113: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

113

résultats,  notamment  des  méthodes  de  tri  basées  sur  une  notion  de  popularité.  Cet algorithme « populaire » a fortement contribué à la popularité du moteur de recherches. Le succès du moteur auprès des  internautes  français a été  très  rapide. Dès septembre 2001, Google détenait en France une part de marché de 30 % des connexions. En 2007, cette part de marché atteignait 90 %, position que depuis lors, Google a toujours maintenue.   La  réussite  de  Google  sur  le  marché  français  de  la  cyberpublicité  est  tout  aussi impressionnante.  Google  représente  plus  de  90 %  du  marché  de  la  publicité  liée  aux recherches  en  France.  La  vente  de  publicité  s’organise  schématiquement  autour  de  deux services. Aux annonceurs, Google propose «AdWords», un programme publicitaire  à base d’enchères qui permet aux annonceurs de placer leurs annonces sur les pages de recherche Google  ou  sur  les  sites  web  du  réseau  Google  AdSense.  Aux  éditeurs,  Google  propose «AdSense», qui permet d’accueillir automatiquement de la publicité contextualisée sur leurs pages en fonction du contenu de ces pages, moyennant un partage des recettes entre le site de contenu et Google.  Par  ailleurs,  le  succès  publicitaire  de  Google  lui  a  permis  de  diversifier  ses  services  et applications. La firme Google devient ainsi omniprésente. Google nous « offre » la possibilité de consulter les dernières actualités (Google Actualités), de comparer les prix de différentes marchandises  (Google  Shopping),  de  chercher  notre  route  (Google  Maps),  de  repérer  la piscine de notre voisin (Google Street View) ou de visualiser  le campement de Ben Laden (Google  Earth).  Google  nous  propose  également  de  lire  des  ouvrages  numérisés  dans  les plus grandes bibliothèques du monde  (Google Books), de visionner des vidéos  (rachat de Youtube),  de  téléphoner  (Androïd).  Enfin,  Google  nous  invite  à  partager  avec  lui  notre correspondance électronique (Gmail), à naviguer (Google Chrome) ou à nous réfugier dans les nuages («cloud computing » ou « informatique dans les nuages»).   Ce  développement  tout  azimut  de  Google  sur  différents  marchés  suscite  l’inquiétude  de nombreux  acteurs  économiques.  Ainsi  que  l’a  observé  l’Autorité  de  la  concurrence, « l’hégémonie  de  Google  est  redoutée,  son  pouvoir  de  marché  est  craint,  les  risques d’arbitraire sont mis en avant ». Google se trouve ainsi sous le feu de plusieurs critiques.  2­  Les  préoccupations  concurrentielles  exprimées  par  les  acteurs  économiques  à l’Autorité de la concurrence  Les  critiques  émanent  des  concurrents  de  Google,  de  ses  clients  et  de  la  presse,  qui  se trouve être dans une position délicate puisqu’elle est à la fois cliente et concurrente de ce dernier.   2­1 Les préoccupations des concurrents de Google  Les  concurrents  de  Google  fustigent  des  stratégies  qui  consistent,  pour  Google,  à décourager, retarder, éliminer les concurrents et élever des barrières à l’entrée du marché. Ces barrières peuvent être soit de nature contractuelle, soit de nature technique.   

Page 114: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

114

Les  concurrents  de  Google  contestent  d’abord  une  politique  contractuelle  destinée  à  les priver de la possibilité d’indexer les contenus de manière aussi exhaustive que Google. Les contrats  d’exclusivité  signés  par  Google  avec  des  bibliothèques  pour  la  numérisation  de leurs  fonds  posent  notamment  problème.  Ainsi,  l’instruction  a  relevé  l’existence  d’un contrat entre Google et la bibliothèque de Lyon qui comporte une clause d’exclusivité de 25 ans, emportant  l’interdiction de  faire numériser  le  fonds de  la bibliothèque par une autre entreprise durant toute cette période.   Par ailleurs, les contrats qui régissent les relations entre Google et les sites partenaires du réseau  AdSense  comprennent  des  clauses  accordant  à  Google  l’exclusivité  des  liens commerciaux.  Ainsi,  le  site  partenaire  ne  peut  pas  afficher  les  publicités  de  réseaux concurrents  s’il  expose  des  publicités  fournies  par  Google.  Ces  clauses  d’exclusivité favorisent  le réseau de Google et  rendent plus difficile pour un concurrent  la constitution d’un réseau de sites partenaires.   L’élévation des barrières à l’entrée du marché peut également prendre la forme d’obstacles techniques,  ainsi  que  l’illustre  le  problème de  l’indexation de Youtube. Certains  éléments suggèrent que Google ne favoriserait pas l’indexation des pages de Youtube par les autres moteurs de recherche, car le site de vidéos de Google ne comporterait pas de « Site Maps ». Il  semble  notamment  que  Bing,  le moteur  de  recherche  de Microsoft,  ne  parvienne  qu’à indexer une fraction de Youtube, contrairement à Google.   Par  ailleurs,  certains  sites  Internet  se  sont  plaints  de  pratiques  de  Google  concernant  le classement  ou  le  score  de  qualité  qui  leur  avait  été  attribué.  Ils  ont  notamment  fait  état d’évolutions brutales, et à leurs yeux injustifiées, de ces classements ou scores, ainsi que des classements ou scores plus favorables dont bénéficieraient des services de Google ou de ses filiales  (notamment  le  service  de  vidéo  Youtube  et  le  service  de  recherche  géographique Google Maps). C’est  précisément  le  sujet  dont  est  saisie  la  Commission  européenne,  à  la suite de plaintes déposées par des fournisseurs de service de recherche verticaux.   En  France,  la  présentation  des  résultats  de  recherche  géographique  focalise particulièrement  l’attention  des  acteurs  économiques.  Quand  les  termes  d’une  requête laissent deviner une recherche géographique, Google affiche une carte « Google Maps » sans faire apparaître les autres services de recherche géographique. Certes, «Google Maps » n’est pas payant aujourd’hui  en France. Mais  il  l’est dans  certaines  villes des États‐Unis,  ce qui pourrait annoncer une évolution.   Enfin,  la  participation  de  Google  ou  de  ses  filiales  aux  enchères  du  service  AdWords  a également été mise en cause. Plusieurs comptes Google sont recensés dans la liste des 500 plus  gros  annonceurs  utilisant  AdWords,  ce  qui  peut  fausser  la  concurrence  des  prix.  En particulier, Youtube  achèterait  des mots‐clés  associés  au  thème de  la  vidéo à un prix qui serait incompatible avec celui du marché.      

Page 115: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

115

2­2 Les préoccupations des clients de Google  Les clients annonceurs dénoncent principalement les agissements arbitraires et opaques de Google Adsens. L’un des avantages d’AdSense est de fournir des annonces ayant un rapport  avec  le contenu de  la recherche de  l’internaute. Mais cette qualité peut se  transformer en défaut pour  les annonceurs qui ne parviennent pas à savoir quelles sont  les annonces qui sont parues et soupçonnent que leurs résultats puissent être dilués à cause de la fraude aux clics (pratiques des « serial cliqueurs »).   De nombreux clients ont également souligné que Google disposait d’une certaine marge de manœuvre  lui  permettant  de  manipuler  les  enchères.  En  effet,  le  classement  des enchérisseurs  dépend  d’un  coût  par  clic  pondéré  par  un  score  de  qualité,  dont  l’élément central  est  le  taux de  clic. Ainsi,  un  annonceur qui n’est  prêt  à  payer qu’un  euro par  clic, mais qui a un taux de clic élevé, pourra être mieux positionné qu’un annonceur qui est prêt à payer 10 euros, mais dont les annonces ne génèrent aucun clic. L’instrumentalisation de ce score de qualité peut donc permettre à Google de manipuler les enchères.   Enfin, les éditeurs de sites Internet membres du réseau publicitaire de Google se plaignent de manquer d’informations à propos des services de Google. Ils soulignent particulièrement l’opacité  qui  préside  aux  modalités  de  partage  des  revenus.  Cette  préoccupation  est également exprimée par les acteurs de la presse.    2­3 Les préoccupations de la presse  La  presse  se  trouve  dans  une  relation  très  particulière  car  elle  est  à  la  fois  cliente, partenaire,  concurrente  et  potentiellement  fournisseur  de  Google.  L’une  des  raisons  de l’insatisfaction  des  éditeurs  provient  de  l’absence d’audit  ou  de  certification  des  données fournies  par  Google,  notamment  les  recettes  nettes  à  partir  desquelles  est  calculé  le reversement dû aux partenaires.   Outre  l’opacité  de  ces  relations  contractuelles,  la  presse  dénonce  une  déstabilisation  du modèle économique traditionnel basé sur la qualité éditoriale et l’apparition d’un nouveau paradigme fondé sur les seuls indicateurs de performance (comme le coût par clic).   Enfin,  la  presse  reproche    une  forme  de  parasitisme  économique    à  l’oeuvre  dans  le fonctionnement de l’agrégateur « Google Actualités ». Google, en présentant le meilleur de chaque titre, deviendrait le site de référence de l’accès à l’information, et cela sans verser de contrepartie  financière  aux  journaux  qui  supportent  les  coûts  de  la  création  d’une information de qualité. La presse fait observer que, pourtant, Google a pu signer des accords comportant une contrepartie financière avec l’AFP ou Twitter.       

Page 116: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

116

3­  L’analyse    des  pratiques  concurrentielles  de  Google  par  l’Autorité  de  la concurrence  L’analyse des pratiques concurrentielles de Google a conduit l’Autorité de la concurrence à établir la position dominante de Google sur le marché de la publicité en ligne et à mettre en exergue de possibles abus de position dominante.     3­1 La position dominante de Google sur le marché de la publicité en ligne  L’Autorité  de  la  concurrence  a  estimé  que  la  publicité  liée  aux  recherches  sur  Internet constitue  un  marché  non  substituable  à  d'autres  formes  de  communication,  notamment parce qu'elle  permet d'approcher un prospect dans une démarche  de  recherche  active  et donc proche de l'acte d'achat. Elle a considéré que le marché géographique de la publicité liée aux recherches présente une dimension nationale, en raison de l’existence de frontières non  seulement  linguistiques, mais  également  culturelles. Elle  rejoint  encore,  sur  ce point, l’opinion émise par la Commission européenne dans sa décision Google/DoubleClick.   Sur  le  marché  en  cause,  l’Autorité  de  la  concurrence  n’a  pas  éprouvé  de  difficultés  à démontrer la position dominante de Google. La part de marché de Google représente plus de  90 %  du  marché  de  la  publicité  liée  aux  recherches  en  France,  ce  qui  constitue évidemment un premier  indice  fort.  La profitabilité  très élevée de  l’activité de Google est également  remarquable,  puisque  le  taux  de  marge  de  Google  sur  les  liens  commerciaux atteindrait 35%. Les prix pratiqués par Google sur  les mots‐clés vendus aux enchères aux annonceurs seraient jusqu’à 4 fois supérieurs à ceux observés chez son concurrent Yahoo! Par  ailleurs,  le  fait  que  Google  puisse  s’abstraire  assez  largement  de  l’insatisfaction  des annonceurs  dans  le  cadre  des  relations  contractuelles  qu’il  noue  avec  eux,  constitue également un indice de position dominante. Enfin, il existe un certain nombre de barrières à l'entrée des deux côtés du marché biface.   Les  barrières  à  l’entrée  semblent  élevées  pour  concurrencer  le  moteur  de  recherche  en raison de coûts fixes élevés, d’un effet de taille pour améliorer la pertinence de l'algorithme et  de  l'avance  de  Google  s'agissant  de  l'exhaustivité  de  l'indexation.  Les  barrières  sont également  élevées  pour  concurrencer  l’activité  de  publicité  en  raison  de  la  faiblesse  du trafic des autres moteurs, de  la difficulté de développer un réseau de syndication et de  la difficulté  de  proposer  une  offre  complémentaire  de  publicité  contextuelle.  Tous  ces éléments convergent pour établir la position dominante de Google. Cependant, de manière très classique, l’Autorité de la concurrence considère que la position dominante de Google n'est  pas  condamnable  en  soi  et  que  seul  l'exercice  abusif  d'un  tel  pouvoir  de  marché pourrait être sanctionné.   3­2 Les possibles abus de position dominante de Google 

L'avis met en exergue les possibles abus d'éviction destinés à décourager les concurrents et les éventuels abus d'exploitation vis‐à‐vis des partenaires et des clients. 

 

Page 117: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

117

3­2­1 Les possibles abus d'éviction destinés à décourager les concurrents 

L’Autorité  a  d’abord  examiné  les  accords  d’exclusivité  relatifs  aux  contenus  indexés.  Elle considère que ces exclusivités ne peuvent être condamnées en elles‐mêmes, car elles visent à  protéger  un  investissement,  la  numérisation  étant  une  opération  coûteuse.  Il  est vraisemblable  que  Google  ne  réaliserait  pas  une  telle  opération  si  les  fichiers  concernés étaient  libres  de  droits.  Mais,  si  les  clauses  d’exclusivité  paraissent  relever  d’une concurrence  par  les  mérites,  le  champ  et  la  durée  des  exclusivités  ne  doivent  pas  être excessives.  A  cet  égard,  l’Autorité  de  la  concurrence  estime,  avec  raison,  que  la  clause d’exclusivité de 25 ans stipulée avec  la Bibliothèque de Lyon paraît  très exagérée, surtout  au  regard  du  rythme  de  changement  du  secteur.  Google  semble  d’ailleurs  en  avoir  pris conscience en précisant au cours de l’instruction qu’elle n’appliquerait pas cette clause du contrat.  

Les  obstacles  techniques  empêchant  les  concurrents  d’indexer  Youtube  n’appellent  pas d’observations très approfondies de la part de l’Autorité de la concurrence, ce que l’on peut regretter. L’Autorité de la concurrence n’a pas vraiment cherché à déterminer si  l’absence de mise en place de « Site Map » par Youtube peut trouver une justification objective, si elle est réellement la cause du retard d’indexation de Youtube par les moteurs concurrents, et enfin  dans  quelle mesure  le moteur  de  recherche  de  Google  dispose  d’informations  plus détaillées de la part de sa filiale. La commission européenne aura à charge de trancher cette question.  S’agissant de la manipulation du classement ou du score de qualité, l’Autorité formule deux observations  importantes.  D’une  part,  elle  considère  recevable,  dans  son  principe, l’argument de Google selon lequel le moteur de recherche doit être en mesure de prévenir ou  de  corriger  certains  comportements  trompeurs  ou  malveillants,  dès  lors  qu’ils  sont contraires  à  l’intérêt  des  internautes.  Encore  faut‐il,  selon  elle,  vérifier  que  c’est  bien  la protection des internautes, et non le souci d’accroître les revenus du moteur de recherche, qui justifie l’altération du classement. D’autre part, l’Autorité ne s’avoue pas convaincue par l’affirmation de Google selon laquelle un moteur de recherche n’aurait pas intérêt à biaiser la  présentation  des  résultats  de  recherche,  dans  la mesure  où  les  internautes  pourraient alors détecter aisément  cette baisse de pertinence et  se  tourner vers  la  concurrence. Elle estime,  en  effet,  que  Google  est  sensiblement  en  avance  sur  ses  concurrents  dans l’exhaustivité des contenus  indexés, ce qui  lui  laisserait,  jusqu’à un certain point, une plus grande liberté pour altérer la pertinence du classement, s’il le désirait.  

De manière plus circonstanciée,  l’Autorité considère que  l’apparition d’une carte « Google Maps » en cas de recherche géographique avantage artificiellement le service de Google. Il conviendrait  de  rechercher  dans  quelle  mesure  l’avantage  ainsi  conféré  est  de  nature  à avoir un effet positif sur la concurrence.  

La  participation  de  Google  ou  de  ses  filiales  aux  enchères  du  service  AdWords  pose également  problème  car,  dès  lors  qu’il  s’agit  d’un  simple  transfert  financier  entre  deux activités  du  même  groupe,  Google  peut  avoir  intérêt  à  faire  artificiellement  monter  les enchères sans que cela ne lui coûte réellement. Il serait donc nécessaire de rechercher si le montant  des  enchères  provenant  des  filiales  de  Google  reste  proportionné  à  la  valeur 

Page 118: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

118

intrinsèque du lien commercial ou s’il inclut une dimension stratégique sous la forme d’une prime d’éviction.  

3­2­2 Les possibles abus d’exploitation vis­à­vis des partenaires et des clients 

L’Autorité de la concurrence a déjà eu l’occasion, dans le cadre d’une procédure opposant Google  à  la  société  Navx,  une  petite  société  qui  proposait    des  logiciels  permettant  de localiser  des  radars  routiers,  de  déplorer  le manque  d’objectivité  et  de  transparence  des règles publiés sur AdWords. Elle avait alors mis en évidence des différences de traitement entre  les  fabricants  de  GPS,  qui  pouvaient  promouvoir  la  fourniture  de  ces  bases  de données  sans  être  exclus  du  service  AdWords,  et  les  fabricants  d’avertisseurs  qui  ne  le pouvaient pas. L’Autorité avait donné cinq jours à Google pour rétablir le compte de Navx et quatre mois pour clarifier sa gestion des Adwords. Des engagements pris par Google devant l’Autorité de  la concurrence, et rendus obligatoires par celle‐ci, avaient  finalement permis une  solution  négociée.  L’autorité  de  la  concurrence  observe  que  cette  affaire  illustre  de manière convaincante que le droit de la concurrence peut apporter une réponse, dans des délais rapides, aux problèmes soulevés par certains abus de comportements.  

S’agissant du reproche fait par la presse de « parasitisme économique » à l’oeuvre dans le fonctionnement de «Google Actualités »,  l’Autorité observe qu’avec  ce  service, Google  fait davantage qu’indexer les contenus des éditeurs de presse : elle les agrège, les classe et les met  en  forme. En proposant un  contenu éditorial d’aspect  similaire  à  ceux offerts  sur  les sites d’information, avec les rubriques standards par grandes thématiques, sans supporter de  coût  de  production  de  l’information,  elle  tire  bien  profit  des  spécificités  de  chaque éditeur et de  leurs avantages comparatifs dans chaque domaine.  Elle estime donc que  les éditeurs de presse doivent pouvoir demander et obtenir d’être exclus de « Google Actualités »  sans  pour  autant  être  déréférencés  du  moteur  de  recherche  de  Google.  Google  a  pris récemment des engagements en ce sens devant l’autorité de concurrence italienne.   S’agissant  des  problèmes  d’opacité  des  modalités  de  partage  des  revenus  publicitaires, l’Autorité française observe que Google a également pris l’engagement devant l’Autorité de concurrence  italienne  de  divulguer  les  pourcentages  de  recettes  reversées  aux  éditeurs partenaires.    4 – Les recommandations formulées par l’Autorité de la concurrence   Alors que l’Autorité de la concurrence avait la possibilité de s'autosaisir des pratiques mises en  œuvre  par  Google,  elle  a  décidé  de  ne  pas  ouvrir  d’enquête  de  son  propre  chef, soulignant que la Commission européenne avait engagé une telle procédure fin novembre. L’Autorité  a  préféré  préconiser  des  mesures  ciblées,  en  établissant  un  remarquable document  pédagogique  récapitulant  ses  propositions.  Dans  ce  tableau  synthétique,  elle  a indiqué les suites à donner en cas de non observation de ses recommandations (soit, selon les  cas,  un  examen  par  l’Autorité  de  la  concurrence  ou  une  enquête  de  la  Commission européenne). L'Autorité a ainsi rédigé un petit « guide‐âne” de la concurrence à l’intention de  Google.  Celui‐ci  doit  conduire  Google  à  réajuster  ses  comportements.  Une  entreprise avertie, en vaut deux… 

Page 119: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

119

 Par ailleurs,  l’Autorité de la concurrence a déconseillé aux autorités françaises d'instaurer une nouvelle réglementation pour l'ensemble du secteur de la publicité en ligne, ce dont on ne peut que se féliciter, compte tenu de la propension du législateur à intervenir de manière désordonnée dans le domaine des nouvelles technologies. L’Autorité a tenu au contraire à attirer  l'attention  des  pouvoirs  publics  sur  les  risques  qu'entraînerait  une  intervention réglementaire trop précoce ou trop rigide.  

En revanche, l’Autorité de la concurrence a préconisé que les pouvoirs publics adoptent des mesures ciblées pour garantir plus de  transparence et d’équité  dans  la  façon dont Google partage ses revenus publicitaires avec les médias sur internet. Elle a notamment proposé de compléter  une  loi  de  1993,  la  loi  Sapin,  qui  réglemente  les  procédures  d’achat  d’espaces publicitaires dans les médias en imposant que les conditions tarifaires soient publiques et la facture d’achat envoyée à l’annonceur. Le législateur pourrait mettre en place, par exemple, des obligations de rendre compte de façon très détaillée le mode de calcul du partage des revenus publicitaires en indiquant les mots‐clés, la destination des liens, le nombre de clics reçus…  L’Autorité  envisage  également,  pour  les  médias  ou  groupes  de  médias  les  plus importants, que les critères selon lesquels Google partage ses revenus publicitaires fassent l’objet d’un audit, qui pourrait être certifié par une entreprise extérieure compétente. 

 

5 ­ La portée de l’avis rendu par l’Autorité de la concurrence  L’Autorité de la concurrence a misé sur la patience et la pédagogie. Sa patience s’explique, sans  nul  doute,  par  l’ouverture  de  l’enquête  formellement  dirigée  contre  Google  par  la Commission  européenne.  Il  est  d’ailleurs  vraisemblable  que  la  Commission  européenne prêtera une attention toute particulière à l’étude très approfondie réalisée par l’Autorité de la concurrence. Il y a également fort à parier que les concurrents et les clients mécontents de  Google  trouvent  dans  cet  avis  de  nombreux  arguments  à  l’appui  de  leurs  actions judiciaires.   La patience de  l’Autorité de  la  concurrence peut aussi  s’analyser comme  la volonté de ne pas  entraver  un  processus  d’innovation,  essentiel  dans  le  domaine  des  nouvelles technologies. L’hégémonie de Google, reléguant  loin derrière ses concurrentes, rappelle  la position de Microsoft  il y a quelques années. C'est  l’éternelle histoire de l’arroseur arrosé. Google assume aujourd’hui la position de Microsoft il y a quelques années, quitte à devoir fustiger  un  jour,  à  son  tour,  l’abus  de  position  dominante  d’un  futur  concurrent.  Car, l’histoire pourrait bégayer…  L’autorité  de  la  concurrence  a  souhaité,  dans  son  avis,  faire  œuvre  de  pédagogie.  Elle  a clairement  entendu  signifier  à  Google  que  le  droit  de  la  concurrence  était  en mesure  de sanctionner ses comportements anticoncurrentiels. Si Google doit faire le grand écart entre ses  objectifs  qualitatifs  de  pertinence  de  ses  résultats  et  les  impératifs  de  rentabilité économique de son activité publicitaire, il lui appartient de trouver, entre ces deux objectifs, un équilibre qui puisse être  jugé conforme au droit de  la concurrence. « Errare humanum est, perseverare diabolicum ». 

Page 120: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

120

 Le travail mis en œuvre par l’Autorité de la concurrence a déjà porté certains fruits. Dans le cadre de la procédure négociée à l’occasion de l’affaire Navx, Google a été conduit à clarifier sa gestion des Adwords. Lors de l’instruction réalisée dans le cadre de l’enquête sectorielle, Google a également renoncé à la clause d’exclusivité de 25 ans stipulée avec la Bibliothèque de  Lyon.  Mais  les  préoccupations  liées  aux  possibles  abus  de  position  dominante    de  la firme  restent  trop  nombreuses.  Elles  sont  d’autant  plus  alarmantes  qu’elles  mettent sérieusement en cause  le pluralisme de  l’information. La question de  la numérisation des bibliothèques  est    évidemment,  à  cet  égard,  éminemment  symbolique.  Les problèmes  liés aux relations de « coopétition » (coopération et compétition) entre Google et les éditeurs de presse sont également très significatifs. Mais les difficultés les plus importantes restent sans doute celles liées à la manipulation du score de qualité de son algorithme.   Au  cœur  de  la  recherche  d’informations  des  internautes  du monde  entier,  se  trouve  une petite boîte noire qui dissimule bien des secrets. Selon les fondateurs de Google, « PageRank est un champion de la démocratie ». Libre à ses fondateurs de le croire, libre aux autres d’en douter.  Il est certain, dans  tous  les cas, que  l’intérêt du moteur de recherche ne converge totalement ni avec celui de l’annonceur, ni avec celui de l’internaute. Ici réside, sans aucun doute, le côté obscur de la force de Google...  

Au‐delà des controverses techniques liées aux caractéristiques de PageRank, une évidence s’impose. Les pratiques contractuelles de Google revêtent, quant à elles, très clairement un caractère anticoncurrentiel : opacité des relations contractuelles, manque de transparence pouvant  conduire  à  des  traitements  discriminatoires,  exclusivités  « verrouillantes »…  la liste est impressionnante. Il reste à espérer que la Commission européenne mette un terme à  ces  pratiques  contestables.  Car,  le  respect  de  la  libre  concurrence  s’impose,  tout particulièrement sur  le marché de  la recherche d’informations,  comme un véritable enjeu démocratique.  

 Conclusion   En caractérisant  les préoccupations de concurrence  liées à  la « forte position dominante » de Google et en incitant ce dernier à observer ses multiples recommandations, l’Autorité de la concurrence adresse un signal fort à l’entreprise américaine, l’invitant ainsi à prendre son propre slogan à la lettre : « Google, don’t be evil ! ». Dont acte.  Orientations bibliographiques  Décisions des autorités de la concurrence   ‐  Autorité  de  la  concurrence,  Avis  n°  10‐A‐29  du  14  décembre  2010  de  l’Autorité  de  la concurrence sur le fonctionnement concurrentiel de la publicité en ligne, http://www.autoritedelaconcurrence.fr/pdf/avis/10a29.pdf  

Page 121: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

121

‐  Autorité  de  la  concurrence,  Décision  10‐D‐30  du  28  octobre  2010  de  l’Autorité  de  la concurrence  relative  à  des  pratiques mises  en œuvre  dans  le  secteur  de  la  publicité  sur Internet, http://www.autoritedelaconcurrence.fr/pdf/avis/10d30.pdf    ‐  Autorité  de  la  concurrence,  Test  de  marché  du  21  juillet  2010,  de  l’Autorité  de  la concurrence, dans le cadre d'une procédure ouverte devant  l'Autorité de la concurrence à l'initiative de  la société Navx,  les sociétés Google  Ireland Ltd et Google  Inc. proposent des engagements portant sur le service de publicité en ligne http://www.autoritedelaconcurrence.fr/user/standard.php?id_rub=378&id_article=1448 

‐ Autorité de la concurrence, Mesure conservatoire 10‐MC‐01 du 30 juin 2010 de l’Autorité de la concurrence relative à la demande de mesures conservatoires présentée par la société Navx :  L'Autorité  de  la  concurrence  ordonne  à  Google  de  mettre  en  œuvre  de  manière objective,  transparente  et  non‐discriminatoire  la  politique  de  contenus  de  son  service AdWords, http://www.autoritedelaconcurrence.fr/pdf/avis/10mc01 

‐ Commission européenne, «Antitrust: La Commission enquête sur des allégations d'infraction aux règles antitrust par Google »,  IP/10/1624, le 30 novembre 2010, http://europa.eu/rapid/pressReleasesAction.do?reference=IP/10/1624&format=HTML&aged=1&language=FR&guiLanguage=en 

‐ Commission européenne, « Concentrations: la Commission autorise le projet de rachat de DoubleClick par Google », Décision de la Commission européenne C(2008) 927 final du 11 mars 2008 dans l’affaire n° COMP/M.4731, http://ec.europa.eu/competition/mergers/cases/decisions/m4731_20080311_20682_fr.pdf  ‐  Conseil  de  la  concurrence,  Décision  n°  05‐D‐34  du  27  juin  2005  du  Conseil  de  la concurrence relative à des pratiques mises en oeuvre sur le marché de la vente sur Internet d'appareils  audiovisuels,  Concurrence  c/  Stés  Google  France,  Kelkoo,  Sony  France  et Fotovista, www.autoritedelaconcurrence.fr/pdf/avis/05d34.pdf 

Monographies  

Battelle,  J.  La  révolution  Google.  Comment  les  moteurs  de  recherche  ont  réinventé  notre économie et notre culture, Eyrolles,  2009.  

Cassin, B. Google­moi, La deuxième mission de l’Amérique, Banc public, Albin Michel,  

Ippolita, La face cachée de Google, Manuels Payot, 2008. 

Articles de périodique   Bosco,  D.  « Google  et  le  droit  de  la  concurrence :  avis  de  tempête ! »,  Communication Commerce électronique, n° 4, Avril 2011, étude 7.    

Page 122: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

122

Bosco,  D.  « Google  dans  le  viseur  de  l'Autorité  de  la  concurrence»,  Contrats  Concurrence Consommation, n° 2, Février 2011, comm. 36. Chérigny, F.  « Le référencement sur l’internet au regard du droit interne de la concurrence », Droit des technologies avancées, Vol. 8 ‐ n° 2/2001, Hermes sciences, p. 201 à 232.  Girard,  B.  « Google,  une  formidable machine  à  innover »,  Le  journal de  l'école de Paris du management, 2007/5 ‐ n°67, p. 8.  Girard, B. « Google en parfait modèle du capitalisme cognitif », Multitudes 1/2009 (n° 36), p. 78‐81, www.cairn.info/revue‐multitudes‐2009‐1‐page‐78.htm.  Kiryou, A. « Beyond Google », Multitudes 1/2009 (n° 36), p. 38‐43, www.cairn.info/revue‐multitudes‐2009‐1‐page‐38.htm.  Lescope,  D.   « Les  moteurs  de  recherches  et  la  concurrence :  faut‐il  réguler Google ? », Concurrences, N° 2‐2010, n°30845, pp. 44‐49  Lévêque,  F.  «  Publicité  en  ligne :  Google  double  clique  et  gagne »,   Revue  Lamy  de  la Concurrence – 2009, p.18.   Levy, P. « Au‐delà de Google », Multitudes 1/2009 (n° 36), p. 45‐52, www.cairn.info/revue‐multitudes‐2009‐1‐page‐45.htm.  Moulier‐Boutantg,  Y.  et  Rebiscoul,  A.  «  Peut‐on  faire  l'économie  de  Google ?  », Multitudes 1/2009 (n° 36), p. 83‐93, www.cairn.info/revue‐multitudes‐2009‐1‐page‐83.htm.  Multitudes,  «  Google  et  au‐delà »,  Une  bibliographie  commentée  et  quelques  liens..., Multitudes  1/2009  (n°  36),  p. 114‐117,  www.cairn.info/revue‐multitudes‐2009‐1‐page‐114.htm.   Rebillard F., Smyrnaios N., 2010, « Les infomédiaires, au coeur de la filière de l’information d’actualité  en  ligne.  Les  cas  de  Google,  Wikio  et  Paperblog  »,  Réseaux,  La  Découverte,  n° 160‐161, pp. 164‐194.  Russel,  G.  “Google,  ou  comment  s'imposer  comme  un  point  de  passage  oblige”, Conférence DocSoc  2006  ­  Semaine  du  document  numérique,  Fribourg  (Suisse)  :  (2006), http://archivesic.ccsd.cnrs.fr/sic_00110306/en/ 

 

Page 123: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

123

Le grand défi des professionnels  de l’information :  un défi technologique ou humain ? 

 Louis­René Dessureault65 

Vice‐président Ventes et marketing Canada et Services conseils‐ Amériques,  CEDROM‐SNi, Montréal, Québec, Canada 

  

Résumé :   Le rôle des spécialistes de l’information, des bibliothécaires et des documentalistes est en constante évolution voire en révolution depuis quelques années.  Pas surprenant dans un monde où les organisations elles‐mêmes sont en constante mutation, où les affaires se font à la vitesse de la lumière, où les frontières n’en sont plus et où les TIC sont omniprésentes et de plus en plus conviviales.  Actif dans le domaine de la gestion de l’information dans les organisations de toutes sortes, CEDROM‐SNi se penche depuis plus de 22 ans sur le rôle des professionnels afin de développer des outils performants visant à faciliter l’accès à la bonne information, celle qui fera la différence au moment de la prise de décision.   L’atelier/conférence proposé se présente comme un partage de l’expérience, de l’expertise et de la vision du management de l’information d’actualité et d’affaires.  Au fil du temps et au contact de plus de 500 clients actifs, nous avons appris et développé des approches et méthodologies qui permettent aux organisations de mieux documenter les processus d’affaires stratégiques sur lesquels repose le succès de leur mission. Le nouveau concept d’« Embedded Librarian » fait son chemin dans les organisations modernes et apprenantes.  En ce sens, de pourvoyeurs d’information et de ressources documentaires, les spécialistes de l’information deviennent de plus en plus des ressources stratégiques déployées dans leurs organisations.  Comment ceux‐ci doivent‐ils modifier leur rôle, leur prestation afin de 

                                                        65 M.  Dessureault,  Vice‐président  Ventes  et marketing  Canada  et  Services  conseils‐  Amériques  s’est  joint  à CEDROM‐SNi  en  2005,  faisant  bénéficier  l’équipe  d’une  expérience  de  plus  de  20  années  dans  le développement et l’implantation de systèmes d’information stratégique, tant pour des organisations privées que publiques, plus spécifiquement destinés à la haute direction. Titulaire d’une maîtrise en bibliothéconomie et  des  sciences  de  l’information,  il  a  occupé  différentes  positions  stratégiques  dans  des  entreprises d’envergure,  telles  que  :  Sirsi  Canada,  Deloitte  &  Touche,  où  il  a  notamment  été  président  du  «  Global Knowlegde and Intelligence Practice » et où il a établi et publié une méthodologie d’audit informationnel, ainsi que chez Téléglobe où il implanta le premier service de veille concurrentielle. Tout au long de sa carrière, M. Dessureault a été impliqué dans le déploiement de services d’information stratégique pour ses clients.  Ainsi, il a complété plusieurs mandats de recherches, d’analyses de marché et de concurrence, d’audit informationnel et d’implantation de systèmes pour une gamme étendue de clients. Bien impliqué dans le milieu professionnel et universitaire, il a prononcé plusieurs conférences des deux cotés de l’océan et aux États‐Unis sur la gestion globale  de  l’information,  la  veille  informationnelle,  concurrentielle  et  technologique,  l’utilisation  de l’information  d’actualité  en  organisation,  l’importance  de  l’audit  informationnel  pour  les  services d’information et sur l’évolution du rôle des professionnels de l’information dans les organisations.  

Page 124: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

124

soutenir pleinement  l’organisation en se positionnant au centre de la gestion de l’information stratégique ?  Mots­clés : gestion de l’information, veille stratégique, planification stratégique mutation, professionnel de l’information  

Page 125: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

125

Communication stratégique et blogs durant la guerre de Gaza (2008­2009) : l’Etat israélien et l’enjeu de l’information 

 Isabelle Hare66  

Maître de Conférences en Sciences de l’Information et de la Communication, Icomtec / Université de Poitiers (France) 

Membre du laboratoire ELICO –Université de Lyon (France)  

Mahsa Yousefi Darani67  Étudiante en Master 2 Intelligence économique et communication stratégique, 

Icomtec / Université de Poitiers (France)   

 Résumé : L’offensive de l’armée israélienne à Gaza en 2008 constitue une sorte de paroxysme médiatique. La couverture de l’événement est mondiale et déploie deux types deux discours : celui des médias traditionnels et celui des médias numériques. Sur le plan militaire, l’incursion israélienne à Gaza est une réussite, mais c’est un échec sur le plan médiatique. Cette communication se propose d’étudier l’évolution de la stratégie de communication de l’Etat hébreu au regard de la généralisation des NTIC, et d’analyser les conséquences que leur gestion a pu avoir sur les représentations d’un conflit et sur l’image d’Israël dans les médias.  Mots­clés : Conflit, Gaza, Israël‐Palestine, médias, supports numériques, stratégie de communication.  

Introduction 

Le  conflit  israélo‐palestinien  est  riche  en  rebondissements  (guerres,  processus  de  paix avortés) et il est surtout riches d’images. Celles‐ci et l’information médiatique sont devenues un enjeu crucial pour l’Etat d’Israël souvent perdant dans la confrontation médiatique face 

                                                        66 Intervenante à l’Institut d’Etudes Politiques de Lyon. Membre du Laboratoire de recherche ELICO – EA 4147 / Université de Lyon (France). Matières enseignées : sémiotique, analyse et histoire des médias, audit de site internet,  éthique  et  philosophie  de  l’information  et  de  la  communication,  théories  de  la  communication, séminaire de  recherche violence  et médias. Thématiques de  recherche  : discours des acteurs politiques sur internet  dans  les  situations  de  crise  et  de  conflit.  Analyse  des  discours  en  ligne,  rhétorique  électronique. Modalisation  de  la  figure  des  acteurs  de  la  société  en  fonction  de  deux  paramètres  :  représentations médiatiques,  et  re‐présentation dans  les pages des  sites web. Objets  étudiés  :  période  conflictuelle  et post‐conflictuelle en Irlande du Nord ; conflit israélo‐palestinien ; violences faites aux femmes en France ; femmes et médias ; NTIC et révolte iranienne en 2009, métadiscours journalistique et éthique de l’information. 67 Etudiante Iranienne en master 2. Licence information et communication des entreprises (ICE) à l’Université de Poitiers,  ICOMTEC. Licence en Comptabilité en Iran. Matières étudiées  : Management de  la connaissance, Influence  et  lobbying,  Stratégies  de  contre‐information,  Logiciels  de  veille  et  de  gestion  des  connaissances, Intelligence économique et stratégie des entreprises, Veille et prospective, NTIC et  innovation. Thématiques de  recherche  :  E‐réputation,  Knowledge  Management  dans  les  entreprises,  la  place  des  stratégies  de l’information au sein des Etats. Objets étudiés : NTIC et révolte iranienne en 2009, Images et événements.   

Page 126: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

126

aux Palestiniens.  Pourquoi  ? Nous  voulons  ici  tenter de  comprendre  comment,  depuis dix ans, l’Etat hébreu a perdu de façon presque systématique cette « guerre des images ».   Un élément clef de l’analyse de ce processus informationnel est la généralisation, entre 2000 et  2010,  des  Nouvelles  Technologies  de  l’Information  et  de  la  Communication.  Le gouvernement  israélien  a  dû  prendre  en  compte  cette  évolution  dans  sa  gestion  de l’information,  et  l’équation  informationnelle  s’est  complexifiée  avec  l’apparition  des téléphones  portables,  des  appareils  photos  et  des  caméras  numériques,  ainsi  que  des nouveaux  dispositifs  d’écriture  individuels  (blogs)  et  communautaires  (forums,  réseaux sociaux, micro‐bloggings) sur internet.  Israël    fait  donc  désormais  face  à  plusieurs  fronts  :  politique  et  militaire,  médiatique  et numérique.  L’information  a  toujours  été  un  enjeu  vital  en  temps  de  guerre  ;  la  stratégie militaire  se basant  sur  la  stratégie de  l’information, et  inversement. Avec  la multiplication des  sources  de  production  et  de  re‐production  de  l’information,  il  est  devenu  presque impossible d’identifier l’origine d’une information et donc de la contrôler. La guerre de Gaza, survenue entre décembre 2008 et janvier 2009 est, à cet égard, exemplaire car les différents modèles  informationnels  (production,  reproduction‐médiatisation,  contrôle)  inhérents  à tous conflits modernes sont reproduits en un temps très court.  Nous  faisons  l’hypothèse  que  pour  Israël,  durant  la  guerre  de  Gaza,  l’enjeu  d’une  gestion stratégique de l’information s’est situé à trois niveaux :  ‐  dispositif par  la  connaissance et  le  contrôle des  supports de  l’information  (médias,  sites internet et blogs, réseaux sociaux, plateformes de micro‐blogging) ; ‐  discursif  par  la  connaissance et  le  contrôle des discours  et  des  images véhiculés  sur  ces différents médias ; ‐  sociologique  par  la  connaissance  des  usagers  de  ces  médias  (producteurs,  lecteurs  et passeurs de l’information).  Chacun  de  ces  niveaux  doit  être  appréhendé  selon  des  temporalités  différentes  entre  le moment de  l’événement et celui de sa représentation  ;  le  temps de  la médiation ayant été fortement raccourci avec le développement des NTIC.  Quel  impact a eu la généralisation de l’usage des NTIC dans les conflits ? Répondre à cette question nous permettra de développer le thème de la gestion stratégique de l’information par  l’Etat  hébreu  dans  le  conflit  israélo‐palestinien  depuis  dix  ans.  Nous  verrons  ensuite dans  quelle  mesure  Gaza  constitue  un  exemple  des  nouveaux mécanismes  de  gestion  de l’information  par  Israël.  Comment  ceux‐ci  ont‐ils  évolué  depuis  2008,  et  en  quoi  leur maîtrise risque de conditionner l’image d’Israël au Proche‐Orient et en Occident ?  

Page 127: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

127

I ­ Généralisation de l’usage des NTIC dans les conflits armés (2000­2010)   La  généralisation  de  l’usage  des  NTIC  a  provoqué  deux  effets  dans  la  gestion  de l’information,  induisant  avantages  et  inconvénients  aussi  bien  pour  les  producteurs  de l’information (les Etats par exemple) et que pour ceux qui la reçoivent (le public).  La conjonction de ces moments médiatiques classiques et multimédiatés dans les conflits est assez  nouvelle,  même  si  elle  n’est  pas  spécifique  à  Gaza  et  au  conflit  israélien.  En  effet, depuis 2003 et le début de la guerre d’Irak, les Etats‐Unis ont dû affronter le même type de phénomène. Le scandale de la prison d’Abou Ghraib en est la première illustration et l’affaire Jessica Lynch l’acmé médiatique. Depuis la première guerre du Golfe, le gouvernement nord‐américain  sait  gérer  l’information  médiatique  mais  il  n’a  pas  vu  venir  la  menace  des bloggeurs et des NTIC. L’information désormais se partage entre  individus (blogs,  réseaux sociaux, forums) avant même d’être médiatisée.  1­ Les Etats et l’information  L’information  est  une  donnée  nécessaire  à  la  gestion  d’un  Etat  et  d’une  société.  La communication  et  la  circulation  de  l’information  vis‐à‐vis  du  public  et  des  médias  ont toujours constitué un enjeu de la gestion politique, économique et sociale d’un Etat. Mais ce qui est nouveau, c’est la façon dont cette gestion est bousculée par l’irruption des nouveaux médias (réseaux sociaux, blogs, plateformes de micro‐blogging) dans la sphère étatique de la régie stratégique de l’information.   1­1 Les nouvelles règles en matière d’information   Trois  facteurs  ont  modifié  les  équilibres  géopolitiques  et  géoéconomiques  et  les  ont fragilisés : la fin de la guerre froide et de l’opposition des deux blocs Est/Ouest, les attentats du  11  septembre  2001  et  le  redécoupage  Orient/Occident  consécutif  ainsi  que  la mondialisation des réseaux du fait des NTIC. Les conséquences de ces phénomènes sont de divers ordres comme l’indique Daniel Ventre dans son ouvrage, Cyberguerre et guerre de l’information  :  «  l’apparition  de  menaces  nouvelles  (terrorisme,  […]  attaques  contre  les systèmes d’information, la disparition progressive de la distinction entre sécurité intérieure et  extérieure,  […]  un  système de  sécurité  collective  fragile    ».    Cela  implique  d’établir  de nouvelles règles en matière de gestion stratégique de l’information.  Protéger l’information (sécurité)   La sécurité des systèmes d’information (SSI) des Etats, des entreprises et des particuliers est désormais  une  problématique  incontournable.  Les  menaces  de  cyber‐attaque  se  sont 

Page 128: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

128

multipliées par la généralisation de l’accès à internet ; les Etats sont les premiers concernés. En effet, hors l’enjeu technique de sécurisation informationnelle, les risques de violation des systèmes  d’information  questionnent  la  souveraineté  des  Etats.  Internet  a  déterritorialisé l’information et sa gouvernance, il s’est ouvert à la société civile mais aussi aux hackers.   D. Ventre fait la synthèse des faiblesses communes aux Etats modernes : « l’interconnexion des systèmes,  leur relation à  l’Internet,  le caractère contaminant de  l’Internet, dépendance de la société aux systèmes d’information, perméabilité de l’espace informationnel en raison des  équipements  mobiles,  faiblesses  du  protocole  internet,  utilisation  d’application  qui ajoutent à la complexité et aux failles de sécurité  ».  Les Etats  sont  contraints de mettre  en place de nouvelles  règles de  sécurité.  Sans  faire  le catalogue  des  mesures  technologiques  de  sécurisation  de  l’espace  informationnel,  il  faut préciser  que  la  sécurisation  de  l’environnement  informationnel  renvoie  à  des  stratégies d’influence  nouvelles  par  leur  formalisation  (réseaux  sociaux,  blogs,  etc.)  mais traditionnelles par leur contenu (donner sa vision du monde et la faire accepter).  Paradoxalement,  des  réseaux  sociaux  comme  Facebook,  Twitter,  Friendfeed  offrent  un exemple  de  sécurisation  d’information  par  l’influence.  Ce  sont  de  véritables  systèmes  de sécurité  d’information,  parce  que  sur  cette  toile  de  communicateurs,  les  adhérents  ou sympathisants à des groupes idéologiques (politiques, religieux, etc.) s’expriment facilement soit sous leur véritable identité, soit de façon anonyme ou pseudonyme. Ces réseaux sociaux sont contrôlés par des agents‐veilleurs qui relèvent les tags ou les tweets  dangereux et les signalent  à  la  police  nationale  ou  internationale  (Interpol),  ou  encore  au  Service d’Information  du  gouvernement  (SIG  en  France).  Loin  d’être  de  simples  plateformes d’échanges démocratiques,  les réseaux sociaux constituent aussi des sources d’information précieuses pour les Etats. Derrière le rideau d’une parole sans censure, se cache également un système de sécurité et de surveillance d’information.     Contrôler l’information (censure)   Avec Internet,  le volume d’information s’est multiplié de  façon exponentielle  ; cela pose  la question  de  l’analyse  et  du  contrôle  de  ces  données  par  les  Etats,  et  d’une  menace  de probable cyberguerre. Ainsi, après le second tour des élections présidentielles iraniennes en 2009, l’Etat iranien a mis en place un groupe d’intervention sur internet, une sorte de cyber‐police,  afin  d’avoir  un  regard  sur  les  informations  circulant  entre  les  différents  groupes religieux  et  politiques  de  la  société,  et  de  limiter  ainsi  les  actions  jugées  dangereuses  ou menaçantes.    De son côté, la Chine a mis en place un système de canalisation de l’information (plusieurs 

Page 129: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

129

entrées,  une  seule  sortie)  et  a  instauré  la  censure  des  informations  de  certains  méta‐moteurs de recherche. Dans son ouvrage La cyberguerre, Nicolas Arpagian relate  l’histoire du  journal    Libération  qui  a  interrogé  à  dessein  deux  versions  du  moteur  de  recherche google  avec  le  mot‐clé  “Tiananmen”.  Le  résultat  est  révélateur  :  google.fr  liste principalement des événements référant aux manifestations pour la démocratie de la place Tiananmen  en  1989,  alors  que  google.cn  renvoie  à  des  portraits  de  Mao  ainsi  qu’aux festivités se déroulant sur cette même place. Cela montre la capacité technologique d’un Etat à contrôler et moduler la diffusion d’une information.  L’aspect  sécuritaire  des  réseaux  sociaux  n’est  pas  leur  seule  caractéristique,  puisqu’ils permettent  de  fait  le  contrôle  de  l’information.  Si  un  individu menaçait,  sur  Facebook,  de poser  une  bombe  le  9  juin  2011  lors  de  la  conférence  du  COSSI  au  Canada,  il  serait immédiatement  suivi  par  des  trackers  informatiques  reliés  à  l’administrateur  du  réseau social  qui  alerterait  les  services  de  sécurité  nationaux  ;  son  compte  serait  bloqué  afin d’éviter la propagation de l’information sur le Web et une peur collective.  Les  Etats  se  soucient  de  la  multiplication  des  canaux  numériques  et  s’emploient  à  les surveiller.  Ils  mènent  ainsi  des  opérations  de  veille  sur  le  traitement  de  l’actualité gouvernementale  par  les médias  classiques mais  aussi  par  les  blogs,  les  réseaux  sociaux. Surveiller  est  devenu  aujourd’hui  plus  encore  qu’hier  l’une  des  activités  principales  des Etats en matière de contrôle de l’information.   A  côté  de  ces  réseaux  de  surveillance  étatique  du  net  se  mettent  en  place  de  véritables collectifs  de  contournement  de  ces  contrôles.  C’est  le  cas  de  l’association  Global  Voices, regroupant  des  bloggeurs  du  monde  entier,  qui  diffuse  des  boîtes  à  outils  informatiques pour lutter contre la surveillance des réseaux et contre la censure.  Diffuser l’information (propagande et contre­propagande)  Associés  aux  médias  traditionnels  (presse  écrite  et  audiovisuelle),  les  nouveaux  médias constituent  désormais  un  arsenal  de  propagande  puissant,  qui  combine  médiations  de masse (one to many) et médiations « de masse individuels  » ‐ via les sites internet (one to one) et les blogs, wiki et réseaux sociaux (many to many) dans lesquels plusieurs personnes contribuent à la construction d’un contenu.  Ces nouveaux paramètres complexifient la tâche du diffuseur ou du censeur de l’information ;  les  cibles  étant  multiples,  mouvantes,  déterritorialisées  et  interconnectées.  Les technologies  de  l’information  sont  «  des  moyens  d’étendre  et  d’amplifier  des  conflits initialement de faible dimension, soit parce qu’ils étaient  limités à une zone géographique, soit  parce  qu’ils  impliquaient  un  nombre  restreint    d’individus    ».  La  règle  en matière  de 

Page 130: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

130

propagande serait qu’il n’y a plus de règles. Les supports de communication sont multiples et chaque nouvel outil rend plus utopique la gouvernance d’internet par les Etats. Comment un Etat, engagé dans une action militaire, peut‐il se prémunir des publications diffusées sur les warblogs ou  les milblogs ? Ces blogs et  les  téléphones portables des soldats  inquiètent les états‐majors des armées, dans la mesure où les messages diffusés arrivent directement aux  familles  ou  aux  visiteurs  des  sites,  sans  avoir  été  filtrés  et  expurgés  d’informations  « gênantes ».   La  généralisation  des  technologies  de  l’information  dans  la  production  d’idéologies nécessite  donc  de  repenser  la  propagande.  Caroline  Ollivier‐Yaniv  propose  une  vision intéressante  de  l’opposition  entre  propagande  et  communication  publique,  et  montre  un glissement  terminologique  de  la  notion  de  propagande  vers  celle  de  communication publique.  Nous  pensons  que  celui‐ci  est  d’abord  la  conséquence  d’un  glissement technologique.  Pourquoi  ?  Comme  l’indique  C.  Ollivier‐Yaniv,  il  y  a  une  «  transformation démocratiquement correcte de la propagande à la communication publique  », mais celle‐ci serait‐elle possible sans  la généralisation de  l’usage des NTIC et  l’ouverture technologique (via  les  sites  webs  des ministères,  les  courriels  au maire  par  exemple)  aux  informations publiques, la concrétisation technologique de la transparence informationnelle ?   Elle affirme ensuite que la communication publique a permis de lever « deux interdits liés à la propagande dans un cadre démocratique […] le contrôle des médias de manière directe et autoritaire » ainsi que « la mise en visibilité sélective de l’information », par l’adresse directe des représentants du pouvoir au public et par la transparence de l’action publique.   Cela nous amène à penser que ce travestissement de la propagande incite les opposants aux Etats  à  multiplier  les  attaques  afin  de  proposer  un  contre‐discours  au  discours  officiel, susceptible  de  dévoiler  la  «  supercherie  ».  Cette  opposition  systématique  de  discours  en ligne  en  temps  de  crise  serait  devenue  «  un  impensé normatif  de  la  communication  dans l’espace public  ».   1­2 Repenser la communication stratégique étatique : vers une cyberguerre ?  La  guerre  a  changé  de  visage  et  s’est  aujourd’hui  élargie  au  cyberespace.  Avec  les technologies du Web 2.0, le champ de bataille est désormais aussi numérique et Internet y joue  un  rôle  primordial.  En  2011,  les  Etats  combinent  de  façon  presque  systématique  les opérations  classiques  de    désinformation  et  de  propagande,  associées  à  des  supports  de diffusion  très  contemporains  comme  les  blogs  et  YouTube  ;  les  opposants  et  les sympathisants  des  deux  camps  accréditent  ou  discréditent  en  ligne  le  dire  et  l’agir.  Les forums et  les  blogs  communautaires  s’activent  au  fil  des  événements. Désormais,  gérer  la guerre et la crise civile avec elle nécessite une « cybercompétence » de la part des Etats.   

Page 131: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

131

Cyberguerre ou netguerre ?  Comment  nommer  ces  nouveaux  territoires  guerriers  ?  La  cyberguerre  (warfare)  est  un terme militaire  renvoyant  aux  opérations  de  destruction  ou  de  détournement  des  canaux d’information de l’adversaire. C’est le cas lorsque le gouvernement iranien brouille certaines chaines de télévision sur le satellite créées par la diaspora iranienne un mois avant et après les élections présidentielles de 2009.   Adi Kuntsman et Rebecca L. Stein  citent un autre exemple : « pendant le bombardement de Gaza  à  l’été  2006,  des  cyber‐guérilléros  basés  au  Maroc  avaient  désactivé  les  réseaux Internet israéliens et laissé le message : " Vous tuez les Palestiniens, nous tuons les serveurs israéliens". »  La  netguerre  (netwar)  correspond  à  un  conflit  opposant  notamment  des  nations  dont  la finalité  est  la  subversion  de  l’environnement  informationnel  d’une  population  ciblée.  Les attaques de défaçage participent de la netguerre ; elles consistent à superposer « au contenu des  sites web  adverses  des  sarcasmes patriotiques,  des  discours  de  haine  ou même de  la pornographie    ».  Ainsi,    au  moment  de  la  guerre  de  Gaza  en  janvier  2009,  les  hackers marocains du  "Team Evil" ont mené une opération de défaçage  sur  la version en  ligne du quotidien israélien Yédiot Aaronot, Ynet (02 janvier 2009).  Il semblerait que les deux types de cyber‐confrontation se retrouvent dans le conflit israélo‐palestinien.  Dans  le  cas  précis  de  Gaza,  il  y  aurait  même  une  guerre  contre,  pour  et  par l’information.  L’art de la guerre sur internet : une compétence nécessaire de l’Etat au XXIème siècle  L’un des intérêts d’une cyberguerre est d’économiser du temps, des moyens matériels et des vies.  De  plus,  sa  puissance  en matière  d’influence  de  l’opinion  publique  est  immense,  car l’ère du web 2.0 a interconnecté le monde entier. C’est pourquoi, les Etats tentent d’acquérir des compétences en matière de hacking, veille, méthodologie des stratégies d’information, maîtrise des logiciels, etc.   Le développement des NTIC génère des avantages et des inconvénients pour les Etats dans la gestion stratégique de l’information contre l’adversaire. Il facilite entre autres la visibilité de l’information mais il  implique également l’établissement de nouvelles règles en matière de sécurité, censure et propagande.  Par  ailleurs,  l’ambivalence  des  NTIC  réside  dans  le  fait  qu’elles  sont  productrices  d’une pluralité  informationnelle  –  synonyme  d’un  accès  théoriquement  plus  libre  aux 

Page 132: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

132

représentations du monde – mais également génératrices de bruits informationnels et d’une forte entropie rendant difficile la gestion de l’image, notamment des Etats et des individus. C’est  ce  second  point  qui  nous  intéresse  ici,  car  Israël,  Etat  aguerri  en  termes  de renseignements et de protection de l’information, a été piégé par les NTIC.  II  ­  Les  nouveaux mécanismes  de  gestion  de  l’information mis  en  place  par  Israël depuis 2008 : l’épisode de la Guerre de Gaza   Israël,  comme  n’importe  quel  autre  Etat,  doit  gérer  sa  communication  dans  son  espace public et à  l’extérieur de celui‐ci. La Hasbara    israélienne est néanmoins confrontée à une difficulté  particulière,  celle  de  son  exposition  sur  le  plan  international  du  fait  de  deux éléments  :  l’histoire  de  la  création  d’Israël  et  le  conflit  israélo‐palestinien.  Un  aspect spécifique a  fortement pesé  sur  l’orientation de  la  communication  stratégique d’Israël  :  la guerre des images que se sont livrées les deux parties.  1 ­ Guerre des images/ guerre de l’information   Le terme de « guerre des images » utilisé pour le conflit israélo‐palestinien vient du discours médiatique ; car s’il est indéniable que l’événement aujourd’hui se représente avant tout par l’image, c’est encore plus vrai au sujet du conflit israélo‐palestinien.  1­1 Une invention médiatique ?  L’expression  «  guerre  des  images  »  émerge  dans  la  presse  occidentale  couvrant  le  conflit israélo‐palestinien  dès  la  première  Intifada  (1987‐1993).  Les  images  diffusées  à  l’époque véhiculent une représentation qui accompagnera, elle aussi, tous les cadres d’interprétation du conflit, comme celui de la métaphore biblique de David (les Palestiniens) contre Goliath (les Israéliens). Beaucoup d’images circulent. L’une des plus marquantes est la diffusion d’un court reportage montrant des soldats israéliens rouant de coup deux Palestiniens au sol.   Le terme « guerre des images » serait donc plus une intention qu’une invention médiatique, dans  la  mesure  où  c’est  la  présence  croissante  des  caméras  et  des  appareils photographiques  sur  le  terrain  proche‐oriental  qui  a  progressivement  contraint  les belligérants à adopter des  stratégies de communication axée davantage sur  le  contrôle de l’image.  Nous  pouvons  donc  affirmer  que,  depuis  1987,  la  confrontation  se  joue véritablement sur deux fronts au Proche‐Orient : sur le « front militaire » et dans les médias. L’enjeu  est  d’ailleurs  au  départ  celui  d’une  représentation,  d’un  récit  :  celui  du  conflit israélo‐palestinien. La controverse et  la polémique ont progressivement glissé de  la praxis (l’action  sur  le  champ  de  bataille)  à  la  diégèse  (le  récit  de  cette  bataille),  pour  buter finalement  aujourd’hui  sur  le  logos  autour  de  l’image  (le  discours  et  la  rhétorique  de 

Page 133: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

133

l’image).  1­ 2 Trois des principales batailles de l’image   Cette guerre des images prend une ampleur inédite et non démentie depuis, durant les trois premiers mois de  l’Intifada en 2000. Depuis,  Israël  a mené plusieurs batailles  successives qui  permettent  de  mieux  comprendre  pourquoi  le  gouvernement  israélien  déploie désormais un cyberarsenal en matière de communication.  Trois  événements  médiatico‐militaires  ont  mis  en  avant  les  défaillances  de  la communication israélienne. Le début de la 2nde Intifada (septembre 2000‐décembre 2001) marque un hiatus fort entre le registre de production de l’information du gouvernement de Sharon (celui de la stratégie militaire) et le registre d’attente du public (celui de l’émotion), qui a donné d’Israël l’image d’un Etat froid et calculateur.   En  avril  2002,  le  gouvernement  israélien  décide  de  mener  une  opération  militaire  (« Opération  Remparts  »)  à  Jénine  (Cisjordanie)  en  représailles  à  une  série  d’attentats survenus  sur  le  sol  israélien.  Pendant  une  semaine  personne  n’a  connaissance  des événements se déroulant à Jénine, car les journalistes ne peuvent y accéder. Il y a un vacuum interprétatif dans  la représentation du conflit. Après une semaine de combat et  la victoire d’Israël, les accès sont enfin ouverts aux journalistes. Entre‐temps, les rumeurs ont circulé : les médias occidentaux parlent du « massacre de Jénine ». Après le début de la 2nd Intifada, et l’échec de la stratégie de communication israélienne à l’international, l’Etat hébreu a pris conscience  que  laisser  circuler  librement  les  journalistes  sur  le  terrain militaire  était  une erreur et pouvait nuire gravement à  l’image d’Israël. Au  final,  l’  « Opération Remparts » à Jénine  est  un  semi‐échec  pour  Israël  qui  a  opté  pour  une  stratégie  de  communication bivalente (la censure et la parole contrôlée).   Le  conflit  israélo‐libanais  (juillet  ‐  août 2006) est  aussi un  échec  sur  les plans militaire et communicationnel.  L’un  des  reproches  fait  au  gouvernement  israélien  est  d’avoir  négligé Internet,  fort de  l’expérience de  la 2nde Intifada, et de s’être concentré sur  les seuls outils traditionnels de propagande et de guerre psychologique (largage de tracts et brouillage des émissions  sur  les  réseaux de  télécommunication).  La  guerre  du  Liban  constitue  le  second moment,  depuis  le  début  de  la  2nde  Intifada,  où  conflits  en  ligne  et  sur  le  terrain  sont étroitement mêlés.   Les prémisses de cette cyberguerre  israélo‐palestienne remontent donc à  l’automne 2000, au  début  de  la  deuxième  intifada  ;  les  épisodes  suivants  ont  été  la  confirmation  du développement de ce nouveau type de combats.   

Page 134: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

134

2 ­ L’ « Offensive Plomb Durci » à Gaza  La  guerre  de  Gaza  est  une  offensive  terrestre  de  Tsahal  dans  le  territoire  palestinien  de Gaza, baptisée « Plomb Durci », débutée le 27 décembre 2008 et achevée le 17 janvier 2009.   La guerre de Gaza est intéressante du point de vue de la communication stratégique, dans la mesure où  Israël a mis en place des moyens classiques de contrôle de  l’information  (pool press, pas d’accès aux terrains de combats, action de censure préventive), et a  inventé des moyens  adaptés  aux  NTIC.  Des  bloggeurs  bilingues  ont  été  déployés  sur  la  toile internationale avec un double objectif de veille et de contre‐propagande au moment et après la  guerre  de  Gaza.  Le Major  Avital  Leibovitch,  du  service  de  presse  étrangère  de  l’armée israélienne, affirmait ainsi que « La blogosphère et les nouveaux médias sont une autre zone de guerre. Nous devons nous y intéresser. »  2­1 Acter les erreurs du passé à Gaza  La guerre du Liban (2006) a été perçue comme un revers significatif en Israël, notamment dans la médiatisation de l’événement à l’étranger. A la suite du conflit libanais, la population et  les  médias  israéliens  –  y  compris  les  plus  proches  du  gouvernement  d’Ehud  Olmert, comme Yédiot Aaronot ou The Jerusalem Post ont demandé des comptes.  Avant l’ « Opération Plomb Durci » : préparer le terrain médiatique  Deux mois  avant  le  commencement  de  l’  «  Opération  Plomb Durci  »,  l’Etat  hébreu  ferme deux  passages  (check  point  de  Kerem  Shalom  et  Karmi)  obligatoires  pour  aller  dans  la bande de Gaza. De ce fait, plus aucun média ne peut accéder à Gaza en décembre 2008, ce qui provoque d’ailleurs  la polémique. Le Foreign Associated Press réagit  immédiatement à ce  qu’il  considère  comme  un  acte  avéré  de  censure.  L’affaire  est  portée  devant  la  Cour suprême  de  l’association  de  la  presse  étrangère  mais  sans  succès,  sinon  quelques concessions  :  le  gouvernement  israélien  autorise  ainsi  un  groupe  de  douze  journalistes  à entrer dans la zone de Gaza lorsque l’un des deux points de passage est ouvert pour raisons humanitaires.   2­2 L’offensive israélienne à Gaza : stratégie de communication d’Israël  La  communication  stratégique  d’Israël  durant  Gaza  combine  moyens  traditionnels  et techniques  nouvelles  en  matière  de  diffusion  de  l’information.  Il  s’agit  avant  tout  de  « contrôler  l’image‐émotion  »  car  celui‐ci  assure,  comme  l’explique  D.  Ventre  ,  le  «  succès partiel de la communication ».  

Page 135: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

135

Des  moyens  classiques  de  canalisation  de  l’information  :  les  Pool  Press  et  le brouillage des télécommunications   Les Pool Press  : une  fois  l’offensive à Gaza commencée,  les  journalistes peuvent se rendre soit à proximité de la frontière soit à Jérusalem, où se trouvent des pool press coordonnés par  l’Etat  major  de  l’armée,  afin  d’obtenir  des  informations  sur  les  combats.  Il  s’agit  de rendre inutile l’accès des journalistes au champ de bataille.  Les  télécommunications  :  les  téléphones  portables  jouent  un  rôle  important  durant  l’« Opération Plomb Durci ». Côté israélien,  il est demandé aux militaires de Tsahal de rendre leurs  téléphones  portables  avant  d’entrer  dans  la  Bande  de  Gaza,  afin  d’éviter  que  ne  se reproduisent les fuites d’information survenues au Liban en 2006 : appels, tweets, photos ou vidéos prises depuis le téléphone portable.   Stratégie  plus  classique  en  temps  de  guerre,  le  brouillage  des  lignes  téléphoniques  des  habitants de Gaza est mise en œuvre afin d’empêcher toute communication.   Une mesure inédite en termes de gestion des télécommunications est mise en place. Il s’agit de  ce  que  A.  Kuntsman  et  R.  L.  Stein  nomment  «  le  "coup  sur  le  toit"  des  maisons  des Gazaouis, où du personnel militaire arabophone téléphonait aux habitants (en utilisant leur ligne  fixe)  avec  des  messages  directs  ou  enregistrés  les  avertissant  que  leurs  maisons allaient être démolies  ». Cette initiative de l’armée israélienne a un double but : épargner la vie de civils et donner « la preuve de la moralité d’Israël en temps de péril mortel ».   Aux nouveaux moyens de communication : You Tube et les réseaux sociaux   Les sites de partage vidéo  :  le gouvernement  israélien met en place une série d’actions de communication tournées vers les nouveaux médias. Dès le 29 décembre 2008, les Forces de Défenses d’Israël  (FDI) lancent leur chaîne sur YouTube. Les clips vidéo montrent des prises de vues aériennes des attaques israéliennes sur Gaza et les explications de porte‐paroles de l’armée.  Le  succès  de  cette  chaîne  ne  se  dément  pas  jusqu’à  la  fin  de  la  guerre  puisqu’au terme de l’offensive, certaines vidéos auront été visionnées deux millions de fois.   Les réseaux sociaux ont également une place dans la stratégie de communication israélienne durant  Gaza.  Israël  utilise  des  fonctionnaires  pour  investir  ces  réseaux  afin  d’influencer l’opinion publique internationale et de  la convaincre du bien‐fondé de  l’opération « Plomb Durci  ».  Beaucoup  d’Israéliens  ont  exprimé  sur  Facebook  leur  soutien  aux  actions  du gouvernement israélien, au nom de la sécurité intérieure du pays.   De la même manière, Twitter, est fortement sollicité pendant la guerre de Gaza, puisque le ‘hashtag #gaza’ a jusqu’à six nouveaux posts à la minute. Le consulat israélien à New‐York 

Page 136: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

136

ouvre un compte Twitter afin de soutenir la politique d’Israël à l’étranger. La plateforme de micro‐blogging contribue à «  révolutionner  la diplomatie  israélienne » comme  l’indique  le quotidien israélien Haaretz.   Une « armée » de bloggeurs sur la Toile  En  2008,  Israël  a  créé  la  Direction  Nationale  de  l’Information  (Ministère  des  Affaires Etrangères)  pour  corriger  les  faiblesses  de  l’Etat  hébreu  en  matière  de  gestion  du cyberespace, et « synchroniser le contenu et le ton du message d’Israël ».  Cette  entité  gouvernementale  est  à  l’initiative  de  la  création  d’un  instrument  de  contre‐propagande assez particulier : une « armée » de bloggeurs bilingues, parlant Hébreu et une autre langue (français, espagnol, etc.), ayant pour mission de vérifier l’information sur Israël dans  les  blogs  et  les  forums  en  Europe  essentiellement,  et  de  produire  de  la  contre‐information. A. Kuntsman et R. L. Stein indiquent que « ce projet a été officiellement ajouté au budget de l’Etat en 2009 sous la rubrique : "Equipe de guerre Internet"  ».  Enfin,  à  la  fin  de  l’offensive,  Israël  met  en  place  une  opération  de  communication particulière, répondant à une rhétorique de l’« effet spectacle ». Celle‐ci vise à rectifier son image  négative  auprès  de  l’opinion  publique  internationale  et  consiste  à  installer  des caméras au check point de Kerem Shalom afin de diffuser en direct et en ligne les images des convois d’aide humanitaire à l’initiative de l’Etat hébreu.  En dépit des efforts du gouvernement Israélien, il y a quand même eu à Gaza une large part d’information  non maîtrisée.  Des  journalistes  ont  contourné  la  censure  en  contactant  les Palestiniens reclus à Gaza, certains étant des correspondants locaux réguliers des reporters, d’autres des citoyens lambda. Ceux‐ci ont pris des photos avec leur téléphone portable et les ont diffusées  auprès des médias ou  envoyées  à des  contacts  extérieurs  (blogs,  partage de fichiers,  etc.).  Par  ailleurs,  les  médias  du  Hamas  ont  largement  contribué  à  la  diffusion d’images‐chocs,  notamment  via  la  chaîne  de  télévision  qatarie  Aljazeera.  Une  fois  encore, Israël n’a pas pu contrôler complètement l’information ni son image.   3  ­  Gestion  stratégique  des  NTIC  depuis  Gaza  :  repenser  les  modalités informationnelles dans le conflit israélo­Palestinien  Denis Sieffert dit du conflit israélo‐palestinien qu’il est une guerre essentiellement vécue en Occident par « médias  interposés ». Cela traduit l’enjeu sous‐jacent à la représentation d’un conflit  dans  les  médias  pour  tout  Etat  et  l’importance  de  la  stratégie  de  communication gouvernementale à l’intérieur et à l’extérieur du pays.  Nous distinguons trois axes dans la modalisation de la communication israélienne. 

Page 137: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

137

 3­1 L’axe du dispositif  La connaissance et le contrôle des supports de l’information (médias, sites internet et blogs, réseaux sociaux, plateformes de micro‐blogging) sont essentiels à la préparation de l’action stratégique.   L’échec de la communication israélienne au Liban a obligé l’Etat hébreu à repenser, non pas son  discours  sur  l’événement,  mais  les  modalités  de  diffusion  de  celui‐ci.  Aucune communication  stratégique  ne  peut  donc  ignorer  la  prévalence  du  numérique  dans  les conflits et dans leur représentation. La promesse d’une démocratie numérique sur internet est mise  à mal  au  regard  des  actions menées  par  des  cyber‐activistes  (défaçage,  rumeur) pendant et après Gaza ; celles‐ci ressortent en effet davantage de la propagande totalitaire que de la parole démocratique.  Depuis 2009, Israël a mobilisé plusieurs dispositifs sur internet afin de corriger son image. Il a joué à la fois sur les contenus en qualité (donnant une « vision positive d’Israël » selon les dires du Consul israélien à New‐York) et en volume (saturation d’images). Cela a eu comme conséquence de modifier les résultats de recherche pour les requêtes avec le mot‐clé « Israël »  et  a permis de  faire  remonter  à  la première page des  résultats  sur Google ou Yahoo  les sites produisant des images favorables à Israël.    La nature du conflit  israélo‐palestinien a été  transformée par  les attaques des hackers,  les débats  sur  des  forums  ou  sur  Facebook,  qui  sont  une  forme  de  guerre  numérique  et  la continuation de  l’offensive sur  le  terrain. Les médias numériques ont été progressivement investis par la stratégie de communication israélienne, mais également par leurs opposants.   Le  web  2.0  doit  être  envisagé  comme  un  dispositif  de  contrôle  de  l’information  (chez l’ennemi  et  dans  son  propre  camp)  et  de  soutien  d’une  action  militaire  ou  militante.  En temps de guerre, il devient surtout le dispositif du dévoilement (de la vérité, du mensonge) et du renseignement.   Face à la rapidité de l’évolution technologique de ces outils, Israël – et les Palestiniens – ont dû adapter constamment leur discours et former leur personnel. Ce n’est plus tant la guerre qui fait le dispositif, mais le dispositif qui fait la guerre.  Le dernier des instruments de propagande dans le conflit israélo‐palestinien est Wikipedia. Le voir apparaître ainsi aux côtés de Facebook et Twitter (plus interactifs) peut surprendre, dans  la  mesure  où  sa  fonction  originelle  ressort  davantage  de  l’activité  de  partage encyclopédique que du tract militant. A. Kuntsman et R. L. Stein donnent ainsi l’exemple du « 

Page 138: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

138

Conseil  Yesha,  représentant  les  colons  juifs  en  Cisjordanie  (qui)  a  répondu  à  la  crise  des relations  publiques  israéliennes  en  parrainant  un  cours  sur  «  la  rédaction  sioniste  »  de l’omniprésent site web d’information. » Selon les auteurs, les Palestiniens ne seraient pas en reste  puisque  «  l’Association  des  Journalistes  palestiniens  a  appelé  les  institutions palestiniennes à rédiger des entrées Wikipedia […] pointant la nécessité de répondre sur le web à la dernière phase de la « guerre de relations publiques » d’Israël  ».  3­2 L’axe discursif  La connaissance, le contrôle des discours et des images véhiculés sur ces différents médias est  un  aspect  primordial  dans  la  lutte  pour  la  détermination  symbolique  de  qui  dirige  le conflit en termes de narration.   Dan  Guillerman,  coordinateur  de  la  communication  du  gouvernement  israélien  en  2008, déclare que l’essentiel est de parvenir à faire passer le message. Mais quel message ? Selon D. Sieffert, il se serait agi, pour l’Etat d’Israël, de proposer un récit à deux niveaux : « un, le Hamas est l’agresseur, et Israël la victime qui ne fait que se défendre ; deux, il s’agit de l’une des  batailles  du  grand  "choc  des  civilisations"  car,  derrière  le  Hamas,  il  y  a  l’Iran  et l’islamisme radical et, derrière Israël, il doit y avoir tout le monde occidental. »  Cette  affirmation  est  intéressante  car  elle  souligne  l’importance  de  ce  que Benoît  Salmon appelle  le « storytelling   » dans  la gestion symbolique d’un conflit. L’épicentre du récit sur Gaza réside dans la question suivante : « qui a rompu la trêve » ? Désigner un coupable c’est rejeter  la  faute  sur  l’autre  et  par  conséquent  la  responsabilité  politique,  économique  et sociale du « désastre », et cela permet également de légitimer la réparation du préjudice subi aux yeux de l’opinion publique internationale. D. Sieffert affirme que concentrer l’attention des  médias  et  du  public  sur  le  responsable  de  la  rupture  de  la  trêve  évite  de  poser  la question du « pourquoi ».  Dans  le  conflit  israélo‐palestinien,  contrôler  le  discours  sur  l’événement,  c’est  contrôler l’événement. Israël a échoué en 2006 et en 2008, pour des raisons différentes, mais semble désormais  avoir  pris  la mesure  de  l’importance  des  réseaux  sociaux  et  d’internet  dans  la gestion stratégique de la communication de crise.   Néanmoins,  et  l’épisode  de  l’arraisonnage  du  paquebot  humanitaire  Mavi  Marmara  par l’armée israélienne en 2010 le montre, cela ne suffit pas à imposer un discours dominant. Il faudrait  pour  cela  contourner  deux  facteurs  d’entropie  :  d’une  part, maîtriser  ‐ mais  c’est impossible  ‐  le  discours  communautaire  et  diasporique  et,  d’autre  part,  empêcher  la diffusion  d’images  (le  faire  politique  et militaire)  allant  à  l’encontre  de  la  communication officielle d’Israël (le dire militaire et citoyen). Pour comprendre la difficulté et l’impossibilité 

Page 139: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

139

de  cette  tâche,  il  suffit  de  prendre  l’exemple  de  la  diffusion  sur  les  réseaux  sociaux,  dont Facebook, d’images représentant une  jeune soldate  israélienne souriante avec, devant elle, des  Palestiniens  les  yeux  bandés.  La  polémique  a  été  d’autant  plus  forte  qu’un  précédent avait déjà eu lieu en Irak, en 2004, avec la diffusion de photographies montrant des détenus irakiens à Abou Ghraib humiliés par des militaires américains.  3­3 L’axe sociologique  La connaissance des usagers des médias numériques (producteurs,  lecteurs et passeurs de l’information)  est  un  paramètre  essentiel  dans  la  gestion  stratégique  de  l’information numérique. Qui écrit ? Citoyens israéliens et palestiniens, diaspora, partisans pro‐israéliens et pro‐palestiniens, militaires, journalistes, etc. Les voix du discours se sont multipliées avec les dispositifs. Il n’y a donc plus de frontières entre acteurs officiels et officieux du discours. La  déterritorialisation  du  conflit  s’est  non  seulement  effectuée  par  la  consécration  du cyberespace comme champ de bataille alternatif, mais également par la démocratisation et la désacralisation de la parole politique et du discours d’autorité.   Désormais,  le public/récepteur est aussi acteur/producteur de  l’information,  ce qui oblige les  Etats  à  prendre  en  considération  cette  dualité  ontologique  ‐  et  nouvelle  ‐  dans  leur communication  stratégique,  et  à  ne  plus  faire  des  seuls  médias  classiques  leur  cible privilégiée. La pluralité informationnelle à laquelle est aujourd’hui confrontée le public et les Etats, rend les premiers plus méfiants vis‐à‐vis d’un discours univoque et oblige les seconds à penser des stratégies de communication équivoques.  La communication stratégique israélienne a donc dû apprendre à s’adapter à cette course en matière de technologies numériques et elle doit prendre en compte le caractère humain de ces dispositifs techniques.  Le public est désormais un acteur à part entière dans la gestion de l’information circulant autour du conflit israélo‐palestinien.   L’« Offensive Plomb Durci » a été un échec médiatique pour Israël, car même s’il a pris en compte  la pluralité des dispositifs  informationnels  (supports,  discours,  acteurs),  il  n’a pas pris  la mesure de  l’émotion. En effet,  les  images ou  les non‐images de Gaza ont généré un discours du pathos très fort sur les supports numériques.   Nous évoquions en introduction la présence dans le conflit israélo‐palestinien de trois fronts :  politique  et militaire, médiatique,  et  enfin numérique.  Ce  dernier  constitue  la  base de  la nouvelle  stratégie  de  communication  d’Israël  puisque  le  développement  des  NTIC questionne  constamment  la  sécurité  de  l’information,  et  qu’il  devient  impossible  de contrôler les données sortantes et/ou entrantes. Afin de continuer à préserver l’intégrité de certaines  informations,  les Etats doivent se doter de compétences et de savoirs nouveaux, 

Page 140: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

140

quitte à mettre en place des moyens inédits d’influence et de contre‐influence, comme ce fut le cas avec l’armée de bloggeurs israéliens durant Gaza. Avec les NTIC, la censure a vécu ; en revanche, le jeu de l’influence virtuelle (en ligne) constitue sans aucun doute l’un des piliers de la propagande moderne.  Le conflit israélo‐palestinien est aussi, au même titre que la guerre en Irak, une cyberguerre. En ce sens, contrairement à l’offensive sur le terrain militaire, elle n’a réellement ni de début ni de fin. La mémoire virtuelle et l’intemporalité du discours sur internet (quelle que soit sa forme) est probablement le plus grand danger que devra affronter l’Etat israélien. En effet, les médias classiques ont tendance à raccourcir le temps de l’événement et à s’intéresser à des actions qui ont un début et une fin, comme le dit fort justement D. Sieffert. Les réseaux sociaux,  les  blogs,  les  forums  prolongent  indéfiniment  ou  presque  l’événement  ;  nous pouvons  aujourd’hui  encore  visionner  les  images  de  la mort  du  petit Mohamed  Al  Durra survenu en 2000 et consulter certaines pages web publiées à l’époque.   L’Etat hébreu et  la Direction de  l’information  israélienne doivent donc prendre en compte ces paramètres spécifiques aux dispositifs numériques. En 2011, une guerre se gagne peut‐être davantage par une stratégie de communication que par une communication stratégique, dans le sens où l’écho social sur l’événement a supplanté l’action militaire.   Bibliographie  Arpagian, Nicolas, La cyberguerre, Paris, Vuibert, 2009.  Bourdon,  Jérôme, Le récit  impossible. Le conflit  israélo‐palestinien et  les médias, Bruxelles, De Boeck/INA, 2009.  Dray,  Joss  et  Sieffert,  Denis,  La  guerre  israélienne  de  l’information,  Paris,  La  Découverte, 2002.  Ellul, Jacques, Propagandes, Paris: Economica, 1990.  Ferro,  Marc,  L’information  en  uniforme  :  propagande,  désinformation,  censure  et manipulation, Paris, Ramsay, 1991.  Huygues, François‐Bernard, Ecran / Ennemi. Terrorismes et guerres de l'information, Paris : 0h00.com, 2002.  Ollivier‐Yaniv, Caroline, « De l’opposition entre "propagande" et "communication publique" 

Page 141: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

141

à  la  définition  de  la  politique  du  discours  :  proposition  d’une  catégorie  analytique.  »,  in Propagandes en démocratie, Taïeb, Emannuel (dir), Quaderni, n°72, Printemps 2010.  Salmon, Christian, Storytelling, Paris, La découverte, 2007.  Sieffert, Denis, La nouvelle guerre médiatique israélienne, Paris, La Découverte, 2009.  Taïeb, Emmanuel (dir.), Propagandes en démocratie, Quaderni, n°72, Printemps 2010.  Ventre, Daniel (dir.), Cyberguerre et guerre de l’information, Paris, Hermès, 2010.  Webographie   Castells, Manuel, “Emergence des médias individuels », Le monde diplomatique, août 2006. http://www.monde‐diplomatique.fr/2006/08/CASTELLS/13744.  Kuntsman, Adi et Stein, Rebecca L., « Une autre zone de guerre : les réseaux sociaux dans le conflit  israélo‐palestinien  »,  septembre  2010.  http://www.ism‐france.org/analyses/Une‐autre‐zone‐de‐guerre‐les‐reseaux‐sociaux‐dans‐le‐conflit‐israelo‐palestinien‐article‐14422.

Page 142: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

142

 

La cartographie des connaissances pour la modélisation opérationnelle d’un outil de planification pédagogique transdisciplinaire – phases I et II 

 Monica Mallowan68 

Professeure adjointe en sciences de l’information Secteur Sciences 

Université de Moncton, Campus de Shippagan  

Yves de Champlain69 Professeur adjoint en éducation 

Secteur Administration, arts et sciences humaines Université de Moncton, Campus de Shippagan 

  Résumé : Dans  le contexte de  la complexité croissante des sociétés modernes,  le défi des programmes en éducation représente un défi de gestion de la multitude des savoirs inclus directement dans  les programmes de formation, des connaissances  liées au contexte  local de chaque école et, surtout, un défi de construction commune, par  les acteurs du système scolaire,  d'une  approche  cohérente  dans  l'exploitation  de  ces  multiples  savoirs  et connaissances  pratiques,  pour  le  bien  de  toutes  les  personnes  impliquées  dans  ce processus. A cet égard, nous sommes engagés, depuis l'automne 2010, dans une recherche à deux axes, soit l'analyse et  le développement d'une démarche ainsi que d'un outil visant à 

                                                        68 Monica Mallowan est professeure en Sciences de l’information au Campus de Shippagan de l’Université de Moncton  (UMCS),  Mme  Mallowan  aborde,  dans  les  cours  qu’elle  enseigne  au  Baccalauréat  en  gestion  de l’information  (BGI),  les  questions  reliées  à  la  place  de  l’information  dans  la  capacité  compétitive  des organisations  par  l’intermédiaire  des  démarches  de  veille  stratégique,  de  gestion  des  connaissances  et d’intelligence  économique.  Détentrice  d’un  Master  en  Intelligence  Économique  de  l’Institut  de  la Communication et des Technologies Numériques (ICOMTEC, France), ainsi que d’une Maîtrise en Sciences de l’Information de l’Université de Montréal (EBSI, Québec), Mme Mallowan entreprend un doctorat au Centre de Recherche en Gestion (CEREGE) de l’Université de Poitiers (France), avec une thèse portant sur l’information stratégique. Elle se concentre, dans ses publications, communications et projets de recherche, sur le rôle des nouvelles  stratégies d’information pour  la  compétitivité organisationnelle, dans  le  contexte de  la  société de l’information, qu’elle étudie en analysant le lien entre l’économie et la circulation du savoir, le comportement informationnel, ainsi que l’application d’approches d’intelligence informationnelle et stratégique. Responsable de l’Observatoire de Prospective et Veille Informationnelle et Scientifique (PROVIS) de l’UMCS, Mme Mallowan est  aussi  la  fondatrice  et  présidente  du  Colloque  Spécialisé  en  Sciences  de  l’Information  (COSSI),  première manifestation dédiée à ce champ d’études et de pratiques dans la Francophonie de l’Est du Canada.  69 M. Yves de Champlain a d’abord été enseignant de musique au primaire pendant douze ans, puis il a obtenu une  maîtrise  et  un  doctorat  dans  le  champ  de  l’étude  des  pratiques  pédagogiques,  s’intéressant particulièrement au processus de prise de conscience, aux approches de recherche en première personne et à la  place  de  la  subjectivité  dans  les  pratiques  pédagogiques.  Il  est  aujourd’hui  professeur  en  éducation  à l’Université de Moncton, Campus de Shippagan. Il est engagé dans un programme de recherche collaborative visant à soutenir l’innovation pédagogique aux niveaux primaire et universitaire.   

Page 143: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

143

relever ces multiples défis. Nous proposons d'abord de réaliser des prototypes numériques d’un  outil  de  planification  des  enseignements  selon  une  approche  cartographique,  en fonction  des  pratiques  en  cours  et  des  besoins  d'une  équipe  d'enseignants  d'une  école primaire : La Cité de l'Amitié de Bathurst. Ensuite, nous accompagnerons cette communauté de  pratique,  grâce  aux  outils  du  Web  2.0  et  des  réseaux  sociaux,  afin  d'évaluer l'appropriation de la solution adoptée ainsi que ses impacts sur les résultats du processus de planification et sur la progression des apprentissages.  Mots­clés :  Apprentissage,  approche  cartographique,  communauté  de  pratique, connaissances, intégration des savoirs, planification pédagogique, prototype numérique   Problématique  Dans le contexte de la complexité croissante des sociétés modernes,  l’éducation fait face à un double enjeu qui peut paraître paradoxal, qui est celui du glocal : d’une part, former des élèves  dans  une  perspective  globale  et  planétaire  (Morin,  1999),  d’autre  part,  être  en mesure de  répondre à des  situations  locales et des cas d’élèves  très  spécifiques  (Meirieu, 1989 ;  Perrenoud,  1995).  Pour  répondre  à  cet  enjeu,  un  mouvement  conséquent  a  été engagé dans différents systèmes scolaires, qui cherche à  inclure, dans  les programmes de formation  scolaire,  des  processus  d’acquisition,    de  traitement  et  d’utilisation  de l’information de plus en plus complexes, tout en encourageant  les écoles à tisser des liens avec  leur  communauté.  Mais  chacun  de  ces  deux  mouvements  demande  beaucoup  de temps,  puisqu’il  s’agit  là  non  seulement  de  savoirs  théoriques  à  acquérir  mais  aussi  de connaissances, de savoirs pratiques, à développer.  De ce point de vue, le défi des programmes en éducation est également un défi portant sur la manière d’aborder l'information et de la gérer. Il représente même un défi de gestion de la  multitude  des  savoirs  inclus  directement  dans  les  programmes  de  formation,  des connaissances  liées  au  contexte  local de  chaque école  et,  surtout,  un défi  de  construction commune, par les acteurs du système scolaire, d’une approche cohérente dans l’exploitation de  ces  multiples  savoirs  et  connaissances  pratiques,  pour  le  bien  de  tous  ceux  qui  sont impliqués dans ce processus, dont les enseignants et leurs élèves, dans le cas présenté ici, ainsi que les chercheurs qui les accompagnent dans le projet.  L’intégration de ces savoirs constitue un aspect  fondamental de cette problématique : vue comme  une  démarche multi‐  et  transdisciplinaire  dans  une  logique  verticale  de mise  en réseau  des  savoirs,  elle  doit  être  abordée  à  court,  moyen  et  long  terme,  et  ce  dans  une logique longitudinale de progression en termes d’années et de cycles.  Nous considérons que ce projet permettra de mieux documenter, modéliser et comprendre les  processus  et  les  connaissances  impliquées  dans  ce  travail  de  double  intégration pédagogique, vertical et  longitudinal. Il mènera aussi à une version plus achevée de l’outil de planification en version numérique qui pourra aussi être déployé d’abord dans d’autres écoles  du  Nouveau‐Brunswick,  mais  aussi  dans  toute  école  et  /  ou  organisation  à  la recherche  d’un  outil  d’intégration  des  savoirs,  de  renforcement  de  l’esprit  d’équipe  et 

Page 144: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

144

finalement  d’édification  de  l’intelligence  sociale  et  collective  (Dedijer, 2003;  Levy,  1994 ; Handbook of Collective Intelligence, 2010).   Cadre théorique  En  tant  qu’auteurs  de  cette  proposition,  nous  sommes  engagés,  depuis  l’automne  2010, dans une  recherche à deux axes,  soit  l’analyse et  le développement d’une démarche ainsi que d’un outil visant cette double intégration. Se guidant selon des théories à l’œuvre dans le  champ de  l’éducation  (réflexivité et  temporalités en  formation)  ainsi que dans  celui des sciences  de  l’information  (théorie de  l’information  et de  la  connaissance),  cette  démarche cible,  d’abord,  la  constitution  d’une  communauté  d’intérêt  et  de  pratique  (Wenger, McDermott,  Snyder,  2002  ;  Legault,  2005,  2006)  ainsi  que  l’assimilation  du  concept  de pensée  systémique  et  d’intelligence  complexe  (Bertalanffy,  1993 ;  Morin,  1999 ;  Pineau, 2000)  afin  de  faciliter  la  mise  en  perspective  du  processus  d’enseignement  dans  son ensemble,  ainsi  que  l’adoption  de  stratégies  de  planification  et  de  suivi  des  objectifs  plus  efficaces.   Information et connaissance   À  l’ère  de  la  révolution  post‐industrielle,  l’information  est  considérée  comme  étant  la ressource première qui permet de bâtir, grâce à l’avancement des technologies dédiées, de nouveaux modèles d’accès au contenu et à la communauté restreinte ou élargie. Ce qui est de manière générique désigné par « information » se décline  toutefois sur un continuum : ainsi,  les données constituent des éléments bruts,  objectifs, qui, une  fois  contextualisés  se transforment  en  information,  qui  devient,  à  son  tour,  connaissance,  par  formalisation (images du monde qu’il est possible de conserver et / ou transmettre) ou mise en pratique (savoir­faire propres à la personne et donc difficiles à partager), entre autres (Blair, 2002; Le  Coadic,  2004).  Plusieurs  théories  s’appliquent  à  analyser  la  nature,  les  formes  ou  le fonctionnement  de  l’information :  ainsi,  la  théorie mathématique  de  l’information,  qui  se penche  sur  la  transmission  électrique  d’un  signal  – message  entre  émetteur  et  récepteur par  l’intermédiaire  d’un  canal  (Shannon, Weaver,  1949).  L’indifférence  que  le modèle  de Shannon  manifeste  à  la  signification  du  message  est  contrecarrée  par  la  théorie  de  la communication / processus des mass media – selon laquelle l’information devient spectacle et donne naissance à l’industrie de la culture et où l’influence des masses passe par le rôle des leaders d’opinion (Katz, Lazarfeld, 1955). A cela s’ajoute la théorie de la communication interactive – constructiviste (Watzlawick, 1976), où l’échange d’information entre deux ou plusieurs personnes  résulte de  leur  interaction et du  contexte  et où  les  connaissances ne sont pas le reflet de la réalité, mais plutôt le résultat d’une construction personnelle. D’autre part,  la  connaissance  est  catégorisée,  selon  le  degré  de  transmission  qu’on  peut  lui attribuer,  en  connaissance  formalisée,  consignée,  facilement  transmissible  sous  forme  de texte,  documents,  ouvrages,  etc.,  à  un  grand nombre  de  destinataires,  et,  d’autre  part,  en connaissance  difficilement  transmissible,  en  tant  que  savoir‐faire  expérientiel  issu  d’une longue pratique et qui constitue, entre autres, le cœur d’un champ d’études qui est celui de la  gestion  des  connaissances70,  (Prax,  2003 ;  Dalkir,  2011).  Dans  un  contexte  de  partage                                                         70 En anglais, knowledge management.

Page 145: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

145

d’expériences  et  de  création  de  nouvelles  connaissances  /  innovation,  la  gestion  des connaissances se révèle être d’un grand intérêt pour de nombreux domaines d’activités71 et elle  s’occupe,  entre  autres,  d’analyser  le  fonctionnement  des  communautés  d’intérêt,  des regroupements  de  personnes  autour  d’un  intérêt,  projet,  mission,  et  qui  peuvent fonctionner  comme  des  structures  de  solution  de  problèmes,  de  dialogue,  entraide  et valorisation (Wenger, McDermott, Snyder, 2002).   Gestion des connaissances   Définies comme « [L’] Ensemble des notions et des principes qu'une personne acquiert par l'étude,  l'observation  ou  l'expérience  et  qu'elle  peut  intégrer  à  des  habiletés »72,  les connaissances  sont  donc  explicites  et  gérables  ou  transmissibles,  par  voie  écrite  ou verbalement,  tandis que  les connaissances  tacites, elles, constituent des automatismes qui doivent  être  captés  et  formalisés  afin  d’être mis  ensuite  en  circulation  (Prax,  op.cit.).    Il existe  une  multitude  de  méthodes  et  d’outils  servant  à  ces  fins,  dont  certains  ont accompagné  les  humains  depuis  des  millénaires,  et  on  peut  citer  ici  le  récit,  l’image,  le dessin ou bien l’imitation du geste.   L’adage « Une  image vaut mille mots » se retrouve, d’une certaine manière, au cœur de  la représentation  cartographique  –  qui  cherche  à  reproduire  un  espace  réel  sur  un  support réduit, afin de faciliter la transmission de l’information géographique aux utilisateurs. Et, de la carte géographique, il n’y a qu’un pas à faire pour adapter le principe – et l’adopter ! – aux cartes mentales – qui  sont des  cartes d’idées ou de  concepts organisés hiérarchiquement. Cette  approche      présente  en  premier  l’avantage  de  faciliter  la  vision  d’ensemble  d’une grande quantité de données – d’informations, en plus d’une lecture rapide et d’un accès aisé au contenu représenté, donc un appel à  la capacité de synthèse  et d’analyse des éléments représentés.   Intelligence sociale  L’intelligence sociale se définit par “l’habileté de l’individu ou de l’organisation  ou du pays à interpréter  efficacement  l’environnement  pour  s’y  adapter”,    grâce  à  trois  facteurs : l’information,  la connaissance,  la  technologie (Dedijer, 2003).   Le concept de  l’intelligence sociale  se  retrouve  à  la  confluence  de  la  cognition,  de  l’éducation,  des  sciences  de l’information, de l’économie, du management, du comportement, de la technologie. Face aux turbulences  multiformes  du  3e  millénaire,  il  rapproche  l’humain  d’une  posture  transdisciplinaire  qui  peut  s’avérer  la  seule  voie  apte  à  l’aider  dans  ses  efforts d’appréhender  le  changement  permanent,  cet  état  chargé  de  tous  les  défis  et  de  tous  les possibles. En cela, l’application des mécanismes de la « pensée complexe » et  l’assimilation des  grands  principes  de  « l’éducation  pour  le  futur » tels  que  formulés  par Morin  (1990)                                                         71 Selon les résultats d’une étude bibliométrique réalisée en 2005 sur un corpus de 650 articles scientifiques à pertinence  maximale,  la  gestion  des  connaissances  intéressait  déjà,  en  ordre  d’importance les  domaines suivants :  gestion,  information,  technologie,  informatique,  économie,  génie,  industrie,  formation, méthodologie,  éducation,  communication,  droit,  tourisme,  travail  (Moldovan,  « Gestion  des  connaissances : préambule à un portrait ». Revue de l’Université de Moncton, 36, 2, 2005).  72 Grand dictionnaire terminologique.  

Page 146: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

146

invitent  à  adopter un  regard  écologique,  où  l’écologie  est  vue  comme  la  « compréhension des  conséquences et  de  leurs  ramifications»  (Sears,  1988).  Cette  manière  de  penser arborescente prépare à la vision et à la compréhension de grands ensembles complexes où de  très  nombreux  éléments  sont  agrégés  afin  de  construire  des  corpus  de  connaissances inédits.  Le  processus  de  construction  de  ces  bases  de  connaissances  est  essentiellement fondé sur la mise en commun des savoir‐faire des membres de la communauté qui, au‐delà de leur intérêt personnel, acceptent de collaborer à  la réalisation d’un projet commun qui dépassera  la  somme  de  leurs  contributions  personnelles,  en  devenant  une manifestation d’intelligence collective.   Intelligence collective   Phénomène lié de manière intrinsèque à l’histoire de l’humanité, l’intelligence collective se manifeste dans des regroupements d’individus qui font ensemble appel à des connaissances pour s’adapter à un environnement en mutation (MIT, 2010). Les nouvelles technologies de l’information  ont  engendré  toutefois  de  nouvelles  formes  de  mise  en  commun  des connaissances  dans  le  but  de  parvenir  à  cet  objectif,  qui  est  celui  de  faire  face  au changement de plus en plus rapide et complexe. L’intelligence collective se manifeste dans les projets créatifs, collaboratifs et communicationnels, dans le monde des affaires, dans les réseaux sociaux physiques ou virtuels, dans le monde associatifs, dans l’éducation, etc. Sous l’influence  de  plusieurs  facteurs,  dont  le  type  de  tâche,  la  cohésion,  le  leadership,  la formation,  le  brainstorming  ou  les  différences  culturelles,  l’intelligence  collective  est facilitée par la diversité, la structure – formelle ou informelle, les incitatifs, l’existence d’un langage commun ainsi que d’une infrastructure permettant l’émergence de la dynamique de groupe  soudé  et  de  l’atteinte  des  objectifs  communs.  Cette  dynamique  mènera  au dépassement du stade de free­rider des membres de la communauté et servira de catalyseur aux réflexions synergiques porteuses des projets collectifs.   Intégration et temporalité  Lors des entretiens menés dans le cadre de la phase I, le premier avantage de l’intégration des matières que les enseignants ont évoqué était celui de « sauver du temps ». En effet, les enseignants semblent  tous partager des rapports au temps très  tendus, cet aspect de  leur travail  étant  souvent  évoqué  comme  une  des  ressources  dont  ils  manquent  le  plus (Perrenoud,  1996).  Quoi  qu’il  en  soit,  cette  difficulté  dans  le  rapport  au  temps  n’est  pas spécifique  à  l’enseignement.  Ces  rapports  conflictuels  entre  les  divers  rythmes  qui ponctuent  notre  existence,  institutionnels,  informationnels,  biologiques,  saisonniers, cosmiques et autres, participent à  la complexité de cette problématique (Pineau, 2000) et constituent de ce fait une facette du glocal.  L’intégration des matières,  de  ce  fait,  agit  comme un « synchroniseur »  (Pineau, 2000).  Si cette synchronisation semble s’adresser à un seul niveau, celui du découpage temporel des matières dans la grille horaire, les entretiens menés lors de la phase I suggèrent que cette synchronisation peut prendre de  l’ampleur  en permettant  aux  élèves d’investir  du  temps dans certains aspects qui les touchent et les intéressent le plus. Quoi qu’il en soit, et même si nous saluons avec enthousiasme l’intelligence mise en œuvre et les résultats accomplis en 

Page 147: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

147

ce sens,  la question de  la temporalité doit être développée pour  inclure plusieurs niveaux qui  incluent  celles  de  l’élève  d’une  façon  plus  systématique.  Sans  une  élaboration  de synchroniseurs  à  plusieurs  niveaux,  la  prise  en  compte  des  rythmes  d’apprentissage  est vouée  à  l’échec  (Perrenoud,  2003).  Une  telle  élaboration  sur  plusieurs  niveaux  appelle nécessairement  une  approche  transdisciplinaire  ainsi  qu’une  exigence  de  démarche planificatoire  renouvelée  vu  les  défis  croissants  de  l’acte  d’enseignement  dans  ce  nouvel environnement informationnel à évolution multiforme accélérée (Handbook, op. cit.).  Transdisciplinarité et pédagogie  Face à  la complexité croissante des enjeux de  l’éducation (Morin, 1999), à  la nécessité de prendre en compte  les différences  individuelles (Meirieu, 1989 ; Perrenoud, 1995) et  face aussi  à  la  mutation  des  rapports  à  la  connaissance  et  au  savoir  (Blais  et  al.,  2008),  les systèmes  d’éducation  ont  intégré  dans  leurs  programmes  des  « compétences transversales » (MEQ, 2001) ou des « résultats d’apprentissage transdisciplinaires » (MENB, 2011). Dans  les deux cas, cet ajout vise à mettre en relief et  ainsi mieux cibler  les savoir‐faire et savoir‐être nécessaires à la réussite scolaire et qui sont communes à l’ensemble des matières.  Ces  ajouts  connaissent  plusieurs  problèmes  d’opérationnalisation,  justement  parce  qu’ils sont considérés comme tels. Du côté du Québec, l’évaluation des compétences transversales a  été  la  source  de  nombreux malentendus,  au  point  où  elle    a  été mise  de  côté  quelques années  jusqu’à  l’année scolaire 2008‐2009 alors que  le Ministère a décrété que  les élèves devraient  être  évalués  sur  une  compétence  à  la  fin  de  l’année.  Du  côté  du  Nouveau‐Brunswick,  la  situation ne  semble pas  créer de  telles  controverses mais,  lors d’entretiens menés dans le cadre de la phase I du projet, une enseignante questionnée sur les résultats d’apprentissage transdisciplinaires ne semblait avoir jamais entendu parler de ce terme qui figure pourtant dans les programmes de toutes les matières à enseigner.  Pourtant,  la  transdisciplinarité  implique  un  profond  changement  de  paradigme.  Suite  à l’explosion disciplinaire de ce siècle, le besoin de créer des liens entre disciplines et champs d’études  a  pris  plusieurs  formes.    La  pluridisciplinarité,  ou multidisciplinarité,  consiste  à étudier  l’objet  d’une  seule  discipline  par  plusieurs  disciplines  à  la  fois,  sans  qu’aucune discipline  n’ait  à  modifier  sa  vision  des  choses.    L’interdisciplinarité  consiste  plutôt  à transférer les méthodes d’une discipline à une autre selon trois degrés possibles : un degré d’application,  un  degré  épistémologique  et  un  degré  d’engendrement  de  nouvelles disciplines.   

L’interdisciplinarité devrait ultimement ouvrir sur un formalisme qui permette d’exprimer les  concepts  et  enjeux  de  plusieurs  disciplines  dans  un  langage  commun.    La transdisciplinarité  concerne  « [...] ce  qui  est  à  la  fois  entre  les  disciplines,  à  travers  les différentes  disciplines  et  au­delà  de  toute  discipline.    Sa  finalité  est  la  compréhension  du monde présent, dont un des impératifs est l’unité de la connaissance. » (Nicolescu, 1996, p. 66). 

Page 148: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

148

La  transdisciplinarité  est  la  réponse  à  des  ruptures  épistémologiques  majeures  qu’il  est important de saisir pour vraiment comprendre de quoi il retourne.  Nicolescu, qui en a écrit le manifeste (1996) a effectivement, en tant que physicien, vécu cette rupture de l’intérieur.  La logique classique est fondée sur trois axiomes : l’axiome d’identité (A est A), l’axiome de non‐contradiction  (A  n’est  pas  non‐A)  et  l’axiome  du  tiers  exclus  (il  n’existe  pas  de troisième  terme T qui  est  à  la  fois A et non‐A).   Or,  la mécanique quantique a  révélé que cette  logique est vraie à  l’intérieur d’un  seul niveau de  réalité, puisque  le  changement de niveau apporte l’existence du tiers inclus.  La recherche transdisciplinaire s’intéresse donc, en  tenant  compte  de  la  nature  discontinue  des  niveaux  de  Réalité,  à  « [...]  la  dynamique engendrée  par  l’action  de  plusieurs  niveaux  de  Réalité  à  la  fois. »  (Op.  Cit.  p.  67)  Finalement,  la  transdisciplinarité  se  situe  de  plain  pied  dans  la  complexité,  à  l’intérieur d’une structure ouverte, en accord avec le théorème de Gödel (1931) qui stipule que, même en  logique  et  en  arithmétique,  un  système  d’axiomes  suffisamment  riche  conduit inévitablement à des résultats soit indécidables, soit contradictoires.  Or, si on peut concevoir la réalité comme ce qui résiste, à nos expériences, à nos perceptions, à  nos  conceptions,  l’ensemble  des  niveaux  de  réalité  se  prolonge  par  une  zone  de  non­résistance,  qui  correspond  au  sacré,  à  ce  qui  ne  peut  être  rationalisé.    « L’ensemble  des niveaux  de  Réalité  et  sa  zone  complémentaire  de  non‐résistance  constitue  l’Objet transdisciplinaire. » (Op. Cit. p. 80)   Le Sujet  transdisciplinaire correspond aux niveaux de perceptions,  en  adéquation  avec  l’objet,  avec  eux‐aussi  leur  zone  de  non‐résistance.    Il n’existe pas de lieu privilégié, l’approche est relative et multiréférentielle.   

Le  langage  transdisciplinaire  est  fondé  sur  l’inclusion  du  tiers,  qui  se  trouve toujours entre  le « pourquoi » et  le « comment », entre  le « Qui ? » et  le « Quoi ? ». [...] La  triple  orientation  [...] assure  la  qualité  de  présence  de  celui  ou  celle  qui emploi le langage transdisciplinaire. Nicolescu, 1995, pp 176‐177 

Comme  on  le  voit,  l’intégration  des  matières  doit  constituer  un  premier  pas  vers  une transdisciplinarité, sinon l’école ne se trouvera jamais en mesure de remplir sa mission de plus en plus complexe.  Méthodologie  Tel que mentionné précédemment, notre  recherche, une étude de cas  faisant appel à une combinaison  d’approches  empirique  (par  le  volet  prototypes  et  solution  numériques)  et quantitative  –  qualitative  (par  le  volet  analyse  des  besoins  et  suivi  de  la  démarche implantée)  ‐  et    est  en  cours  depuis  l’automne  2010.  Son  point  de  départ  est La  roue de planification, un outil de planification développée par les enseignants d’une école primaire de la région : 

Page 149: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

149

 

  

Figure 1 : La roue de planification  Les  enseignants  en  question  ont  fait  appel  aux  auteurs  de  ce  papier  puisqu’ils  avaient entamé une réflexion ayant mené à un outil fonctionnel à petite échelle, mais beaucoup de travail  demeurait  à  faire  pour  en  achever  le  développement  et  l’opérationnaliser  à  plus grande échelle et à plus long terme. Comme on le constate, la roue a le mérite de présenter l’année  en  un  coup  d’œil  et  de  planifier  les  objectifs  de  différentes  matières  de  façon intégrée. Néanmoins,  son  format statique de même que sa  façon cryptée de présenter  les objectifs sont des facteurs très limitatifs.  Cet  outil  nous  semble  néanmoins  une  innovation  extrêmement  intéressante  pour développer  de  façon  opératoire  les  défis  transdisciplinaires  qui  nous  intéressent.  Nous avons donc débuté nos travaux autour de la roue de planification cet automne selon deux axes :  celui  de  la  démarche  d’intégration  transdisciplinaire  et  celui  de  l’outil  permettant 

Page 150: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

150

cette intégration. Les travaux déjà réalisés correspondent à la phase I, les travaux à venir à la phase II.  Phase I, Axe I  Nous nous  sommes donc  interrogés  sur  la  démarche qu’ont  suivie  les divers  enseignants pour élaborer la roue de planification. Nous avons donc mené des entretiens d’explicitation (Vermersch,  2003)  auprès  des  enseignants  sur  leur  travail  d’élaboration  de  la  roue  de même que sur leur façon de l’utiliser par la suite. Nous avons mené un entretien auprès du directeur  d’école  qui  a  été  à  l’origine  de  ce  travail.  Nous  avons  également  mené  des entretiens auprès de 2 élèves de 5e année pour voir de quelle façon ils pouvaient percevoir les  situations  d’apprentissage  basés  sur  la  roue.  Nous  avons  également  administré  un questionnaire  à  l’ensemble  des  22  enseignants  de  l’école  pour  mieux  documenter  leur utilisation et leur manière d’appréhender cet outil.   Phase I, axe II  De façon parallèle, nous avons présenté la roue de planification à des étudiants en science de l’information et leur avons proposé d’en réaliser 2 prototypes informatisés dans le cadre du  cours  Gestion  des  connaissances.  Ce  travail  comportait  deux  contraintes  majeures : représenter fidèlement la roue de planification dans son état actuel et ouvrir la possibilité pour  son développement  futur,  en plus de  l’exigence  reliée  à  la  nécessaire  convivialité  et simplicité de  la solution en vue de répondre au défi du temps évoqué par  les enseignants impliqués  dans  le  projet.  Il  a  ainsi  été  développée  une  version  sous  forme  de  base  de données  relationnelle  et  une  version  cartographique.  Dans  le  cas  faisant  l’objet  de  notre projet,  l’approche  cartographique  de  représentation  des  connaissances  –  carte  mentale représente  l’avantage  de  la  familiarité  pour  les  utilisateurs  de  la  solution,  tandis  que l’approche dépôt de données peut s’avérer intéressant pour sa capacité relationnelle.    

 

 

 

 

 

 

 Figure 2. Solution de type base de données relationnelles. 

  

Page 151: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque  

Université 

  

Phase II Pour  la prototypapprochela phase de  l’annéd’évaluerprocessu Conclus En étudides  memvision  susavoirs  uservirond’innovaconnaissde  la  plagestion 

Spécialisé en

é de Moncton

 

suite,  nouses  numériqe cartograpI. Ensuite, née  scolaire r  l’approprius de planifi

ion 

ant sur le lmbres  de  laubséquenteuniversitairt  de  suppoation. De plusance, ce proanification  sdes  projet

Sciences de

n, Campus de

Figure

s  nous  proques  (axe  IIhique, en fonous accomp2010‐2011iation de  laication et su

ong terme a  communae,  nous  allores  et  profeort  au  projus, dans le cojet permetstratégique ts,  et  don

l’information

Shippagan, N

e 3. Solution

oposons,  d’aI)  de  l’outilonction des pagnerons c1,  grâce  aux solution adur la progre

(de 2011 à uté  d’intérêons  mieux ssionnels  àet,  source contexte dettra  d’améldans  une  pc  de  mett

n (COSSI)

Nouveau-Brun

n de type c

abord,  de  rl  de  planificonclusionscette commx  outils  du doptée ainsssion des ap

2012 et poêt  et  de  pracomprendrà  l’œuvre dade  nouvell la société diorer l’applperspectivetre  sur  pie

nswick, Cana

carte menta

réaliser,  à ication  dess de l’étudeunauté de pWeb  2.0  esi que ses  impprentissag

ossiblementatique  d’abre  les  mécaans  les disples  connaisde l’informaication des e  de  penséeed  un  ser

ada, 8-9 juin 2

ale. 

l’été  2011,  enseigneme des besoinpratique (axt  des  réseampacts  sur ges.  

t jusqu’en 2order  l’outanismes  d’hpositifs  infosances  et  cation et de mécanismee  globale  indvice  de  fo

2011

,  trois  difféments  selonns menée loxe I) tout auaux  sociauxles  résulta

013) la mail  proposé hybridationormationnelconséqueml’économie es de concepdispensableormation  e

 151

 

érents n  une ors de u long ,  afin ts du 

nière et  sa n  des ls  qui ment de la ption e  à  la et  de 

Page 152: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

152

perfectionnement professionnel qui  sera offert dans  les milieux éducatif,  institutionnel  et corporatif.   Bibliographie  Barbier, R. La recherche action. Paris : Anthropos, 1996.  Barbier, R. L’approche transversale : l’écoute sensible en sciences humaines. Paris : Anthropos, 1997.   Bertalanffy, L. von. Théorie générale des systèmes. Paris : Dunod, 1993.   Blackwell,  A.  F.  et  al.  Radical  innovation:  crossing  knowledge  boundaries  with interdisciplinary teams. University of Cambridge, 2009.   Blair, D. “Knowledge Management : hype, hope or help?” Journal of the American Society for Information Science and Technology, 53, 12, 2002.  Blais, M.‐C., Gauchet, M. et Ottavi, D. Les conditions de l’éducation. Paris : Stock, 2008.  Dalkir, K. Knowledge Management  in Theory and Practice. Cambridge, Massachussets  :  the MIT Press, 2011.   Dedijer,  S.  “Development  &  Intelligence:  2003‐2053”.    Infoforum  Business  Intelligence Conference, Zagreb, 2003.   Katz,  E.;  Lazarsfeld,  P.  Personal  Influence:  the  Part  Played  by  People  in  the  Flow  of Mass Communications. New York : The Free Press, 1955.  Le Coadic, Y.‐F. La science de l’information. Paris : Presses Universitaires de France, 2004.  Le développement de l’intelligence informationnelle : les acteurs, les défis et la quête de sens. Sous la dir. de Boisvert, D. Montréal : ASTED, 2010.  

 Legault, M. “La symbolique en analyse de pratique Pour une pratique de la présence au vécu de l’action et au vécu de la réflexion (1ere partie)”. Expliciter (62) 35‐44, 2005.  Legault, M. “La symbolique en analyse de pratique Pour une pratique de la présence au vécu de l’action et au vécu de la réflexion (2e partie)”. Expliciter (64) 1‐7, 2006.  Legault,  M.  Paré,  A.  “Analyse  réflexive,  transformations  intérieures  et  pratiques professionnelles”. Cahiers de la recherche en éducation, 2(1), 123‐164, 1995.  Levy,  P.  L'intelligence  collective  :  pour  une  anthropologie  du  cyberespace.  Paris  :  La Découverte, 1994.   

Page 153: Colloque Spécialisé en Sciences de l’information (COSSI) Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011 2 3e Colloque Spécialisé en

Colloque Spécialisé en Sciences de l’information (COSSI)   

Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011  

153

Meirieu, P. L'école mode d'emploi : des « méthodes actives » à la pédagogie différenciée. Paris : ESF, 1989.  Ministère de l’éducation du Nouveau‐Brunswick (MENB). Programmes d’étude au primaire. http://www.gnb.ca/0000/francophone‐f.asp, 2011.  Ministère de l'Éducation du Québec (MEQ). Programme de formation de l'école québécoise : Éducation préscolaire ­ Enseignement primaire. Québec, 2001.  MIT  Centre  for  Collective  Intelligence.  Handbook  of  Collective  Intelligence.  http://scripts.mit.edu/~cci/HCI/index.php?title=Main_Page, 2010.    Morin, E. Les sept savoirs nécessaires à l’éducation du futur. Paris : Unesco, 1999.   Nicolescu, B. La transdisciplinarité : manifeste. Monaco : Éditions du Rocher, 1996.  Perrenoud, P. La pédagogie à  l'école des différences  :  fragments d'une  sociologie de  l'échec. Paris : ESF, 1995.  Perrenoud,  P.  Enseigner  :  agir  dans  l'urgence,  décider  dans  l'incertitude  :  savoirs  et compétences dans un métier complexe. Paris : ESF, 1996.  Perrenoud,  P.  « À  chacun  son  rythme »  : Une  idée  fausse  sur  les  cycles, mais qui  a  la  vie dure! Dans Bulletin du GAPP (94) 7‐8, 2003.  Pineau, G. Temporalités en  formation  : vers de nouveaux  synchroniseurs.  Paris : Anthropos, 2000.  Prax,  J.‐Y.  Le manuel  du  Knowledge Management :  une  approche  de  2e  génération.  Paris : Dunod, 2003.  Sears, P. Deserts on the March. Norman, Oklahoma : University of Oklahoma Press, 1988.   Shannon, C.E.; Weaver, W. The mathematical Theory of communication. Urbana : University of Illinois Press, Urbana III, 1949.  Vermersch,  Pierre  (2003).  L'entretien  d'explicitation.  (Quatrième  édition  enrichie  d'un glossaire) Issy‐les‐Moulineaux : ESF Éditeur.  Watzlawick, P. How Real is Real. New York : Random House, 1976.   Wenger, É.; McDermott, R.; Snyder, W. Cultivating communities of practice. Boston : Harvard Business School Press, 2002.