23
1/23 Institut d'Etudes Politiques d’Aix-en-Provence CHERPA Atelier doctoral du CHERPA Les nouvelles technologies web, facteur d’un glissement de la prérogative politique ? Approche critique du concept de « Web 2.0 » au travers d’un impensé véhiculé par les blogs et analyse de son impact sur la gouvernance d’Internet Athissingh RAMRAJSINGH Thèse dirigée par Pascal ROBERT Maître de conférences habilité à diriger des recherches à l’Université de la Méditerranée – Aix-Marseille II Présentation synthétique de la thèse de doctorat dans le cadre de l’atelier doctoral du CHERPA du 5 Mai 2009

Les nouvelles technologies web, facteur d’un glissement de ...nzaher710.free.fr/pdf/politique internet.pdf1/23 Institut d'Etudes Politiques d’Aix-en-Provence CHERPA Atelier doctoral

  • Upload
    hathu

  • View
    216

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Les nouvelles technologies web, facteur d’un glissement de ...nzaher710.free.fr/pdf/politique internet.pdf1/23 Institut d'Etudes Politiques d’Aix-en-Provence CHERPA Atelier doctoral

1/23

Institut d'Etudes Politiques d’Aix-en-Provence

CHERPA

Atelier doctoral du CHERPA

Les nouvelles technologies web, facteur d’un glissement de la prérogative politique ?

Approche critique du concept de « Web 2.0 » au travers d’un impensé véhiculé par les blogs et analyse de son impact sur la gouvernance

d’Internet

Athissingh RAMRAJSINGH

Thèse dirigée par

Pascal ROBERT Maître de conférences habilité à diriger des recherches à l’Université de la

Méditerranée – Aix-Marseille II

Présentation synthétique de la thèse de doctorat dans le cadre de l’atelier doctoral du CHERPA du 5 Mai 2009

Page 2: Les nouvelles technologies web, facteur d’un glissement de ...nzaher710.free.fr/pdf/politique internet.pdf1/23 Institut d'Etudes Politiques d’Aix-en-Provence CHERPA Atelier doctoral

2/23

Introduction Blog, Wiki, RSS, participation de l’internaute, contenu généré par l’utilisateur… Il y a encore cinq ans, ces expressions étaient totalement inconnues du grand public. Aujourd’hui, il est difficile de naviguer sur le Web sans être confronté, à un moment donné, à l’une ou l’autre de ces formulations. Leur point commun est de représenter un mouvement beaucoup plus profond, dont les incidences sur la manière d’utiliser Internet, et en particulier le Web, ont une ampleur bien plus étendue… Du moins, en apparence. En effet, l’apparition de nouvelles techniques - ou technologies - s’accompagne toujours de discours1 mettant en avant, systématiquement, la performance ou encore le « progrès » qu’elles pourraient apporter dans l’exécution de certaines tâches. Elles seraient ainsi porteuses d’une révolution.2 L’omniprésence de ce – supposé – progrès dans le discours aboutit ainsi à une forme de bienveillance sociale3 envers la technique, nous empêchant d’adopter une véritable « posture critique » envers elle : car toute forme de critique est renvoyée à une approche passéiste.4 Cette bienveillance sociale envers les technologies de l’information et de la communication (TIC) en général et les nouvelles technologies Web en particulier créent les conditions d’un impensé, à l’image de l’impensé informatique5, cadre théorique sur lequel nous reviendrons. L’objectif de ce travail de recherche est donc d’adopter une attitude critique envers les nouvelles technologies Web, que certains nomment Web 2.0. Apparu en 2005 et popularisé par Tim O’Reilly6 ce concept a fait l’objet d’un engouement très important avec ses partisans et ses détracteurs mais, paradoxalement, la place de la technique n’est pas remise en cause. Enfin, cette absence de critique favorise, selon nous, un glissement de la prérogative politique.7 En d’autres termes, il s’agit de montrer comment les nouvelles technologies Web permettent à des acteurs privés de jouer un rôle politique sans avoir la légitimité démocratique8. Ce glissement se faisant au détriment de l’Etat, légitime et qui apparaît dans le cadre de la gouvernance d’Internet, notion sur laquelle nous reviendrons. Afin de comprendre ces phénomènes, nous avons posé deux hypothèses fortes qui ont guidé notre travail :

- Les discours portant sur le Web 2.0 relèvent d’un impensé. - Cet impensé favorise un glissement de la prérogative politique.

1 Voir Mattelart, 2007 ou encore Breton, 1992. Plus récemment, Rebillard, 2007. 2 Bouchard, 2000. 3 Robert, 1994. 4 Siméon résume très bien cette vision: « La possibilité même d’une attitude critique vis-à-vis de la technique-économie moderne se trouve renvoyée à l’insignifiance. » Il ajoute plus loin : « Cette globalisation [du discours techno-économique] est la référence au “Moyen Âge” – un Moyen Âge jamais caractérisé de manière effective : il s’agit d’une simple représentation repoussoir dont la signification négative est supposée évidente. » Siméon, 2001. 5 Robert, 1994. 6 Tim O’Reilly est un éditeur américain spécialisé dans la publication d’ouvrages informatiques. 7 Robert, 2005. 8 Par exemple, dans nos démocraties occidentales, par l’intermédiaire des élections.

Page 3: Les nouvelles technologies web, facteur d’un glissement de ...nzaher710.free.fr/pdf/politique internet.pdf1/23 Institut d'Etudes Politiques d’Aix-en-Provence CHERPA Atelier doctoral

3/23

Les fondements du travail de recherche Le concept de « Web 2.0 », popularisé par Tim O’Reilly, qui publiera le 30 Septembre 2005 un article intitulé « What is web 2.09 » se veut un « modèle d’affaire pour la conception de la prochaine génération de logiciels.10 » De façon synthétique, l’auteur présente sept principes du « Web 2.0 », qu’il nomme les « sept piliers du Web 2.0 », auxquels nous avons ajouté un résumé de ce que sous-entend l’auteur ainsi que les aspects qu’il traite (soit fonctionnels, soit techniques) :

o L’utilisation du Web comme plate-forme : l’internaute ne se contente plus de naviguer ; il doit s’investir et participer (aspects techniques).

o L’optimisation de l’intelligence collective : chaque client11 devient un serveur qui renforce le réseau. Les utilisateurs sont donc des agents d’amélioration des résultats de leurs propres recherches (aspects fonctionnels)

o La capitalisation des données : ce sont elles qui font la force du Web ; la gestion des bases de données devient le cœur de métier des entreprises du Web 2.0. (aspects fonctionnels)

o La suppression des versions des logiciels : ceux-ci doivent être des services et non plus des produits. Ce modèle renforce l’impact du logiciel libre (aspects techniques)

o La mise à disposition et l’utilisation de modèles de programmation légers : on peut citer par exemple XML12, AJAX, RSS (aspects techniques)

o La libération du logiciel de l’ordinateur : ce principe permet à chacun d’avoir accès, non seulement à ses programmes, mais également à ses données, et ce depuis n’importe quel ordinateur. Il conforte l’idée du Web en tant que plate-forme (aspects techniques)

o L’enrichissement des interfaces utilisateurs : celui-ci doit s’appliquer aussi bien dans la forme (ergonomie) que dans les fonctionnalités (passerelle entre deux services distincts) offertes (aspects techniques et fonctionnels).

En somme, l’auteur présente le Web 2.0 comme un « modèle d’affaire » pour les entreprises (quelle que soit leur taille) s’appuyant sur certaines « nouvelles technologies Web. » Pourtant, cette notion de Web 2.0 suscite un débat passionné, et nous pensons que la raison tient en grande partie aux contradictions qui apparaissent explicitement ou implicitement dans sa « définition » :

o Tout d’abord, l’utilisation du terme « 2.0 » est, en soi, un paradoxe révélateur. En effet, l’auteur préconise de supprimer les logiciels dans leur forme actuelle afin de les remplacer par des services disponibles en tout lieu. Or, la notion de « 2.0 » renvoie à celle de « release » ou « sortie d’une nouvelle version d’un logiciel ». Pourquoi alors vouloir changer de paradigme en employant la terminologie de ce que l’on veut supprimer ?

9 Article publié sur son site Web. Il est consultable à cette adresse : http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html. 10 Il s’agit du sous-titre de l’article. 11 Ici le terme « client » renvoie un « ordinateur » connecté à Internet. 12 XML permet une structuration d’une page Web de sorte que son habillage (sa mise en page avec une feuille de style) est indépendant du contenu. Relativisons cette stricte différence entre « contenant » et « contenu » (voir Cotte, Després-Lonnet, 2008)

Page 4: Les nouvelles technologies web, facteur d’un glissement de ...nzaher710.free.fr/pdf/politique internet.pdf1/23 Institut d'Etudes Politiques d’Aix-en-Provence CHERPA Atelier doctoral

4/23

o Ensuite, l’optimisation de l’intelligence collective part du principe que l’importance d’un réseau en détermine la valeur. Cependant, le réseau n’est décrit qu’en termes de taille, et non de densité, telle que la définissent certains auteurs : « Plus le nombre de liens réels observés se rapproche du nombre de liens potentiels, plus le réseau est dense. 13» Autrement dit, un réseau a beau être important, si sa densité, c’est-à-dire les liens entre les utilisateurs, est trop faible, alors sa valeur en sera diminuée.

De plus, la définition fait curieusement abstraction de la « connectivité » des réseaux entre eux de même qu’il n’y a aucune mention à la densité (comme nous l’avons vu) et à la répartition de cette densité (homogène ou concentrée autour de quelques nœuds ?) Car lorsque l’on veut atteindre l’optimisation de l’intelligence collective, encore faut-il la détecter et la fédérer. À cette double critique du concept s’en ajoute une troisième, à notre avis essentielle : les données. Le principe du Web 2.0 est fortement axé sur le partage, la mise en commun non seulement des documents, mais aussi, et surtout, des données personnelles des utilisateurs, en lien avec leur vie privée. Aucune mention ne concerne l’usage qu’il est fait de ces informations, si ce n’est que les entreprises doivent déclarer la gestion des bases de données comme étant l’une de leurs principales activités. De fait, le « Web 2.0 », apparaît comme un phénomène qu’il convient d’étudier de façon plus précise, bien au-delà de ces quelques principes fondateurs, pour, in fine, tenter de comprendre ce qu’est véritablement le Web 2.0. Démarche d’analyse du discours La première partie de la thèse est consacrée à l’étude des discours portant sur le Web 2.0, publié sur des blogs. Pour ce faire, nous avons conservé les 100 blogs francophones les plus influents de la catégorie High Tech à partir du classement publié mensuellement par le site Wikio.14 Ce choix se justifie par le fait que nous voulions analyser un discours qui soit lu, diffusé et « connu » Nous avons délibérément opté pour un classement thématique afin de recueillir un corpus homogène de textes et ainsi éviter un taux de bruit trop élevé (textes hors catégories). Pour chaque blog, nous avons également conservé cinq billets (ou « posts » ou « articles ») afin d’avoir une représentation équilibrée de chacun. Au final, nous avons conservé 80 blogs et 420 billets15 pour une analyse plus fine.

13 Mongeau, Saint Charles, 2005. 14 Wikio est un site d’information collaboratif rassemblant plusieurs fonctionnalités telles que l’information en provenance de multiples sources ou encore permet de personnaliser l’information reçue (agrégateur). Le site publie également, chaque mois, un classement des blogs francophones les plus influents selon deux modalités : un classement « général » et quinze classements « thématiques » (loisirs, politique, divers, high tech, etc.). Plus de la moitié des blogs du classement général étaient des blogs High Tech en Mars 2008. De façon simplifiée, le classement prend en compte le nombre de liens entrants (plus un blog est « cité » et plus son classement augmente).

Page 5: Les nouvelles technologies web, facteur d’un glissement de ...nzaher710.free.fr/pdf/politique internet.pdf1/23 Institut d'Etudes Politiques d’Aix-en-Provence CHERPA Atelier doctoral

5/23

Nous avons ensuite procédé à une analyse thématique : « Le but de l'analyse thématique comme méthode d'analyse de contenu est de repérer les unités sémantiques qui constituent l'univers discursif de l’énoncé. Dans ces conditions, il s'agit de produire une reformulation du contenu de l’énoncé sous une forme condensée et formelle. Pour réaliser cette tâche, on procède en deux étapes : le repérage des idées significatives et leur catégorisation. Ainsi, par la catégorisation, nous obtenons une modalité pratique pour le traitement des données brutes.16 » L’objectif de l’analyse thématique de discours est donc, en somme, d’analyser les représentations sociales d’un objet, ces dernières étant : « un ensemble organisé de cognitions relatives à un objet, partagées par les membres d’une population homogène par rapport à cet objet.17 » L’analyse de contenu peut ainsi se déployer à trois niveaux :

o Le niveau du contenu o Le niveau de la structure o Le niveau des conditions de production

Les conditions de production du discours sont prédéterminées par l’élaboration du classement Wikio : il s’agit de blogs ayant un certain lectorat (et donc « faisant autorité dans leur domaine. ») Pour les deux derniers, nous avons opté pour l’élaboration de catégories à part entière. Une première lecture des billets nous a permis d’aboutir à une classification sommaire. Une seconde lecture nous a permis de compléter et d’ajuster notre grille initiale pour la rendre plus pertinente eu égard du contenu. C’est cette deuxième grille, issue de cette démarche purement inductive qui a été utilisée et qui se compose des catégories suivantes :

o L’approche manichéenne du Web 2.0. o L’appel à avis. o L’approche techno-économique du concept du Web 2.0. o Le concept du Web 2.0 comme facteur d’autopromotion. o La synthèse. o La production inexistante (qui regroupe des billets constitués exclusivement de

références). Chacun des billets a été « classé » dans une catégorie unique, qui nous semblait la mieux adaptée selon le contenu. Bien entendu, il était parfaitement possible qu’un billet recouvre, à la fois, une approche manichéenne ou encore une approche techno-économique. En fonction du contenu, nous avons donc choisi de le positionner dans l’une ou l’autre des catégories. Ainsi, de ces différentes manières d’appréhender le concept du Web 2.0, nous pouvons dire qu’elles représentent les principales « lignes de force » dans les billets que nous avons

15 Les billets retenus ont été publiés dans la période 2005-2007 : en 2005 (jusqu’en Octobre), il n’y avait pas de référence au Web 2.0. A partir de 2008, aucune nouvelle argumentation n’est véritablement venue enrichir le « débat. » 16 Negura, 2006. 17 Flament, 1994.

Page 6: Les nouvelles technologies web, facteur d’un glissement de ...nzaher710.free.fr/pdf/politique internet.pdf1/23 Institut d'Etudes Politiques d’Aix-en-Provence CHERPA Atelier doctoral

6/23

recueillis. Mais au-delà, elles semblent recouvrir, à première vue, un certain nombre de facettes de cette notion. Dès lors, il convient de s’interroger sur quelques points essentiels :

o Qu’est-ce que le Web 2. 0 ? o Peut-il y avoir des définitions « claires » ? o Peut-on y déceler une réelle analyse, qu’apprend-on sur le « Web 2.0 » ? o Le mode d’existence du Web 2.0 est-il remis en question, accepté comme tel, ou

tire-t-il son existence d’une acceptation implicite pour ensuite être légitimé par les porteurs du discours ?

L’impensé du Web 2.0 L’impensé renvoie à la notion de discours : « Elle [La notion d’impensé] signifie qu’il existe un cadre global d’appréhension de l’informatique dans notre société qui vise moins à la comprendre qu’à la protéger d’éventuelles épreuves de justification. Une analyse serrée de quelques corpus de presse montre ainsi que le discours porté sur l’informatique relève dans ses différentes thématiques (l’informatique et la police, et le sport, et les handicapés etc.) d’une logique de la performance qui ne nous apprend pas grand-chose à son sujet.18 » L’impensé informatique, tel que l’a défini P. Robert dans sa thèse peut se décliner sur le Web 2.0, en postulant que le Web est une forme de l’existence de l’informatique d’aujourd’hui. De façon synthétique, nous n’avons pu répondre clairement à nos interrogations. En effet, il n’a pas été possible de déceler une quelconque définition du Web 2.0, véritablement satisfaisante. Les approches retenues par les blogueurs restent très descriptives mais ne remettent à aucun moment en question la place de la « technique. » En définitive, les mots font débat : Y-a-t-il vraiment un Web 2.0 ? Doit-on l’appeler Web 2.0 ? Quels modèles économiques ? Voici ce qui se dit sur le Web 2.0, etc.. Apparaissent comme autant de questionnements descriptifs mais pas ou très peu analytiques. En revanche la dimension critique demeure absente. De notre analyse convergent les points suivants : Le discours sur le Web 2.0, sous l’apparence d’une approche critique, véhicule, bien au contraire, son impensé, car si effectivement les blogueurs en parlent et traitent du sujet, à aucun moment son statut n’est remis en cause : mise en avant de la performance, des principes de requalification19, aboutissant à un formatage généralisé20 du discours et des esprits. En ne questionnant pas la technique mais seulement son « nom », ce discours contribue à la légitimité technique. Ce discours prend d’autant plus d’importance qu’il s’appuie sur une triple légitimité :

18 Robert, 2004 [En ligne] 19 La requalification suppose, dans une activité, un déficit que l’informatique pourra combler. Un exemple : la mise en avant des agrégateurs (comme Netvibes) permettant de s’abonner au flux RSS et de sélectionner l’information qui nous intéresse parmi des milliers de sources possibles. Ici, l’agrégateur remplit le rôle de filtre. 20 « C’est-à-dire d’une mise en forme de la société compatible à l’informatique », Robert, 2009 (à paraître), p. 13

Page 7: Les nouvelles technologies web, facteur d’un glissement de ...nzaher710.free.fr/pdf/politique internet.pdf1/23 Institut d'Etudes Politiques d’Aix-en-Provence CHERPA Atelier doctoral

7/23

- Les auteurs, par leur fonction, ont, de facto, un statut d’expert ou d’usager expert sur la question du Web 2.0.21 - Cette légitimité du statut d’expert est confortée par les pairs qui, par le biais de la citation ou des références, reconnaissent entre eux ce statut et, par extension, ce statut est renforcé par les modes de références que sont les classements. Bien que ceux-ci soient souvent relativisés dans le discours, ils n’en gardent pas moins leur force et leur importance auprès du lectorat dans la pratique. - Le formatage du discours, dans son mode de production, renforce un peu plus la légitimité de l’expert aboutissant à la production d’un énoncé qualifié de « discours vrai ». Cependant cette légitimité à valeur argumentative. La critique lorsqu’elle existe, est cantonnée à une approche manichéenne ou techno-économique. Débat sur la forme (le « mot ») ou de ses perspectives, réelles ou supposées, mais l’existence même, leur utilisation ne sont justifiées que par le statut de la technique. Raison pour laquelle nous l’interrogeons sous la notion d’impensé, qui trouve ici sa pleine traduction notamment par la production de leurres, comme les idéologies de la décentralisation ou de la communication.22 De ce fait, le Web 2.0 semble s’imposer comme une évidence. De même, l’approche techno-économique conforte pleinement cette « révolution » et semble être l’un des facteurs essentiels de ce changement, sans pour autant apporter une véritable critique. Ainsi, l’analyse du concept de Web 2.0, au travers des blogs, ne nous permet de comprendre que superficiellement le phénomène. De plus, l’absence de critique, réelle, à son encontre le rend parfaitement légitime aux yeux de ses promoteurs. Car à mettre en avant la possibilité de tout un chacun d’avoir accès aux « outils de pouvoir 23», en mettant en avant, sans cesse, la démultiplication des moyens de communication, sans oublier la « décentralisation » (qui aboutit, en fait, à une autre forme de centralisation, beaucoup plus importante)24 et, au final, à encourager la « mise à nu » des utilisateurs, n’est-ce pas conforter le rôle des acteurs les plus importants qui, eux seuls, ont la capacité technique et économique d’organiser ce nouvel ensemble ? Pour répondre à cette question, chaque point argumentatif doit être étudié de façon précise. Le premier élément concerne la participation. En donnant les moyens à tout un chacun de publier du contenu, le « Web 2.0 » est portée par cette idée de participation amplifiée. L’internaute n’est plus consommateur mais acteur, producteur de contenus : blogs, sites participatifs (Fuzz, Wikio), encyclopédie collaborative (Wikipédia), vidéos (YouTube), photos (Flickr) sont autant d’exemples se voulant illustratifs de cette nouvelle vague participative. Mais est-ce vraiment le cas ? Y-a-t-il véritablement changement, justifiant un nouveau paradigme ?

21 Nous avons également établi les profils des blogueurs retenus : un peu plus d’un tiers sont des consultants indépendants ou entrepreneurs dans le domaine du Web. De plus, à l’exception de trois blogs, tous sont tenus par des professionnels de l’informatique, du Web ou encore du marketing. 22 Breton, 1992, Op. Cit. 23 Nous reprenons ici l’expression de Francis Pisani. 24 La « décentralisation » telle qu’elle est entendue ici rend compte davantage d’un « déplacement de la centralisation » : les données ne sont plus stockées sur un ordinateur, mais sur des serveurs « distants » (qui permettent une accessibilité en tout lieu avec une connexion Internet.) L’on voit ici cette nouvelle forme de centralisation apparaître avec des acteurs ayant la capacité de gérer les données de plusieurs millions d’utilisateurs en un « lieu unique. »

Page 8: Les nouvelles technologies web, facteur d’un glissement de ...nzaher710.free.fr/pdf/politique internet.pdf1/23 Institut d'Etudes Politiques d’Aix-en-Provence CHERPA Atelier doctoral

8/23

La participation : le Web 2.0 change-t-il réellement la participation des internautes ? Pour cela, nous avons choisi de d’étudier la communauté francophone du moteur de blog Wordpress (CFWP) La communauté francophone de Wordpress est fédérée autour de différents outils (forum, blog, rubriques de téléchargement), il s’agit pour nous, de nous consacrer à un outil essentiel ici : son forum, seule rubrique véritablement participative. Or une analyse fine de la CFWP montre que cette participation reste concentrée auprès de quelques utilisateurs. De plus, le phénomène communautaire semble être davantage porté par des motivations personnelles. De ce fait, le « Web 2.0 » ne semble pas aussi participatif que le discours le laisse penser : moins de 2% des utilisateurs contribuent à plus de 60% de la production du contenu. Ce constat a été fait auprès d’autres communautés dites « Web 2.0 » : YouTube, Wikipedia, etc. Cette vision où « chacun peut s’exprimer et partager » ne trouve pas d’écho dans les données chiffrées que nous avons pu recueillir, cette tendance étant confirmée par d’autres études menées sur d’autres services. Double constat : les discours portés sur le Web 2.0 par les blogueurs relèvent d’un impensé mais, dans le même temps, ce discours s’appuie sur des données tronquées. Ensuite, au travers du paradoxe de la simultanéité25, nous avons voulu replacer le Web 2.0 dans une perspective historique. « Le “paradoxe de la simultanéité” – qui exprime la loi de non-simultanéité dans laquelle l'homme est a priori jeté – ouvre l'espace d'un problème potentiellement commun à l'ensemble des cultures : comment être à la fois ici et là-bas en même temps, comment être également à la fois hier et aujourd'hui ou demain en même temps, comment être tout aussi bien à la fois à telle ou telle échelle et/ou vitesse, voire comment être à la fois le même et l'autre ? Cet ensemble de contraintes fonctionne comme une véritable provocation que le monde soumet à l'intelligence des hommes.26 » De façon simplifiée, les outils de gestion du paradoxe de la simultanéité étaient détenus par les Etats : infrastructures de transports (routiers, ferroviaires, aériens) ou encore des télécommunications (télégraphe optique puis électrique, bien plus tard le téléphone) en sont les exemples les plus révélateurs. Or certains de ces moyens sont aujourd’hui détenus par des entreprises privées : des outils de géolocalisation comme GoogleMaps, permettant d’être « ici » et d’être virtuellement « là bas » en même temps (dimension spatiale) ou encore Facebook qui nous permet d’être « ici » et de « resté connecté » avec ses « amis » en même temps. Le jeu Second Life ou encore les blogs permettent, quant à eux, de jouer sur la dimension de l’être (être soi et « un autre » ou une partie seulement de « soi » en même temps). En adoptant ce cadre d’intelligibilité, les résultats ont été beaucoup plus significatifs, dans la mesure où nous avons pu constater comment, en desserrant (un peu) l’étau du paradoxe de la

25 Robert, 1996. 26 Robert, 2004, Vol. 2, p. 167.

Page 9: Les nouvelles technologies web, facteur d’un glissement de ...nzaher710.free.fr/pdf/politique internet.pdf1/23 Institut d'Etudes Politiques d’Aix-en-Provence CHERPA Atelier doctoral

9/23

simultanéité, les nouvelles technologies Web favorisent l’implication de certains internautes, en l’occurrence les administrateurs de la communauté francophone de WordPress. Pour autant, nous ne voulions pas en rester là, car cette implication accrue s’accompagne d’un autre phénomène, masqué lui aussi : la mise en ligne de l’identité de l’individu. Or, dans un contexte où la gouvernance d’Internet reste encore relativement concentrée, croire que le Web 2.0 permettrait une meilleure prise en compte de la « société civile27 » relève du leurre, tout au moins à l’époque actuelle. En effet, les principaux outils de gestion du réseau, mais aussi des données, restent détenus par quelques acteurs importants et en majorité privés.28 Une question se pose alors : quelle est la tendance à venir ? Certains parlent du « Web 3.0 » comme du « Web sémantique ». Leur thèse est la suivante : la participation des internautes induit une production importante d’informations. Plutôt que d’instaurer des systèmes fermés, il serait plus judicieux de permettre à ces systèmes de dialoguer entre eux. En d’autres termes, il faudrait pouvoir mettre en relation son blog (donc ses publications) avec son profil Facebook ou LinkedIn, puis passer facilement sur YouTube pour voir quelles vidéos ont été mises en ligne par l’utilisateur, pour ensuite vérifier quels achats ont été effectués sur quels sites. Ce Web dit « sémantique » est encore à l’état de discussion actuellement ; il est donc inutile d’entrer dans un débat qui ne concerne encore que les spécialistes du sujet. De la faible participation au glissement de la prérogative politique Il nous semble pertinent de nous attarder un peu plus sur cette problématique liée à l’identité. Dominique Cardon29 a ainsi énoncé une typologie cartographique présentant un certain nombre de services précédemment évoqués. S’appuyant sur quatre axes de la dimension de l’être (développés à travers le paradoxe de la simultanéité), à savoir le faire, l’être, le réel et le projeté, il propose une nouvelle approche de l’identité numérique :

27 Terme sur lequel nous reviendrons. 28 Citons Google, Microsoft ou encore Yahoo! pour les exemples les plus révélateurs. 29 Cardon, 2008.

Page 10: Les nouvelles technologies web, facteur d’un glissement de ...nzaher710.free.fr/pdf/politique internet.pdf1/23 Institut d'Etudes Politiques d’Aix-en-Provence CHERPA Atelier doctoral

10/23

À travers cette représentation, l’auteur nous permet de mieux appréhender dans quelle mesure les quatre dimensions, liées aux outils et services, se traduisent par l’obtention de quatre formes d’identité et donc autant d’informations sur un individu : « civile » (ce que l’on est, par exemple sur le site de rencontres Meetic) ; « agissante » (ce que l’on fait, par exemple à travers Twitter, où il est possible de suivre l’activité d’une personne) ; narrative (ce que l’on dit, au travers des blogs) ; et virtuelle (ce que l’on fait par l’intermédiaire d’un avatar, par exemple sur Second Life). « Les nouvelles pratiques sociales qui se développent sur les plates-formes relationnelles font aussi apparaître des zones de l’espace relationnel dans lesquelles l’articulation entre des réseaux relationnels, autrefois isolés les uns des autres, se réalise avec plus d’évidence. D’une certaine manière, Facebook est situé au cœur de cette recomposition dans la mesure où les utilisateurs, derrière leur nom propre, mêlent de plus en plus amis, collègues et inconnus, tout en pressentant aussi de plus en plus fortement les risques identitaires qu’ils prennent à provoquer un tel mélange. » Dominique Cardon souligne ainsi, par le biais de sa cartographie, que cette gestion de l’identité « en ligne », révèle des problématiques touchant l’identité elle-même pour l’individu, notamment par le fait que les « liens » obéissent à la logique du nombre et non à celle de « l’intensité ». Cette illustration confirme ainsi un avatar de l’idéologie de la communication fortement présent dans le discours : « L’important est de communiquer, peu importe le contenu de la communication. » Mais au-delà de la problématique relative à l’identité, la question du pouvoir ne peut être mise de côté. Le discours, rappelons-le, promettait de « remettre l’usager au centre des services ». Or, – et l’analyse détaillée le montre –, ce n’est pas l’usager qui est au centre des services, ce sont les services eux-mêmes qui sont au centre. Le discours véhicule donc des illusions, en faisant croire que l’usager/internaute crée, contrôle et utilise l’information. Mais la

Page 11: Les nouvelles technologies web, facteur d’un glissement de ...nzaher710.free.fr/pdf/politique internet.pdf1/23 Institut d'Etudes Politiques d’Aix-en-Provence CHERPA Atelier doctoral

11/23

participation limitée prouve bien la persistance de la passivité qui, aujourd’hui encore, est la règle dominante. Ajoutons à ces paramètres que les outils de gestion de l’information et du desserrement de l’étau du paradoxe de la simultanéité restent aux mains des acteurs économiques les plus importants. En définitive, « le discours » donne l’illusion que les acteurs privés mettent des services à la disposition des internautes afin que ces derniers puissent créer des contenus (au travers par exemple des blogs ou des forums), filtrer ceux qui sont dits « intéressants » (c’est le cas des sites participatifs tels que Fuzz ou Wikio), et publier leur identité sur le Web pour la « partager » avec des « amis » (c’est le cas de Facebook). Or, la réalité semble différente de ce que le discours véhicule : certes, les acteurs privés proposent aux internautes des outils et services pour produire des contenus. Mais ils conservent la propriété de ces outils (voire souvent des informations) et ce, dans le but de générer des revenus (notamment publicitaires). C’est ce décalage entre discours et réalités que nous avons voulu synthétiser dans les deux figures suivantes.

Page 12: Les nouvelles technologies web, facteur d’un glissement de ...nzaher710.free.fr/pdf/politique internet.pdf1/23 Institut d'Etudes Politiques d’Aix-en-Provence CHERPA Atelier doctoral

12/23

Schématiquement, nous pourrions résumer les faits ainsi :

Ce que le discours fait croire

Ce qui se passe réellement :

L’usager est au centre des services (et il les

contrôle)

Création de contenu

Mise en ligne de

l’identité

Les acteurs économiques créent des services pour satisfaire des besoins

Filtre du contenu intéressant l’usager

Les usagers utilisent des services pour créer du contenu

Les acteurs privés créent des services favorisant la mise en ligne de contenus et exploitent financièrement ce contenu

Les services Informations

Contrôle et propriété

Page 13: Les nouvelles technologies web, facteur d’un glissement de ...nzaher710.free.fr/pdf/politique internet.pdf1/23 Institut d'Etudes Politiques d’Aix-en-Provence CHERPA Atelier doctoral

13/23

En contrôlant les outils de gestion de l’information et des données personnelles, cette recomposition favorise ainsi le glissement de la prérogative politique que nous avons évoqué. Rappelons par ailleurs qu’historiquement, les outils de gestion du paradoxe de la simultanéité étaient détenus par les États. Par conséquent, le réseau Internet qui permet la mise en place et le fonctionnement de ces outils, devrait demeurer une prérogative politique. Mais si « le politique » reste encore fortement présent dans la gestion du réseau, les utilisateurs, ou « la société civile », ne semblent pas obtenir davantage de « pouvoir », en dépit du fait qu’ils participent à créer du contenu. Toutefois, ce pouvoir politique semble diminuer, malgré la tentative actuelle du gouvernement français de corriger cette lacune. Pourtant – et c’est peut-être la meilleure traduction de ce glissement de la prérogative politique –, le débat portant sur le récent projet de loi sur la création du fichier EDVIGE, à la fin de l’année 2008, a laissé quelques traces. En effet, EDVIGE (Exploitation Documentaire et Valorisation de l'Information Générale) a suscité la polémique durant la seconde moitié de l’année 2008.30 À l’origine, il était destiné à recenser deux grandes catégories de personnes :

o Les « personnes physiques ou morales ayant sollicité, exercé ou exerçant un mandat politique, syndical ou économique ou qui jouent un rôle institutionnel, économique, social ou religieux significatif »...

o Les « individus, groupes, organisations et personnes morales qui, en raison de leur activité individuelle ou collective, sont susceptibles de porter atteinte à l'ordre public31 ».

Le caractère ambivalent du fichier, ses modes d’accès ainsi que les données collectées en son sein ont provoqué une levée de boucliers d’une grande partie de l’opinion publique et de la classe politique.32 Pourtant, publier un blog sur le syndicalisme, la politique ou encore dans le but de valoriser son activité professionnelle est une pratique encouragée. Placer ces blogs dans ses « favoris » ou encore sur un site de SocialBookmarking, ou tout simplement dans sa blogroll ne provoque pas de débat, bien au contraire : le blogueur y gagne en visibilité, voire en légitimité. Dans le même registre, le site Facebook met à la vue de tous des informations33 de type « opinions politiques », « religion » ou encore « intéressé(e) par des hommes/des femmes ». Il est vrai que le site ne publie que les informations renseignées par l’utilisateur, dont certaines

30 Par décret 2008-632 du 27 juin 2008 paru au Journal officiel n°0152 du 1er juillet 2008, consultable sur le site Légifrance. 31 Voir le Journal officiel du 1er Juillet 2008. 32 Voir cet article d’Arthur Nazaret, Edvige, un fichier de trop ? : http://www.rue89.com/2008/07/24/edvige-un-fichier-de-plus-un-fichier-de-trop (référénces complètes en bibliographie.) 33 Voir un profil public sur le site de FaceBook. Pour des raisons légales, nous ne mettrons pas de profil précis.

Page 14: Les nouvelles technologies web, facteur d’un glissement de ...nzaher710.free.fr/pdf/politique internet.pdf1/23 Institut d'Etudes Politiques d’Aix-en-Provence CHERPA Atelier doctoral

14/23

peuvent par conséquent ne pas apparaître.34 Pourtant, ses liens avec d’autres personnes, ses photos etc. sont parfaitement visibles. Là encore, la question ne semble pas se poser. Pourtant, de nombreux internautes utilisent ce service, dont les conditions générales précisent que : « En publiant un Contenu utilisateur sur le Site, vous autorisez expressément la Société à créer les copies nécessaires pour faciliter la publication et le stockage du Contenu utilisateur sur le Site. En publiant un Contenu utilisateur sur tout ou partie du Site, vous concédez expressément à la Société, et vous garantissez détenir les droits nécessaires à cet effet, une licence irrévocable, perpétuelle, non exclusive, transférable et pour le monde entier sans rétribution financière de sa part (y compris le droit de concéder des sous-licences), d'utiliser, copier, représenter, diffuser, reformater, traduire, extraire (en tout ou partie) et distribuer ce Contenu utilisateur, à des fins commerciales, publicitaires ou autres, sur le Site ou en relation avec le Site (ou dans le cadre de sa promotion), de créer des œuvres dérivées du Contenu utilisateur ou de l'incorporer à d'autres créations, et d'en concéder des sous-licences des éléments cités.35 » De ce fait, si les citoyens refusent le fichier gouvernemental, parallèlement, ils acceptent une exploitation commerciale de leurs données personnelles et ce, sans aucune forme de rétribution. En d’autres termes, d’un côté ils n’admettent plus que l’État exerce une prérogative historique, tandis que de l’autre, ils concèdent le droit à une société privée de capitaliser leurs propres données en vue d’une exploitation commerciale. Facebook a bien tenté, en février 2009, de modifier ses conditions, en ajoutant que « tout contenu publié sur le site demeure, à vie, propriété de Facebook ». Les utilisateurs ont alors protesté et cette clause a été supprimée. Mais pour combien de temps encore ? Que ce soit à l’échelle d’un site ou de la gouvernance d’Internet, nous voyons bien que le pouvoir économique prend de plus en plus d’ampleur, aidé en cela par les nouvelles technologies Web. Ainsi, nous voyons comment les nouvelles technologies Web favorisent un glissement de la prérogative politique. Ce glissement, nous pouvons le voir de façon très nette dans le cadre de la gouvernance d’Internet Illustration du glissement de la prérogative politique dans le cadre de la gouvernance d’Internet Le groupe de travail sur la gouvernance d’internet (GTGI) définit ainsi la gouvernance d’Internet36 :

34 Ces informations n’apparaissent pas « pour le grand public. » De plus, le site a mis en place un système pour ne pas voir sa fiche indexée sur certains moteurs de recherche. Toutefois, personne ne peut affirmer que les données recueillies ne seront pas consultées par des personnes se « donnant les moyens » de le faire (des pirates informatiques par exemple). 35 http://www.facebook.com/terms.php?ref=pf. 36 Nous reviendrons plus en détail sur ce GTGI qui est placé sous l’égide des Nations-Unies.

Page 15: Les nouvelles technologies web, facteur d’un glissement de ...nzaher710.free.fr/pdf/politique internet.pdf1/23 Institut d'Etudes Politiques d’Aix-en-Provence CHERPA Atelier doctoral

15/23

« Il faut entendre par “gouvernance de l’Internet” l’élaboration et l’application par les États, le secteur privé et la société civile, dans le cadre de leurs rôles respectifs, de principes, normes, règles, procédures de prise de décisions et programmes communs propres à modeler l’évolution et l’utilisation de l’Internet.37 » Nous reviendrons plus en détail sur cette définition en abordant les problématiques actuelles autour de la mise en œuvre de la gouvernance d’Internet. Toutefois, il convient de revenir avant tout sur l’ICANN, acteur clé de cette gouvernance. L'ICANN (Internet Corporation for Assigned Names and Numbers) est une organisation de droit privé, sans but lucratif, basée à Los Angeles. Elle est chargée de coordonner la gestion des identifiants uniques d'Internet (adresses IP, identifiants de protocoles, noms de domaines), ainsi que de superviser le système des serveurs racines. Cet organisme a été créé en 1998 afin de prendre en charge des fonctions qui dépendaient auparavant du gouvernement américain, par le biais de l'IANA (Internet Assigned Numbers Authority). L’ICANN se compose d'un conseil d'administration qui se veut le plus représentatif possible de la diversité des parties prenantes de l'Internet (secteurs d'activité, diversité géographique et culturelle...). Celui-ci comprend des directeurs désignés par les organisations supports, et d'autres qui sont sélectionnés par un comité de nomination (NomCom). Elle englobe également un ensemble d'organisations supports (ASO38, GNSO39, ccNSO40) et de comités consultatifs (GAC41, ALAC42, SAC43, RSSAC44). Le GNSO est lui-même constitué de groupes (constituencies) représentant les différents secteurs d'activités concernés (registres, bureaux d'enregistrement, FAI45 et opérateurs de backbones46, utilisateurs du secteur marchand, utilisateurs non commerciaux, organismes de propriété intellectuelle). Enfin, le TLG (Technical Liaison Group) est chargé de l'expertise technique. Il est composé de l'ETSI (European Telecommunications Standards Institute), de l'ITU-T (International Telecommunications Union - Telecommunication Standardization Sector), du W3C (World Wide Web Consortium) et de l'IAB (Internet Architecture Board). Bien que l’ICANN prenne l’apparence d’une société internationale organisée démocratiquement, l’impact des groupes de pression est bien réel. En effet, l’ICANN

37 Extrait du rapport du GTGI, août 2005. Références complètes en bibliographie, p. 3. 38 Address Supporting Organization : chargée de l'adressage IP. 39 Generic Names Supporting Organization : chargée des noms de domaine génériques. 40 Country Code Names Supporting Organization : représente la communauté des registres nationaux qui y ont adhéré. 41 Governmental Advisory Committee : représente les pays et les organisations internationales. 42 At Large Advisory Committee : représente les intérêts des « citoyens de l'Internet" ». Au conseil d’administration de l’ICANN, l’ALAC ne bénéficie que d’une voie consultative, non délibérante. 43 Security Advisory Committee. 44 Root Server System Advisory Commitee. 45 Fournisseur d’Accès à Internet. 46 « On appelle backbones (épine dorsale en Anglais) les réseaux à très haut débit constituant le cœur du réseau Internet. Ces réseaux sont constitués majoritairement de câbles à fibres optiques installés sous les océans et sur les continents, plus quelques liaisons satellites pour desservir des zones plus isolées. Le terme backbone ou réseau fédérateur est aussi utilisé pour désigner le cœur de réseau d'une entreprise. » Source : http://www-public.int-evry.fr/~maigron/Internet/Backbone.html#Backbones. Le terme français « dorsale » reste encore pu usité.

Page 16: Les nouvelles technologies web, facteur d’un glissement de ...nzaher710.free.fr/pdf/politique internet.pdf1/23 Institut d'Etudes Politiques d’Aix-en-Provence CHERPA Atelier doctoral

16/23

entretient toujours des liens avec le département américain du Commerce47. Les gouvernements du monde entier, et spécialement les Européens, dénoncent la domination abusive des Américains sur le réseau Internet. Toute décision émise par l’ICANN concernant un domaine autre que la technique « pure » (par exemple la création des noms de domaines et leur attribution) est soumise à la consultation extensive et à l’approbation finale du Département. Ce Memorandum est en fait le seul fondement de la légitimité de l'ICANN : cet élément d'importance a par exemple permis au gouvernement américain d'enterrer le « .iq », suffixe qui devait revenir à l'Iraq et qui, au final, a été octroyé à une société privée américaine. Qui plus est, comme le note Loïc Damilaville48: « Quant à la preuve que doit faire l'ICANN de sa capacité à être autonome, le gouvernement américain de 1998 s'est sagement abstenu de fixer des critères d'évaluation objectifs et précis. Ce qui revient à dire, très factuellement, que l'ICANN ne sera reconnue autonome par le gouvernement américain que lorsque celui-ci le voudra bien, ce qui n'est pas pour demain. En renonçant à son rôle de co-gouvernant de l'Internet, Washington se priverait en effet d'un instrument de pouvoir sans équivalent dans une société dont les modes de fonctionnements reposent de plus en plus sur les échanges d'informations à travers le réseau des réseaux. » La question du pouvoir politique par l’intermédiaire du pouvoir technique est ainsi pleinement mise en lumière : si nous avons largement évoqué le rôle que jouent les acteurs majeurs dans la gestion des contenus, nous voyons, une nouvelle fois, apparaître un acteur influent, dont le pouvoir sur la maîtrise « physique » du réseau est considérable. Mais la société civile qui jusqu’à présent, ne s’était pas vraiment manifestée, s’est emparée depuis peu de ce problème. Cette question a été l’enjeu du SMSI, le Sommet mondial sur la société de l’information, qui a été organisé en deux temps sous la direction des Nations unies : la première partie s’est déroulée à Genève en 2003, et la deuxième en 2005 à Tunis. Lors de ce dernier sommet, l’ICANN a fait quelques concessions, notamment concernant la gestion des extensions des noms de domaines pour chaque pays. Les États-Unis ont accepté un processus de négociation sur cette question de première importance. Même si à l’heure actuelle, ils conservent la suprématie sur les éléments essentiels (notamment l’adressage), une ouverture réelle est, pour la première fois, envisagée de manière sérieuse. Ce processus long est toutefois une nécessité, car les États-Unis se retrouvent face aux protestations grandissantes de certains pays comme la Chine, qui a intégré (en 2006) des idéogrammes dans ses noms de domaines.49 C’est ainsi que les critiques s’élèvent, de plus en plus nombreuses. À terme, elles pourraient avoir un impact majeur sur la pérennité et la cohérence du réseau, si ce mode de gouvernance, 47 Théoriquement, l’ICANN constitue une société privée à but non lucratif, relevant du droit californien et en contrat avec le département du Commerce, sous la forme du Memorandum of Understanding renouvelé chaque année depuis 1998, et donc hors du champ gouvernemental. 48 Damilaville, 2002. 49 Cette nouvelle avait fait grand bruit en mars 2006. Cette manœuvre devait permettre aux internautes chinois de ne plus passer par les serveurs américains de l'ICANN pour surfer sur certains sites, et donc d'être indépendants des décisions et de la régulation dictée par l'ICANN. Voir l’article d’Estelle Dumout à ce propos, « La Chine intègre des idéogrammes dans ses noms de domaine », en bibliographie.

Page 17: Les nouvelles technologies web, facteur d’un glissement de ...nzaher710.free.fr/pdf/politique internet.pdf1/23 Institut d'Etudes Politiques d’Aix-en-Provence CHERPA Atelier doctoral

17/23

tel que nous venons de le décrire, n’évolue pas vers une plus grande participation de tous les acteurs, aussi bien les usagers que l’ensemble des pouvoirs politiques. Cette évolution de la gouvernance, telle qu’elle semble être voulue, implique des questions fondamentales quant à cette notion même. À l’origine en effet, la gouvernance faisait référence à une gestion partagée entre les syndicats de salariés et les dirigeants d’entreprises. Or, la transposition de cette notion suppose donc qu’il y ait aussi des « dirigeants » pour Internet. Ce n’est bien sûr pas le cas, comme nous pouvons le constater, même si les aspects techniques les plus importants sont pilotés par l’ICANN. Pour discuter des modalités de pilotage, l’ONU a tenté plusieurs actions. En juin 2003, lors du Sommet mondial de la société de l’information (SMSI) de Genève, un groupe de travail sur la gouvernance de l’Internet (GTGI) a été créé par le secrétaire général de l’ONU. Son mandat était le suivant :

o Élaborer une définition pratique de la gouvernance de l’Internet.50 o Identifier les questions d’intérêt général se rapportant à la gouvernance

de l’Internet. o Trouver un terrain d’entente concernant les rôles et sphères de responsabilité

respectifs des États, des organisations internationales et autres forums existants, ainsi que du secteur privé et de la société civile, tant dans les pays en voie de développement que développés.

Le GTGI a tenté d’analyser les différents scénarios de cette structure et de proposer quelques solutions alternatives pour le débat préalable au sommet de Tunis. Mais les « modèles » présentés dans le rapport du GTGI n’ont pas été suffisamment approfondis. Ils n’apportent pas de réelles indications quant à la formulation des détails complexes d’un nouveau système de gouvernance et de la convention internationale, ce qui le légitimerait face à l’ensemble des gouvernements nationaux. Toutefois, du rapport final du GTGI émanent quand même deux éléments de consensus : en premier lieu, la gouvernance mondiale de toute forme de composante d’Internet ne peut être placée sous l’hégémonie d’un seul gouvernement ; en second lieu, un forum mondial s’avère nécessaire et urgent, même si au début, ses fonctions ne s’orientaient que vers le conseil et la résolution de conflits. Les membres des organisations de la société civile ayant participé au GTGI ont joué un rôle essentiel pour faire converger les points de vue vers ce type de positionnement. Cependant, cette vision du GTGI ne semble pas assez ambitieuse, à l’image des propos d’Alfonso : « S’agissant des modèles présentés par le GTGI, on espère que, d’une façon ou d’une autre, l’ICANN actuelle puisse se transformer en une organisation mondiale efficace, indépendante

50 Donnée plus haut.

Page 18: Les nouvelles technologies web, facteur d’un glissement de ...nzaher710.free.fr/pdf/politique internet.pdf1/23 Institut d'Etudes Politiques d’Aix-en-Provence CHERPA Atelier doctoral

18/23

et autonome (peut-être par le biais d’un “Accord de Siège” avec le gouvernement des États-Unis) pour s’insérer dans la nouvelle structure de gouvernance. Néanmoins, il faudrait aller plus loin encore qu’une réelle internationalisation de l’ICANN.51 » Afin de comprendre cette remarque, il convient également de revenir sur les principaux acteurs impliqués, à l’heure actuelle, dans la gouvernance d’Internet. Nous avons, en premier lieu, l’ICANN, acteur incontournable qui possède un pouvoir technique important – pour ne pas dire le plus important – puisque c’est la gestion physique du réseau qui est concernée. De même, l’aspect politique n’est pas en reste, comme nous le verrons par la suite. Par contre, en termes économique et juridique, à l’heure actuelle, l’impact de ses décisions reste limité. Même si les noms de domaines sont vendus par l’intermédiaire de l’ICANN, aucune décision cruciale n’a été prise au niveau des facteurs juridiques ou économiques, même si cette situation, avec les nouvelles prérogatives conférées à cet organisme, peut évoluer à court ou moyen terme. Les acteurs privés tirent également leur épingle du jeu économique. Nous en distinguons toutefois deux grandes catégories : les fournisseurs d’accès au service (les FAI par exemple) et les fournisseurs de services ou de contenus. Il est tout à fait possible d’objecter que certains FAI sont aussi producteurs de contenus ou fournisseurs de services (comme Orange par exemple). Mais des entreprises comme Google ou Microsoft ne fournissent « que » du service, sans pour autant assurer les possibilités de connexion. Nous pouvons citer également des sociétés telles qu’Adobe qui, bien qu’elles produisent des logiciels et tentent d’imposer leurs standards, n’assurent pas l’accès au réseau. Dans les deux cas, les prérogatives techniques et économiques sont les plus importantes pour ces acteurs. La productivité étant la clé de leur survie, ils sont en recherche constante de modèles économiques rentables. En même temps, cette recherche de rentabilité passe par des contraintes techniques sur lesquelles ils tentent d’influer, en participant aux groupes de travail en charge de ces questions. Les acteurs privés jouent également un rôle de plus en plus important dans le domaine juridique. Mais cette fonction est en grande partie détenue par des secteurs d’activité que nous n’avons pas mentionnés ci-dessus : l’industrie du disque et du cinéma ou encore, récemment, du livre. Notons par ailleurs que les intérêts privés sont parfois en conflit.52 Ils constituent donc une catégorie complexe. Cependant, leur volonté d’influencer le réseau dans le but de défendre leurs intérêts propres, en particulier économiques, demeure un dénominateur commun qu’il est difficile d’ignorer. Une autre catégorie d’acteurs influents concerne les gouvernements nationaux ou supranationaux (comme l’Union européenne). Aujourd’hui, ces derniers sont fortement présents sur le réseau : les institutions possèdent toutes leur propre site, les politiques tiennent des blogs et interviennent dans des débats en ligne… Le pouvoir politique participe donc, à sa manière, à la production de contenus. De par sa position, celui-ci est également sollicité par les acteurs privés afin de défendre leurs intérêts, et en tant que législateur, son influence est décisive en matière juridique. Le rapport Olivennes et le projet de loi dit HADOPI en sont des traductions concrètes. Cette faculté d’allier pouvoir juridique et pouvoir politique fait de cette

51 Alfonso, 2005. 52 Citons l’exemple de GoogleBooks qui permet la consultation de livres numérisés et qui a provoqué une forte protestation dans le monde du livre, en particulier en France. Toujours dans le monde de l’édition, mentionnons l’opposition des libraires à la gratuité des frais de port appliquée par Amazon.

Page 19: Les nouvelles technologies web, facteur d’un glissement de ...nzaher710.free.fr/pdf/politique internet.pdf1/23 Institut d'Etudes Politiques d’Aix-en-Provence CHERPA Atelier doctoral

19/23

catégorie d’acteurs une entité incontournable. Par ailleurs, dans certains pays (Chine, Tunisie), la gestion du réseau est directement rattachée aux instances étatiques, qui exercent un contrôle et une censure très lourds. De même, dans certaines nations, comme la France, le développement de l’accès à Internet haut débit est, de fait, lié à l’État.53 Donc, celui-ci a en quelque sorte une influence sur la gestion technique du réseau. Mais cette compétence technique ne peut être de son seul ressort. C’est pourquoi certains acteurs privés, se positionnant en tant « qu’experts54 » ou maîtres d’ouvrage, tentent ainsi d’influer sur les décisions politiques. La frontière entre intérêts privés et pouvoir politique est parfois difficilement identifiable, comme le montre le récent projet de loi55 HADOPI. La dernière catégorie d’acteurs que nous considérons comme pertinente se rapporte aux internautes eux-mêmes, que l’on peut qualifier de « société civile », pour reprendre l’expression du GTGI. De prime abord, cette catégorie peut sembler très large, et nous en sommes d’ailleurs conscients. Nous opérerons simplement une distinction entre ceux qui ont des intérêts directs et les internautes. Les acteurs ayant des intérêts directs sont l’ensemble des personnes (physiques ou morales) pouvant retirer un bénéfice de la promotion de l’utilisation d’Internet ou des nouvelles technologies Web.56 Pour ces derniers, il existe une corrélation évidente entre la mise en avant des « outils Web » et la valorisation de leur statut. En adoptant une posture « d’experts », ils tentent d’asseoir leur influence auprès des internautes, voire d’autres acteurs politiques ou économiques. Contrairement à l’idée reçue selon laquelle « tout internaute est acteur », ce nombre reste toutefois limité. Quant aux internautes, il s’agit d’individus ne possédant aucun intérêt particulier à promouvoir l’utilisation du réseau ou à vanter des services. Loin de reconnaître Internet comme un moyen d’acquérir de l’influence ou du pouvoir, ils s’en servent, tout au plus, pour partager des contenus. Afin de résumer notre développement, nous avons rassemblé, dans un tableau synthétique, le pouvoir des acteurs au niveau de chaque composante : technique, juridique, politique et technique. Pour chaque catégorie, nous avons également tenté de rendre compte de ses capacités à influencer effectivement la construction des normes et donc, de son poids relatif dans le processus de gouvernance : impact faible (+), important (++) ou très important (+++). Concernant l’ICANN et son impact économique, il nous est impossible de prévoir les conséquences à court terme, au regard des dernières orientations choisies.57 Quant aux acteurs privés, certains jouent un rôle fondamental dans la gestion technique du réseau (FAI), alors que d’autres occupent une position forte dans la construction des normes techniques. Même si

53 Cette prérogative historique est aujourd’hui largement déléguée à des acteurs privés, à l’instar de Numéricâble qui installe des réseaux de fibre optique en France. 54 Denis Olivennes, auteur du rapport (références en bibliographie) ayant inspiré le projet de loi HADOPI comportant des mesures anti- piratage telles que la riposte graduée était, par exemple, le P.-D.G. de la FNAC (dont le chiffre d’affaires sur les ventes de disques et de films a chuté durant ces dernières années). 55 Aujourd’hui appelé « Création et Internet » 56 Les blogueurs évoqués précédemment, dont beaucoup sont consultants, peuvent valoriser leur « expertise » en promouvant l’utilisation de ces technologies. 57 La nouvelle orientation de l’ICANN a fait l’objet d’un document en Juillet 2008 (références en bibliographie), évoquant notamment un futur statut d’association privée.

Page 20: Les nouvelles technologies web, facteur d’un glissement de ...nzaher710.free.fr/pdf/politique internet.pdf1/23 Institut d'Etudes Politiques d’Aix-en-Provence CHERPA Atelier doctoral

20/23

ces points sont divergents, nous les avons rassemblés autour de la prérogative technique des acteurs. Enfin, s’agissant de la société civile, son pouvoir d’influence demeure très faible et ce, quelles que soient les composantes. Cependant, ce tableau ne concerne que l’impact direct que peut exercer un acteur sur le point cité. Rappelons toutefois que c’est la société civile qui concrétisera – ou non – le succès d’un service, tout simplement en l’utilisant – ou non. Mais à titre individuel, sa capacité d’action reste modeste. Économique Juridique Politique Technique

ICANN +(+) + +++ +++ W3C/ISOC ++ + + +++

Gouvernements ++ +++ +++ ++ Acteurs privés +++ ++ ++ +++ Société civile + + + +

Ce tableau tente de mettre en évidence le pouvoir sectoriel actuel de chaque acteur. Nous remarquons que l’ICANN, l’autorité technique, joue un rôle politique majeur, qui devrait être observé durant les prochaines années, dans le cadre d’une future privatisation. Le W3C et l’ISOC, qui sont des instances techniques, occupent une fonction économique importante, en promouvant ou en freinant certaines spécifications techniques, pour les raisons évoquées précédemment. Indirectement, ces organismes ont bien une vocation politique, dans la mesure où ils peuvent conditionner le développement d’un acteur privé. Nous remarquons également le rôle considérable des acteurs privés. À l’origine, leur prérogative devait se restreindre au domaine économique. Or, grâce à leurs capacités d’action, ils s’immiscent aujourd’hui dans les quatre sphères mentionnées, y compris la sphère politique. En contrôlant les moyens d’accès au réseau ainsi que les outils de gestion de contenus, ils entrent même parfois en conflit avec le pouvoir politique « légitime ». Dès lors, même si l’ « autorité politique » garde une certaine mainmise au niveau des décisions importantes (notamment juridiques et politiques), ce dernier se voit obligé de composer avec les acteurs privés (comme nous le verrons avec certains projets de lois). De ce fait, dans le cadre de la gouvernance d’Internet, nous voyons désormais se profiler un glissement de la prérogative politique en faveur des acteurs privés et au détriment de la sphère politique. Il semble même s’accélérer avec le Web 2.0 dans la mesure où le contrôle des outils de gestion de contenus renforce le pouvoir économique des acteurs privés et, par voie de conséquence, leur influence politique. Conclusion Au final, qu’est-ce que le Web 2.0 ? Pour y répondre, résumons la position d’O’Reilly : « Le Web 2.0 est un cadre économique, posant les bases sur la manière de concevoir les services Web, afin de permettre aux internautes de créer, publier et organiser facilement et intuitivement de l’information (ou du contenu) ainsi que de nouer des relations/être en interaction avec d’autres, aussi bien sur le mode horizontal que vertical. Un service Web 2.0 doit être en mesure de fournir les moyens nécessaires aux internautes pour ces finalités mais il doit également être capable de gérer cette information, non simplement en la stockant et en la

Page 21: Les nouvelles technologies web, facteur d’un glissement de ...nzaher710.free.fr/pdf/politique internet.pdf1/23 Institut d'Etudes Politiques d’Aix-en-Provence CHERPA Atelier doctoral

21/23

rendant accessible à tout instant, mais en la valorisant, en fonction de ses objectifs afin de la rendre rentable, ou tout au moins obtenir un retour sur investissement. Enfin, un service Web 2.0 doit, sur le plan technique, assurer une mise à jour régulière (amélioration continue) et libérer l’internaute de certaines contraintes techniques (installation d’un logiciel spécifique) sans oublier son optimisation pour un accès rapide et son interaction avec d’autres services existants.58 » Ce résumé de la position d’O’Reilly peut-il permettre d’expliquer notre démarche ? Cette définition (synthétique) ne traite pas directement de l’impact au niveau macro. Une définition doit être la plus large possible et intégrer ces questions l’orienterait vers des considérations qui lui feraient perdre une partie de son caractère synthétique. Mais, en faisant référence aux capacités de gestion de l’information, nous renvoyons explicitement au glissement de la prérogative politique, de même que la production ou le partage des contenus posent des questions sur les dérives possibles dans la gouvernance d’Internet. L’impact politique du Web 2.0 demeure, à notre sens, beaucoup trop sous estimé. Le Web 2.0, dans les possibilités de gestion du paradoxe de la simultanéité qu’il offre, a un impact considérable, mais pas ou peu révélé, aussi bien sur la gouvernance d’Internet que dans le glissement de la prérogative politique. L’impensé participe pleinement à ce glissement puisqu’en empêchant toute interrogation ou justification du concept et des techniques, il favorise bienveillance sociale à son égard. Et les conséquences sur la démocratie de l’impensé sont à prendre avec sérieux : « Paradoxale démocratie donc, qui pour fonctionner doit promouvoir une technologie qui lui permet de satisfaire pleinement à son principe égalitaire (Etat-providence), mais en affectant potentiellement son principe de liberté. L'informatique soutient et déstabilise notre démocratie dans le même mouvement. C'est dire que l'analyse de leurs relations ne peut se réduire à la condamnation ou à la laudation. 59» Cette approche, manichéenne, nous avons tenté de la dépasser. Nous avons voulu rendre compte du rôle du Web 2.0, bien plus important qu’il n’y paraît, et aux conséquences sur le moyen et long terme et sur la possible aliénation de l’homme par la machine, au sens de Gilbert Simondon, qu’Emmanuel Gabellieri résume ainsi: « La plus forte cause d'aliénation dans le monde contemporain réside dans cette méconnaissance de la machine, qui n'est pas une aliénation causée par la machine, mais par la non connaissance de sa nature et de son essence.60 » En définitive, le Web 2.0 apparaît bel et bien comme une opération politique favorisant les acteurs privés, qui, au prétexte qu’ils fournissent aux internautes/usagers/citoyens des moyens de gestion et de publication de contenus, nous empêchent de comprendre le rôle de la technique dans nos démocraties actuelles.

58 Il s’agit de résumer l’article d’O’Reilly de façon synthétique sans le reprendre dans son intégralité. 59 Robert (à paraître), p. 144 60 Gabellieri, 2003, p. 178. L’auteur résume ainsi la thèse développée par G. Siméon en faisant référence à l’ouvrage Du mode d’existence des objets techniques.

Page 22: Les nouvelles technologies web, facteur d’un glissement de ...nzaher710.free.fr/pdf/politique internet.pdf1/23 Institut d'Etudes Politiques d’Aix-en-Provence CHERPA Atelier doctoral

22/23

Références bibliographiques Alfonso Carlos. Gouvernance d’Internet. In Ambrosi A, Peugeot V, Pimienta D (éd.), Enjeux de mots : regards multiculturels sur les sociétés de l’information. Caen : C&F Editions, novembre 2005 [En ligne]. < http://vecam.org/article532.html> (consulté le 15/11/07) Bouchard Julie. La révolution de l’informatique n’a pas eu lieu Une histoire socio-technique du système électrique de tabulation à cartes perforées. Médiation et information, no 12-13, 2000, pp. 167-180 Breton Philippe. L'utopie de la communication, Coll. Essais. Paris : La découverte, 1992 Cardon Dominique. Le design de la visibilité. Un essai de cartographie du web 2.0. Réseaux 2008/6, no 152, pp. 93-137 Cotte Dominique, Després-Lonnet Marie. Le document numérique comme « lego » ou La dialectique peut-elle casser des briques ? Information-Interaction-Intelligence, Volume 4, n°1, 2008, pp. 159-172 Damilaville Loïc. Icann vs Department of Commerce : les coulisses d'une négociation. Journal du net, 20/12/2002 Dumout Estelle. La Chine intègre des idéogrammes dans ses noms de domaine. ZdNet, 02/03/2006 [En ligne]. <http://www.zdnet.fr/actualites/internet/0,39020774,39315781,00.htm> (consulté le 09/11/07) Flament Claude. Structure, dynamique et transformation des représentations sociales. In Abric J.C. (dir.), Pratiques sociales et représentations. Paris : Presses Universitaires de France, 1994 pp. 37-58 Groupe de travail sur la gouvernance de l’Internet. Rapport du Groupe de travail sur la gouvernance de l’Internet, Document WSIS-II/PC-3/DOC/5-F, 01/08/05 [En ligne]. <http://www.itu.int/wsis/docs2/pc3/html/off5b/index-fr.html> (consulté le 08/02/08) ICANN. Plan stratégique de l’ICANN 2008-2011, 2008 [En ligne]. <http://www.icann.org/en/strategic-plan/strategic-plan-2008-2011-french.pdf> (consulté le 15/07/08) Mattelart Armand. La globalisation de la surveillance : aux origines de l'ordre sécuritaire. Paris : La Découverte, Coll : Cahiers libres, 2007 Mongeau Pierre, Saint Charles Johanne. Communication – Horizons de pratiques et de recherches. Québec : Presses de l’Université du Québec, 2005 Nazaret Arthur. Edvige : un fichier de plus, un fichier de trop ? Rue89, 24 Juillet 2008, [En ligne]. <http://www.rue89.com/2008/07/24/edvige-un-fichier-de-plus-un-fichier-de-trop> (consulté le 25/07/08)

Page 23: Les nouvelles technologies web, facteur d’un glissement de ...nzaher710.free.fr/pdf/politique internet.pdf1/23 Institut d'Etudes Politiques d’Aix-en-Provence CHERPA Atelier doctoral

23/23

Negura Lilian. L’analyse de contenu dans l’étude des représentations sociales. In SociologieS - Théories et recherches, 2006 [En ligne]. <http://sociologies.revues.org/index993.html> (consulté le 27/06/08) Olivennes Denis. Le développement et la protection des œuvres culturelles sur les nouveaux réseaux, 23/11/2007, [En ligne]. <http://www.culture.gouv.fr/culture/actualites/conferen/albanel/rapportolivennes231107.pdf> (consulté le 29/03/08) O’Reilly Tim. What is web 2.0 ? Design Patterns and Business Models for the Next Generation of Software. In O’Reilly, publié le 30/09/05 [En ligne]. <http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html> (consulté le 27/06/07) Rebillard Franck. Le web 2.0 en perspective. Paris : L’Harmattan, 2007 Robert Pascal. L’impensé informatique, au miroir du quotidien Le Monde (1972-1980). Thèse en sociologie des techniques, sous la direction de P. Breton, Université Paris-I-Panthéon-Sorbonne, 1994 Robert, Pascal. Le paradoxe de la simultanéité, hypothèse sur le cadre d’interprétation de l’histoire des technologies de l’information et de la communication (XIXe- XXe siècle). Médiaspouvoirs No 42, 1996, pp. 195-204 Robert Pascal. Le modèle CRITIC : contribution à l’élaboration d’une théorie macro-sociétale critique de l’informatique en sciences de l’information et de la communication. Mémoire d’habilitation à diriger des recherches, Université Paris 4 Sorbonne, 2004 Robert Pascal. Entre critique et modélisation, pour une « nouvelle posture critique » face à l’informatisation. In Actes du 13° colloque de CREIS/Terminal Société de l’information, Société du contrôle ? Evolutions de la critique de l’informatisation, 2004 [En ligne]. <http://www.creis.sgdg.org/colloques%20creis/2004/Robert.htm> (consulté le 06/03/08) Robert Pascal. La logique politique des technologies de l’information et de la communication. Bordeaux : Presses universitaires de Bordeaux, 2005 Robert Pascal. L’impensé informatique : Critique du mode d’existence idéologique de l’informatique. [A paraître] Siméon Jean-Pierre. A propos de « Débat » sur la technique. Revue du MAUSS, Acte I. Enjeux politiques et écologiques de l'idée de nature, no 17 2001/1, pp. 153-157 Simondon Gilbert. Du mode d’existence des objets techniques. Paris : Aubier, 1958 (1989)