31
Communication La communication est l'action de communiquer, d'établir une relation avec autrui, de transmettre quelque chose à quelqu'un. Elle peut aussi désigner l'ensemble des moyens et techniques permettant la diffusion d'un message auprès d'une audience plus ou moins vaste et hétérogène ou l'action pour quelqu'un ou une organisation d'informer et de promouvoir son activité auprès d'autrui, d'entretenir son image, par tout procédé médiatique. Elle concerne aussi bien l'être humain (communication interpersonnelle, groupale…), l'animal, la plante (communication intra- ou inter- espèces) ou la machine (télécommunications, nouvelles technologies…), ainsi que leurs hybrides : homme-animal; hommes-technologies… C'est en fait, une science partagée par plusieurs disciplines qui ne répond pas à une définition unique. Comme le constate Daniel Bougnoux « Nulle part ni pour personne n'existe LA communication. Ce terme recouvre trop de pratiques, nécessairement disparates, indéfiniment ouvertes et non dénombrables 1 Et si tout le monde s'accorde pour la définir à minima comme un processus, les points de vue divergent lorsqu'il s'agit de la qualifier. 1. Les « Sciences de l'information et de la communication », proposent une approche de la communication centrée sur la transmission d'informations. Dans ce cadre, la communication étudie aussi bien à l'interaction homme-machine que les processus psychiques de transmission de connaissances (avec l'appui des sciences cognitives). 2. La psychosociologie s'intéresse essentiellement à la communication interpersonnelle (duelle, triadique ou groupale). La communication - vue comme un système complexe- concerne tout ce qui se passe lorsque des individus entrent en interaction. Les processus cognitifs, affectifs et inconscients sont pris en compte. Dans cette optique, les informations transmises sont toujours multiples, que la transmission d'informations n'est qu'une partie du processus de communication et que différents niveaux de sens circulent simultanément. 3. La psychanalyse traite de la communication intra-psychique. Sommaire [masquer ] 1 Étymologie 2 Principaux Domaines de la communication o 2.1 La Communication inter-personnelle o 2.2 La Communication de groupe o 2.3 La Communication de masse 3 Concept de communication o 3.1 Un besoin d'identité o 3.2 Un besoin de souveraineté

Communication

Embed Size (px)

Citation preview

CommunicationLa communication est l'action de communiquer, d'établir une relation avec autrui, de transmettre

quelque chose à quelqu'un. Elle peut aussi désigner l'ensemble des moyens et techniques permettant

la diffusion d'un message auprès d'une audience plus ou moins vaste et hétérogène ou l'action pour

quelqu'un ou une organisation d'informer et de promouvoir son activité auprès d'autrui, d'entretenir

son image, par tout procédé médiatique.

Elle concerne aussi bien l'être humain (communication interpersonnelle, groupale…), l'animal, la

plante (communication intra- ou inter- espèces) ou la machine (télécommunications, nouvelles

technologies…), ainsi que leurs hybrides : homme-animal; hommes-technologies… C'est en fait, une

science partagée par plusieurs disciplines qui ne répond pas à une définition unique. Comme le

constate Daniel Bougnoux « Nulle part ni pour personne n'existe LA communication. Ce terme

recouvre trop de pratiques, nécessairement disparates, indéfiniment ouvertes et non dénombrables1. »

Et si tout le monde s'accorde pour la définir à minima comme un processus, les points de vue

divergent lorsqu'il s'agit de la qualifier.

1. Les « Sciences de l'information et de la communication », proposent une approche de la

communication centrée sur la transmission d'informations. Dans ce cadre, la communication

étudie aussi bien à l'interaction homme-machine que les processus psychiques de

transmission de connaissances (avec l'appui des sciences cognitives).

2. La psychosociologie s'intéresse essentiellement à la communication interpersonnelle (duelle,

triadique ou groupale). La communication -vue comme un système complexe- concerne tout

ce qui se passe lorsque des individus entrent en interaction. Les processus cognitifs, affectifs

et inconscients sont pris en compte. Dans cette optique, les informations transmises sont

toujours multiples, que la transmission d'informations n'est qu'une partie du processus de

communication et que différents niveaux de sens circulent simultanément.

3. La psychanalyse traite de la communication intra-psychique.

Sommaire

  [masquer] 

1   Étymologie

2   Principaux Domaines de la communication

o 2.1   La Communication inter-personnelle

o 2.2   La Communication de groupe

o 2.3   La Communication de masse

3   Concept de communication

o 3.1   Un besoin d'identité

o 3.2   Un besoin de souveraineté

o 3.3   Une dynamique des territoires

o 3.4   Le besoin d'une langue

o 3.5   Une mise en réseau avec les outils de télécommunication

o 3.6   Un message à transmettre

4   Les sciences de l'information et de la communication

o 4.1   La distinction entre l'information et la communication

o 4.2   La distinction entre communication verbale et communication non verbale

o 4.3   Les contextes de communication

4.3.1   Les réseaux

4.3.2   La temporalité

4.3.3   La localisation

4.3.4   Le code

4.3.5   La transmission

4.3.6   Le protocole de communication

4.3.7   La rétroaction

5   Modèles de communication

o 5.1   Modèle de Shannon et Weaver

o 5.2   Modèle de Lasswell

o 5.3   Modèle de Jakobson

o 5.4   Modèle de Gerbner

o 5.5   Modèle de Newcomb

o 5.6   Modèle de Matilda et John Riley

6   Notes et références

7   Voir aussi

o 7.1   Outil de recherche

o 7.2   Articles connexes

o 7.3   Bibliographie

Étymologie[modifier]

En français (Oresme en 13612), le terme signifie d'abord «mettre en commun», puis «être en relation

avec». Communication provient de la même racine latine qui a donné «commun» (communis),

« communiquer» (communicare, au sens d'être en relation avec, s'associer, partager ), et

« communication » communicatio (le fait d'être en relation avec).

Principaux Domaines de la communication[modifier]

Entre humains, la pratique de la communication est indissociable de la vie en société. La science de la

communication - en tant qu'étude de cette pratique - englobe un champ très vaste que l'on peut diviser

en plusieurs niveaux :

La Communication inter-personnelle[modifier]

Article détaillé : Communication interpersonnelle.

Communication du type émetteur - message - receveur

Cette forme de communication n'a été formalisée qu'aux cours des deux derniers siècles.

La communication interpersonnelle est fondée sur l'échange de personne à personne, chacune étant

à tour de rôle l'émetteur et/ou le récepteur dans une relation de face à face : la rétroaction est censée

être facilitée sinon quasi-systématique.

On dit parfois que la communication est « holistique », c'est-à-dire qu'elle fait intervenir le tout de

l'homme (communication verbale et non verbale), ainsi que l'environnement (possibilité d'interférences

environnementales dans la communication).

Pour l'école de Palo Alto, la communication est fondamentale et essentielle pour l'homme : « on ne

peut pas ne pas communiquer ». Que l'on se taise ou que l'on parle, tout est communication. Nos

gestes, notre posture, nos mimiques, notre façon d'être, notre façon de dire, notre façon de ne pas

dire, toutes ces choses « parlent » à notre récepteur.

La communication est aussi une forme de manipulation. Quand bien même notre intention première

voire délibérée n'est pas de manipuler, nous communiquons souvent dans l'intention d'influencer ou

de modifier l'environnement ou le comportement d'autrui.

La Communication de groupe[modifier]

La communication de groupe part de plus d'un émetteur s'adressant à une catégorie d'individus bien

définis, par un message (communication) ciblé sur leur compréhension et leur culture propre.

C'est celle qui est apparue avec les formes modernes de culture, souvent axées sur la culture de

masse (société de consommation), dont la publicité ciblée est la plus récente et la plus manifeste.

Les effets de la communication de groupe se situent entre ceux de la communication interpersonnelle

et ceux de la communication de masse.

La communication de groupe est aussi complexe et multiple car elle est liée à la taille du groupe, la

fonction du groupe et la personnalité des membres qui le compose.

On peut également intégrer cette notion dans la communication interne à une entité. Les groupes

peuvent alors être des catégories de personnels, des individus au sein d'un même service, etc.

On peut aussi intégrer cette notion à une communication externe ciblée vers certains partenaires

ou parties prenantes de l'entité.

La Communication de masse[modifier]

Article détaillé : Communication de masse.

Dans la communication de masse, un émetteur (communication) (ou un ensemble d'émetteurs liés

entre eux) s'adresse à un ensemble de récepteur (communication) disponibles plus ou moins bien

ciblés. Là, la compréhension est considérée comme la moins bonne, car le bruit est fort, mais les

récepteurs bien plus nombreux. Elle dispose rarement d'une rétroaction, ou alors très lente (on a vu

des campagnes jugées agaçantes par des consommateurs, couches pour bébé par exemple,

conduire à des baisses de ventes du produit vanté).

Ce type de communication émerge avec :

la « massification » des sociétés : production, consommation, distribution dites « de masse »,

la hausse du pouvoir d'achat,

la généralisation de la vente en libre-service,

l'intrusion entre le producteur et le consommateur de professionnels et d'enseignes de

distribution,

les médias de masse ou « MassMedia » dont la radio et la télévision. L'absence de réponse

possible en fait un outil idéal de la Propagande, ce que souligne à plusieurs reprises Georges

Bernanos.

Aujourd'hui, les NTIC et en particulier Internet abaissent à un niveau sans précédent le coût de

communication et au surplus rendent la rétroaction possible.

En France, l'État lie significativement Culture et Communication en les confiant à un même ministère.

« Psychologie des foules » (1895) du psychopathologue Gustave Le Bon est un ouvrage considéré

comme fondateur de la notion de « masse », bien qu'il soit contestable sur son contenu et son

objectivité. « La persuasion clandestine », ouvrage de Vance Packard, montre à ce sujet que la

science de la manipulation était déjà bien avancée en 1957. Retour au meilleur des mondes d'Aldous

Huxleyva dans le même sens.

Concept de communication[modifier]

Un besoin d'identité[modifier]

L'image que nous donnons doit être confirmée par autrui. Le fait que le rôle, le statut et la place des

acteurs soient bien identifiés permet aux interlocuteurs de se reconnaître dans une position sociale,

d'éviter les malentendus, les conflits, et d'assurer la crédibilité. L'identité situationnelle du locuteur est

repérable dans l'énonciation.

Pour une entreprise, l'image de marque correspond à l'identité de l'entreprise perçue par ses parties

prenantes. Toute atteinte à l'image de marque est un risque de réputation, préjudiciable à la bonne

marche de l'entreprise, à sa crédibilité et à la confiance que lui accordent ses clients.

Un besoin de souveraineté[modifier]

Une communication habile peut faciliter les processus d'influence, légaux ou non. Le phénomène de

développement des ONG dans le contexte de mondialisation est révélateur à cet égard.

La souveraineté et l'indépendance des États peut être menacée par la prolifération de messages non

contrôlés en source ouverte.

La communication est une composante essentielle de la diplomatie et de l'exercice de

la souveraineté d'un État. Lorsqu'un chef d'État ou un représentant d'un gouvernement s'exprime lors

d'une réunion internationale, d'un sommet de la Terre, d'une conférence internationale sur un sujet

d'intérêt mondial (commerce international, gestion de l'eau, santé, biodiversité), la communication est

essentielle sur le plan de la perception de l'autorité.

L'utilisation du français ou de l'anglais est notamment un enjeu quotidien au sein de la

relation Québec-Canada.

De plus, il est souvent reconnu que l'influence culturelle et économique d'un pays se perçoit par

l'influence et l'utilisation de sa langue. On notera donc l'influence forte de l'anglais et

du chinois actuellement. Mais au temps de Louis XIV, la langue de la diplomatie et de la noblesse était

le français.

Une dynamique des territoires[modifier]

L'espace physique et psychique (intime) doit être protégé. Dans toute organisation, chacun défend

son espace et évite les intrusions injustifiées.

Dans la vie économique territoriale, pour l'organisation de pôles de compétence par exemple, la

communication s'établit entre des organisations très différentes : services déconcentrés des États en

régions (Länder…), conseils régionaux, directions régionales de groupes industriels, petites et

moyennes entreprises, chambres de commerce et d'industrie, universités et grandes écoles, centre

d'études et de recherches.

Afin de se comprendre avec toutes les précisions du langage, il est souvent préférable, au niveau

régional ou local en tous cas, d'utiliser la langue maternelle, quitte à employer une langue

véhiculaire lors des séjours internationaux.

Le besoin d'une langue[modifier]

On a vu au cours de l'Histoire, l'importance que prit la langue dans la communication. Les traductions

en plusieurs langues vernaculaires du Livre des merveilles du monde de Jean de Mandeville eurent

un impact considérable au XV e  et au X e   siècle  sur les explorateurs (notamment Christophe Colomb),

peut-être davantage que le Devisement du monde qui relatait les voyages de Marco Polo. L'édit de

Villers-Cotterêts (François   I er , 1539) permit au souverain de diffuser les

actes administratifs et juridiques dans une nouvelle langue officielle de communication.

On a vu aussi l'impact considérable qu'eurent, au XVII e   siècle , certaines œuvres écrites en français,

dans des domaines qui restaient encore réservés au latin : l'Utopia de Thomas More, le Discours de

la méthode de Descartes (1637), les Provinciales de Pascal (1656). Au XVIII e  et XIX e   siècles , la Bible

de Sacy eut un impact considérable sur la littérature. Au XVIII e   siècle , les cours européennes

communiquaient en français.

L'anglais aujourd'hui est largement employé pour la communication dans de nombreux domaines

(informatique, affaires, sciences essentiellement). Les langues ont des statuts de communication très

différents : les six langues officielles des Nations unies sont l'anglais, l'espagnol, le français, le russe,

l'arabe et le chinois.

Néanmoins, les langues maternelles restent les langues de communication localement, en particulier

en Europe, qui a défini une politique sur ce point.

Les langues ne sont pas forcément parlées. Elles peuvent aussi être gestuelles. La Langue des

signes française permet par exemple de communiquer entre et avec les malentendants et les non-

entendant. C'est une langue à part entière, et qui connaît sa propre évolution. Au Québec il s'agit de

la langue des signes québécoise.

Se référer à la Langue des signes, au Braille et la Convention relative aux droits des personnes

handicapées (article 2).

Une mise en réseau avec les outils de télécommunication[modifier]

La communication est le passage obligé pour entrer en relation avec autrui.

À ce stade, il faut noter l'importance des moyens de télécommunication basés sur

des techniques optiques, électriques et électroniques.

Au fur et à mesure de l'apparition de ce dernier type de médias depuis le XIX e   siècle , et à l'exception

du télégraphe électrique (à partir de1838) et du téléphone (réseau élémentaire émetteur-récepteur),

les médias fondés sur les techniques électroniques (radiodiffusion,télévision), employés depuis

la Seconde Guerre mondiale, n'offraient pas de possibilités de rétroaction importantes.

Avec les dernières générations d'outils de télécommunications électroniques, la rétroaction devient

plus aisée, et les messages se sont beaucoup enrichis (documents, images). Les messageries

électroniques, l'internet… permettent d'atteindre des groupes de personnes, et de faire une

véritable communication de groupe.

Un message à transmettre[modifier]

Les aspects techniques de la communication doivent cacher l'essentiel : la communication a pour

objectif de faire passer un message.

L'avènement de l'internet depuis les années 1960 a suscité diverses études de la part

de philosophes et de sociologues. Parmi ces études, on retiendra celles de Pierre Musso et

de Philippe Breton, qui, sous des arguments un peu différents, portent le même diagnostic : la

communication a tendance à être instrumentalisée par les outils de télécommunication et

les technologies de l'information. L'idée est qu'il existe une croyance selon laquelle on communique

bien parce que l'on dispose de moyens techniques sophistiqués (dernière version du logiciel, mobile,

…). Pierre Musso note que cette croyance serait fondée sur la philosophie des réseaux, sorte de

pseudo-"religion" qui serait la résurgence de la philosophie de Saint-Simon (voir Claude Henri de

Rouvroy, comte de Saint-Simon), fondée sur le principe de gravitation universelle.

En réalité, sur le fond, la communication cherche bien à répondre à l'un des objectifs suivants :

faire passer une information, une connaissance, ou une émotion ;

créer une norme commune pour se comprendre ;

créer une relation pour dialoguer fréquemment, ou relancer le dialogue ;

obtenir une influence pour inciter l'autre à agir selon sa volonté ;

donner son identité, sa personnalité au tiers, pour être connu.

On parle alors d'enjeux de la communication. Ces enjeux sont liés aux différentes fonctions

du message (voir les concepts de Roman Jakobson).

On voit qu'une communication trop axée sur des moyens techniques peut faire oublier

les risques inhérents à la communication.

Les sciences de l'information et de la communication[modifier]

Article détaillé : Sciences de l'information et de la communication.

Concernant la communication en tant que science, certaines notions ont été dégagées par les

différents modèles de communication explicités plus bas.

Durant les années 1980, S.H. Chaffee et C.R. Berger proposèrent une définition généraliste qui reste

de nos jours une base connue des sciences de la communication : "La science de la communication

cherche à comprendre la production, le traitement et les effets des symboles et des systèmes de

signes par des théories analysables, contenant des généralisations légitimes permettant d'expliquer

les phénomènes associés à la production, aux traitements et aux effets." (traduit de l'anglais)

La distinction entre l'information et la communication[modifier]

Pour le chercheur Dominique Wolton, spécialiste de la communication3, la "croissance de l'information

et sa multiplication, comme l'hétérogénéité des récepteurs rendent finalement visible cette dissociation

entre information et communication". Pendant des siècles la rareté de l'information, et la difficulté de

sa transmission étaient telles "que l'on croyait de bonne foi que l'information créait de la

communication", explique-t-il. Inversement, dans un message reliant deux êtres humains, l'information

n'est qu'une toute petite partie de la communication, d'où la fréquence des malentendus4, selon Irène

Lautier, directrice de la Faculté des Sciences du sport de l'Université Lille II.

Finalement, malgré son développement, "non seulement la communication ne rapproche pas

forcément des points de vue, mais elle peut même amplifier l'incommunication", observe Dominique

Wolton, selon qui le mot "information" fut "d'abord lié à une revendication politique : la liberté

d'information comme condition de la démocratie et le complément de la liberté de conscience" puis "le

symbole de la presse" et du "droit de savoir ce qu'il se passe", avant d'être repris dans l'informatique,

pour parler de "système d'information"5 d'une entreprise. Le développement d'Internet a encore

modifié la donne, avec l'explosion des communications sous forme de blogs et de mailing, où la part

d'information vérifiée et codifiée fut dès le départ très modeste et beaucoup plus faible que dans les

"systèmes d'information" des entreprises.

Cette masse croissance de communication a suscité une demande de journalisme plus indépendant,

capable de la trier, recouper, hiérarchiser, pour transformer de simples émetteurs de message

en sources d'information, en allant jusqu'à assurer la protection de l'anonymat quand c'est nécessaire,

afin de rétablir une relative hiérarchie entre les différents émetteurs de message, basée plus sur la

compétence et la fiabilité que sur la puissance et la motivation. La protection des sources

d'information des journalistes permet par ailleurs de vérifier auprès des institutions et entreprises que

la communication affichée à l'extérieur par le porte-parole officiel correspond bien à la réalité vécue à

l'intérieur.

La distinction entre communication verbale et communication non verbale[modifier]

Une communication verbale est faite de signes linguistiques.

Ces signes confèrent un corpus appelé langue, ou plus généralement langage, mais les linguistes

viennent à distinguer langue et langage.

L'écriture, la langue des signes, la voix sont des médias, des moyens de communiquer. L'art de

conceptualiser ce message dans un langage afin de minimiser les interférences est appelé

la rhétorique. Aristote et Cicéron étaient des théoriciens de rhétorique, qui devint l'un des sept arts

libéraux dans le haut Moyen Âge.

Est dite « non verbale » une communication basée sur la compréhension implicite de signes non

exprimés par un langage : l'art, la musique, la kinesthésie, les couleurs, voire les vêtements ou

les odeurs. Ces signes, leur assemblage et leur compréhension ou leur interprétation sont dans leur

grande majorité dépendants de la culture. La communication non verbale peut ainsi être ambiguë

(Adler, 2013). Par exemple, un clin d'oeil peut être interprété différemment d'un individu à l'autre. Pour

certains, il pourra s'agir d'un signe de remerciement, alors que pour d'autres, il pourra s'agir d'un

manque d'assurance.

Mais on définit en premier lieu la communication non verbale à travers le corps, la posture, les gestes

ou encore les différentes expressions du visage.

Cette distinction verbale / non verbale n'est pas toujours aisée à faire.

Le mot verbal peut également être compris comme exprimé de vive voix (Petit Larousse). On parlera

alors de communication orale, par opposition à la communication écrite. Mais la communication n'est

pas qu'orale. Elle est aussi non verbale (voir plus bas).

La communication passe donc aussi par le corps. Ainsi elle sera non verbale ou plutôt non verbalisée.

La communication non verbale peut être para-verbale, c'est-à-dire qui accompagne la vocalisation.

Ainsi lorsque le locuteur explique qu'il faut aller à droite et qu'il bouge sa main dans cette direction,

c'est un cas de communication para verbale. Croiser les bras dans un signe de protection est aussi

une communication non verbale. Mais ici ce sera pour dire que : « je me retranche derrière mes idées

laissez-moi tranquille ». Mimiques et posture font partie de la communication. Ce qui fait dire à Alain

Astouric dans, Réussir vos interventions de formation, Chronique Sociale,

2007 http://astouric.icioula.org/ que la non-communication n’existe pas. Par exemple, dans un groupe,

une personne qui se tait longtemps communique un message. Reste à savoir lequel : timidité, fatigue,

indifférence, bouderie, contrariété …  ?

Des gestes risquent de faire passer un message comme plus fort, plus prononcé que ce que l'on dit.

Le ton d'un message est aussi une forme de non-verbal. C'est cette base, le non-verbal, qui définit par

exemple ce qu'on appelle le jeu d'un acteur, au théâtre.

Les contextes de communication[modifier]

Une communication est gravée dans un contexte. Elle peut avoir lieu à un instant donné, dans un lieu

donné, et vis-à-vis d'une situation, d'un évènement donné.

Tout cet environnement, qui ne fait pas partie de la communication à proprement parler, mais qui

accompagne cette communication, est appelé contexte. L'environnement peut générer du bruit, ou

être source d'interférences.

La philosophie du langage s'intéresse au contexte, et la linguistique précise le contexte d'une phrase :

voir contexte (linguistique).

Le contexte intervient dans les enjeux cités plus haut : culture, changement

de médias, langue, souveraineté, identité, dynamisme des territoires, mise en réseau.

Les réseaux[modifier]

On nomme réseau un ensemble d'acteurs, d'agents économiques, de nœuds, ou lieux de

communication grâce auxquels les messages circulent. L'information se concentre et se redistribue

ainsi.

Réseaux sociaux

Ce sont les réseaux d'anciens élèves de grandes écoles, d'universités, d'associations, d'ONG,

de centres de recherche, d'organismes publics ou simplement d'individus possédant des intérêts

communs. Voir dans le cas d'entreprises : Entreprise étendue.

Sur le plan technique

Des réseaux de transport (routes, canaux, chemins de fer), des réseaux de télécommunications

et informatiques (télégraphe, téléphonie, web) se sont développés considérablement depuis deux

siècles.

Voir aussi sur ce sujet : télécommunications, sémaphore, télégraphie, téléphonie.

Interactions informelles

On découvrit dans les années 1960 que la généralisation des ascenseurs automatiques, qui

supprimait les garçons d'ascenseur, supprimait un nœud important de communication informelle entre

les étages d'une entreprise (car le garçon d'ascenseur connaissait tout le monde et tout le monde lui

parlait). Ce rôle a été partiellement remplacé par les coins café considérés aujourd'hui comme

indispensables dans les bureaux, et lieux d'échanges informels souvent importants.

La temporalité[modifier]

Une communication qui peut durer dans le temps (le message n'est pas supprimé au moment où il est

envoyé) est dite « intemporelle ». Par exemple, un message rédigé dans un livre est intemporel. Cette

notion est liée au contact entre les entités qui communiquent. Un message éphémère, lui, est dit

« temporel ». Par exemple, une discussion orale est éphémère, temporelle. La communication est

notamment enseignée dans les écoles d'ingénieurs.

La localisation[modifier]

Dans l'espace, une communication peut être :

localisée (concentrée à un endroit), telle une discussion ;

alocalisée (disponible de n'importe quel endroit) - par exemple internet, extranet ;

délocalisée (le lieu d'émission est loin du lieu de réception), c'est le cas d'une discussion

téléphonique.

Cette notion est liée à l'expression du contact entre les entités qui communiquent.

Le code[modifier]

Le code (information) est un concept souvent mis en avant dans la vision mécaniste de la

communication. Il est pourtant rarement adéquat, ne s'appliquant bien qu'aux seules

situations hiérarchiques et autoritaires : interface homme-machine, relations homme-animal, etc. Par

extension et d'une manière pessimiste, la notion de code est souvent employée pour l'étude

des relations humaines.

Dans ce cadre simplifié, pour communiquer, l'émetteur et le récepteur doivent disposer

d'un code commun. La communication se caractérise alors surtout par l'utilisation d'un code

établissant les correspondances entre un signe et son sens qui doit être commun aux interlocuteurs.

L'absence de code commun entre émetteur et récepteur est l'une des sources d'échecs de la

communication, chacun pouvant supposer que l'autre comprend son code, sans que ce soit le cas :

Un chef de projet américain est choqué de voir son équipe française exiger du matériel pour son

travail. Elucidation faite, cette équipe ne voulait que demander ce matériel (or to

demand signifie exiger).

Le même s'étonne de voir, après avoir stigmatisé le peu de temps dont on dispose pour un petit

projet, de voir des membres européens se demander pourquoi au contraire on dispose d'une telle

marge. Elucidation : quand il écrivait sur son tableau 6/6 pour la date de début et 6/12 pour la

date de fin, il pensait pour cette dernière au 12 juin et l'équipe européenne a compris 6

décembre !

Un collègue japonais désirant montrer le grand respect qu'il éprouve pour la famille d'un collègue

européen l'invitant à dîner apporte à la maîtresse de maison une fleur considérée comme l'une

des plus belles au Japon : un chrysanthème. Gêne garantie chez celle-ci, pour qui cette fleur est

symbole de cimetière.

Dans tous ces exemples, la notion de code explique l'incompréhension entre les êtres humains; mais

la notion n'explique pas pour autant la compréhension. Or les situations sont courantes où le défaut

de code n'apporte pas de catastrophe, au contraire: relations sourd-entendant, relations aveugle-

voyant, relations entre étrangers sans mots communs, etc. Entre humains, on peut toujours essayer

de se faire comprendre; essayez donc de vous "faire comprendre" d'un ordinateur qui détecte une

faute de syntaxe dans l'ordre envoyé. Non, décidément, le code est une notion trop évidente pour être

utilisée sans pincettes.

La transmission[modifier]

La communication consiste à transmettre un message afin d'établir un contact. L'établissement du

contact comporte certains risques, notamment lors de "l'ouverture" et "fermeture" de la

communication. Les risques d'intrusion, de non réponse, de blocage et d'abandon existent réellement.

Ce point fait l'objet de la confidentialité en sécurité de l'information, on l'appelle le message.

Le protocole de communication[modifier]

On désigne sous ce terme tout ce qui rend la communication possible ou plus aisée sans rapport avec

le contenu de la communication elle-même.

Attendre une tonalité pour numéroter, demander à l'interlocuteur de se répéter, épeler son nom,

s'entendre tacitement sur le moment où une communication sera considérée comme terminée font

partie des protocoles.

La mise en œuvre d'un protocole demande la définition de normes élaborées.

Voir aussi :

Diplomatie ,

Norme ,

Internet .

La rétroaction[modifier]

Le message de Rétroaction (ou Feedback en anglais), est le message, verbal ou non, renvoyé sous

forme de réaction par le récepteur, à l'émetteur. La possibilité d'obtenir et de traiter une telle réponse

ouvre la voie à la communication bidirectionnelle. Selon les cas, le feed-back consiste à confirmer ou

infirmer la réception du message, demander des précisions, relancer ou terminer la discussion.

La notion de rétroaction (feed-back) est issue des travaux de Norbert Wiener dans les années 1950

sur la cybernétique 6. Elle correspond au saut technologique du passage de la mécanographie à

l'informatique, et à l'apparition des premiers ordinateurs basés sur des technologies électroniques.

Cette notion montre qu'il existe à côté de la vision linéaire (unidirectionnelle) de la communication la

possibilité et l'intérêt de créer et d'entretenir un processus circulaire (bidirectionnelle) avec trois formes

de Feed-Back :

Le Feed-back positif, qui conduit à accentuer un phénomène, avec un effet possible de boule de

neige (hausse de la tension entre les communicants, énervement croissant entre deux

personnes).

Le Feed-back négatif peut être considéré comme un phénomène de régulation, qui en

amoindrissant la communication, l'équilibre et la stabilise grâce à la reformulation ou au

questionnement.

L'absence de Feed-back (réponse néant) révèle une « panne » de communication. Non

seulement aucune information n'est renvoyée, mais on ne sait même pas si le message émis a

été reçu ou pas.

La boucle de rétroaction a conduit à définir des modèles théoriques et systémiques de système

d'information (niveaux opérationnel, organisationnel, décisionnel).

Modèles de communication[modifier]

De nombreux théoriciens de la communication ont cherché à conceptualiser « le processus de

communication ». La liste présentée ci-après ne peut prétendre être exhaustive, tant les modèles sont

nombreux et complémentaires. L'objectif est de fournir un aperçu de l'évolution générale en explicitant

les modèles les plus connus ainsi que leurs apports.

Modèle de Shannon et Weaver[modifier]

Article détaillé : Claude Shannon.

Modèle de Shannon et Weaver

Le modèle de Claude Shannon et Weaver 7  désigne un modèle linéaire simple de la communication :

cette dernière y est réduite à sa plus simple expression, la transmission d'un message. On peut

résumer ce modèle en :

« Un émetteur, grâce à un codage, envoie un message à un récepteur qui effectue

ledécodage dans un contexte perturbé de bruit. »

Apparu dans Théorie mathématique de la communication (1948), ce schéma sert à deux

mathématiciens Claude Shannon (père entre autres de nombreux

concepts informatiquesmodernes) et Warren Weaver (scientifique versé tant dans la vulgarisation

que la direction de grands instituts), à illustrer le travail de mesure de l'information entrepris

pendant la Seconde Guerre mondiale par Claude Shannon (ce dernier a été embauché par

Weaver à l'Office of Scientific Research and Development pour découvrir, dans le code ennemi,

les partieschiffrées du signal au milieu du brouillage). À l'origine, les recherches de Shannon ne

concernent pas la communication, mais bien lerenseignement militaire. C'est Weaver qui a

"traduit" la notion de brouillage par celle de "bruit", la notion de signal par "message", la notion de

codeur par "émetteur", la notion de décodeur par "récepteur"… Jusqu'à la fin de sa vie, Claude

Shannon se défendra contre la reprise du soi-disant modèle pour autre chose que des

considérations mathématiques.

Le modèle dit de Shannon et Weaver n'a en effet de prétention qu'illustrative. Mais il a souvent

été pris au pied de la lettre, révélant alors la forte influence béhavioriste du modèle de Pavlov

(stimulus-réponse).

Ce modèle, malgré son immense popularité (on le trouve cité souvent comme «  le modèle

canonique de la communication »[réf. souhaitée]), ne s'applique pas à toutes les situations de

communication et présente de très nombreux défauts :

et s'il y a plusieurs récepteurs ?

et si le message prend du temps pour leur parvenir ?

et si la réalité décrite n'existe pas ailleurs que chez le premier locuteur ?

et s'il y a plusieurs messages (au besoin contradictoires) qui sont prononcés en même temps?

et s'il y a un lapsus ?

et si sont mis en jeu des moyens de séduction, de menace ou de coercition ?

et si le message comporte des symboles nouveaux ou des jeux de mots ?

En sus de sa linéarité, le modèle de Shannon et Weaver considère que le récepteur est passif :

toutes les recherches en Sciences de l'information et de la communication montrent que cela est

simpliste, ou faux.

Modèle de Lasswell[modifier]

Article détaillé : Harold Dwight Lasswell.

Harold Dwight Lasswell, politologue et psychiatre américain, s'est fait un nom en modélisant

la communication de masse à travers les questions : « Qui, dit quoi, par quel canal, à qui et avec

quel effet ? ». Questions reprises de la méthode que Quintilien, pédagogue latin du I° siècle,

enseignait à ses apprentis rhéteurs.

Qui parle ? :correspond à l'étude sociologique du ou des milieux et

organismes émetteurs

Pour dire quoi ? :Se rapporte à l'énoncé du contenu du message, à son

analyse

Par

quel média oucanal ? :

description et évaluation des techniques utilisées pour

diffuser l'information à un instant donné vers une cible

donnée

S'adresse à qui ? :vise l'auditoire, ou audience. Soit la définition, la

mesure, la localisation des publics récepteurs

Avec quel effet ? :Il s'agit d'analyser et d'évaluer les influences

qualitatives et quantitatives du message sur l'audience.

Ce modèle conçoit la communication comme étant un processus d'influence et de persuasion,

très proche de la publicité. Ce modèle dépasse la simple transmission du message (même s'il y

reste centré) et envisage notamment les notions d'étapes de communication, la capacité de

pluralité des émetteurs et des récepteurs et de finalité d'une communication (ses enjeux).

Pourtant il est critiquable, sur la même base que les critiques émises contre le modèle de Claude

Shannon et Weaver. En effet il envisage la communication comme une relation d'autorité et de

persuasion. Et il néglige le message de rétroaction, ainsi que les notions de psychologie et

de sociologie de part et d'autre de la relation de communication. Le récepteur est toujours

considéré comme passif, ce qui est encore inexact, car il existe en général interaction entre

l'émetteur et le récepteur, ce qui n'est pas pris en compte dans ce modèle.

L'un de ses ouvrages majeurs - Propaganda Technique in the World War (1927) - fait partie des

ouvrages de référence dans l'usage de la propagande dans la Seconde Guerre mondiale. Sa

vision autoritaire, voire autoritariste de la communication, lui vaut de nombreux ennemis, encore

aujourd'hui.

Ce modèle est à lier par antithèse aux travaux du célèbre Marshall McLuhan (La Galaxie

Gutenberg, 1967) et Régis Debray (Traité de médiologie, 1991)

Modèle de Jakobson[modifier]

Articles détaillés : Roman Jakobson et Schéma de Jakobson.

Cet autre modèle, fondé sur la linguistique, est proposé par Roman Jakobson (1896-1982).

Ce linguiste russe développe un point de vue centré non plus sur la transmission d'un message,

mais sur le message lui-même, évitant ainsi les dangers d'instrumentalisation technique (voir sur

ce point philosophie des réseaux).

Il est composé de six facteurs. À chacun de ces facteurs est lié une fonction du message,

explicitée par Jakobson.

1. Le destinateur, lié à la fonction expressive du message,

2. Le message, lié à la fonction poétique du message,

3. Le destinataire, lié à la fonction conative du message,

4. Le contexte, l'ensemble des conditions (économiques, sociales

et environnementales principalement) extérieures aux messages et qui influence sa

compréhension, lié à la fonction référentielle du message,

5. Le code, symbolisme utilisé pour la transmission du message, lié à la

fonction métalinguistique du message,

6. Le contact, liaison physique, psychologique et sociologique entre émetteur et récepteur,

lié à la fonction phatique du message.

On notera l'apparition ou la réapparition des trois dernières notions (contexte, code, contact) qui

complètent énormément la vision d'ensemble sur ce qu'est une communication.

Certains facteurs peuvent être considérés comme des agents de communication (destinataire)

Sur le contexte, voir l'article perception de l'environnement.

Ces travaux sont à lier à l'impulsion linguistique de Ferdinand de Saussure, conceptuelle de

Shannon et Weaver, et philosophique deJohn L. Austin.

Modèle de Gerbner[modifier]

Article détaillé : George Gerbner.

George Gerbner, sociologue des années 1950, avait l'ambition de formuler un modèle général de

la communication. Il présente en 1956 un modèle beaucoup plus complexe que les précédents.

Son modèle s'articule autour de deux propositions essentielles :

Il lie le message au contexte, ainsi il permet de le renseigner sur la signification dumessage.

Il décrit le processus de communication comme un ensemble à deux dimensions : une

perceptive et une autre dimension pour le contrôle.

Le trait particulier de ce modèle est qu'on peut l'appliquer aux différentes formes de

communication en fonction du contexte. Il convient à un acte de communication

interpersonnelle entre deux personnes mais aussi au processus plus complexe de

lacommunication de masse.

Modèle de Newcomb[modifier]

Theodore M. Newcomb, 1953, présente le modèle ABX triangulaire et devient le premier à

introduire le rôle de communication dans la relation sociale.

Newcomb relève dans les relations sociales deux dimensions. L'attitude, qui est la qualité du lien

affectif, et l'union qui est la spécificité du lien. À travers ces deux grilles d'analyse, il va

s'intéresser à l'équilibre ou le déséquilibre d'une relation sociale. Une relation est dite équilibrée

lorsque les attitudes ont la même orientation. Son hypothèse est que nous sommes tous à la

recherche d'un équilibre dans la situation de communication. S'il n'est pas atteint, nous

souhaiterons alors soit réduire ce déséquilibre, soit rompre la relation . Newcomb s'intéresse donc

à la notion de similarité, à leur possession, leur association ou à leur contraire.

Il nous fait également remarquer que les relations se nouent généralement autour d'un objet

(thème de conversation, une personne, une passion commune…). Il exposera par la suite 8

schémas de relation, dont 4 modèles équilibrés et 4 modèles déséquilibrés.

Le modèle de Newcomb soulève donc des faits essentiels selon quoi toute situation de

communication met en présence des individus caractérisés par des attitudes, des motivations et

que toute situation de communication peut être un moyen de faire évoluer une relation. La

communication est donc ici appréhendée comme un phénomène dynamique et complexe et non

mécanique.

Modèle de Matilda et John Riley[modifier]

Dans ce modèle est considéré en premier lieu l'appartenance des individus humains à des

groupes. L'émetteur rebaptisé communicateur, et le récepteur sont donc distribués dans des

groupes primaires (familles, communauté, petits groupes, …) sociologiques.

Ces groupes influeraient la façon de voir, de penser et de juger de leurs membres. Et ces groupes

évoluent dans un contexte social dont ils dépendent.

Ce modèle de Matilda White Riley et de John White Riley introduit de nouvelles notions,

notamment celle de contexte et d'appartenance à un groupe, liées à la sociologie. De plus ce

modèle est le premier à prendre en compte la notion d'une boucle de rétroaction, entre l'émetteur

et le récepteur. Cela montre qu'il y a réciprocité et inter-influence entre les individus.

Ce modèle est à l'origine des travaux sur la communication de groupe.

Théorie de la communicationDéfinition : La théorie communicative moderne définit les modèles d’enrichissements optimaux entre

un émetteur et un récepteur, en faisant naître au sein des sciences humaines une discipline

d'appropriation du subconscient par le conscient, afin, chez l'humain, de recalibrer la prédation en des

échanges planifiés, réfléchis et fructueux.(1)

L'expression «  théorie de la communication » est parfois employée pour désigner le concept

de théorie de l'information.

La théorie de la communication est apparue dans les années 1945-1950, en même temps que

la théorie de l'information. Elle avait alors pour objectif de formaliser et de modéliser la relation

homme-machine entre les ordinateurs naissants et leurs utilisateurs, en théorisant et en

conceptualisant la communication afin de l'« inculquer » aux ordinateurs.

C'est une base de la cybernétique qui, pour faire ressortir cet élément de communication, utilise le

concept de boîte noire, ce qui permet de le dissocier de l'élément émetteur ou récepteur.

Il y a communication lorsque l'on émet ou que l'on reçoit un message et lorsque l'on donne une

signification au message, aux signaux, ce qui permet de le comprendre. Celle-ci peut-être

déformée par des parasites sonores ou environnementaux, ce qui gêne l'attention et donc la

compréhension. La rétroaction ou feedback est un outil utilisé à des fins de reconnaissance, ce

qui signifie que l'on a compris le message émis. Elle peut être positive ou négative, et renvoie au

fait de comprendre ou non le message. N'a ni de commencement, ni de fin. L'être humain a une

éducation, une psychologie, des codes, des valeurs, un humour qui lui sont propres. La

compréhension du message va être fonction de tous ces éléments.

Il existe quatre facteurs de communication interdisciplinaire : -physique : selon l'endroit dans

lequel on se trouve, on ne communique pas de la même façon -culturel : selon le style de vie, les

croyances et les valeurs -socio-psychologique:relations de statuts des interlocuteurs -temporel :

selon le moment où nous nous exprimons (exemple : enterrement différent d'un mariage). Toute

communication comporte une métacommunication: en fonction du ton de la voix, le message est

différent. Les enjeux de la communication selon Mucchielli : information, positionnement social,

mobilisation (persuasion), relationnel (favorise la prise de contact et les relations)et normatif

(ritualisation, normes éducatives, politesse).

Il existe 4 types de communication: -libre : être à l'écoute de soi, de ses désirs et de ses

instincts -expressive corporelle : être réceptif, prise de recul, régulation des émotions par la

respiration, être à l'écoute de son corps... -réciproque : pour être un bon récepteur il faut être à

l'écoute de l'autre, s'ouvrir à ses besoins, faire preuve de considération et prendre en compte la

réalité de l'autre (faire preuve d'empathie) -efficace : rechercher l'objectivité, l'exactitude, se

rendre intelligible (être clair et compris) et ne pas supposer. Les objectifs de la communication: -

pour créer un lien avec l'autre -persuader : modifier des attitudes et les comportements de l'autre -

découvrir : apprendre sur l'autre et le monde extérieur -jouer : se distraire

La transmission de la communication

L'émetteur est celui qui va coder un message, l'encodage étant l'acte de produire ce message par

la traduction de la pensée et des sentiments. Ce-dernier doit prendre en compte le canal qui est le

support physique du message. Le traitement de l'information se fait par le décodage du message.

Décoder est l'acte de recevoir et d'interpréter le message. Le décodeur ne peut être passif. Les

filtres sont les éléments qui interviennent dans la sélection d'un message. La surcharge cognitive

est un filtre qui intervient après une grande quantité d'informations. Le Knowlegde Gap est la

distance qui existe entre le niveau de culture de l'émetteur et celui du récepteur. La parole perdue

est ce qu'il y a entre le cerveau et l'expression finale de l'information.

La potence et l'éclair

La potence : l'émetteur communique uniquement la conclusion de sa pensée. L'information est

donc inutile car elle n'est pas comprise par le récepteur. Elle fonctionne seulement si l'émetteur

exerce un type d'ascendant hiérarchique, si l'émetteur est au courant des informations qui

viennent avant la conclusion (est au courant du raisonnement) ou si le récepteur acquiesce sans

comprendre. L'éclair: l'émetteur prend la peine de revenir en arrière depuis le début pour que le

récepteur comprenne la conclusion.

La démarche ESPRIT

E : entrée en matière S : situation du problème P : le problème (quel est-il?) R : résolution du

principe I : informations détaillées pour résoudre le problème T : terminaison/conclusion

Les codes de PALO ALTO

Axiomatiques de base de la communication : -on ne peut pas ne pas communiquer -toute

communication comporte deux aspects : le contenu et la relation (la relation englobe de contenu

et devient une métacommunication) -la nature d'une relation dépend de la ponctuation des

séquences de la communication -deux modes de communication: digitale (signes et paroles) et

analogique (gestes et postures) -deux types d'interaction : symétrique (égalité culturelle des

partenaires) et complémentaires (différence de connaissances des partenaires)

Les neuf fonctions essentielles à la compréhension de toutes les formes et de toutes les fonctions

de la communication : -la communication est un ensemble de signaux -la communication est un

processus d'ajustements -la communication comporte un contenu (informations) et des aspects

relationnels (métacommunication) -la communication comporte des transactions de relations

symétriques et complémentaires -les séquences de communication sont ponctuées à des fins

d'interprétation -la communication est un processus transactionnel: tous les éléments de la

communication sont interreliés et toujours en mouvement -la communication est inévitable

Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information

de Shannon, qui est une théorie probabiliste permettant de quantifier le contenu moyen

en information d'un ensemble de messages, dont le codage informatiquesatisfait une distribution

statistique précise. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le

père fondateur avec son article A Mathematical Theory of Communications publié en 1948.

Parmi les branches importantes de la théorie de l'information de Shannon, on peut citer :

le codage de l'information,

la mesure quantitative de redondance d'un texte,

la compression de données,

la cryptographie.

Dans un sens plus général, une théorie de l'information est une théorie visant à quantifier et qualifier

la notion de contenu en informationprésent dans un ensemble de données. À ce titre, il existe une

autre théorie de l'information : la théorie algorithmique de l'information, créée par Kolmogorov,

Solomonov et Chaitin au début des années 1960.

Sommaire

  [masquer] 

1   L'information selon Shannon, un concept de la physique mathématique

2   Le statut physique de la théorie de l’information

3   Développement de la théorie mathématique de l'information

4   Exemples d'information

o 4.1   Premier exemple

o 4.2   Second exemple

o 4.3   Information imparfaite

5   Contenu d'information et contexte

6   Mesure de la quantité d'information

o 6.1   Quantité d'information   : cas élémentaire

o 6.2   Quantité d'information relative à un évènement

o 6.3   Entropie, formule de Shannon

o 6.4   Codage de l'information

7   Limites de cette théorie

8   Notes et références

9   Voir aussi

o 9.1   Articles connexes

o 9.2   Liens externes

o 9.3   Bibliographie

L'information selon Shannon, un concept de la physique mathématique[modifier]

L'information est un concept physique nouveau qui a surgi dans un champ technologique. Le concept

théorique d'information a été introduit à partir de recherches théoriques sur les systèmes

de télécommunication. L'origine de ces recherches remonte aux études entreprises dès la fin

du XIXe siècle, en physique et en mathématique par Boltzmann et Markov sur la notion

de probabilité d'un événement et les possibilités de mesure de cette probabilité. Plus récemment,

avant la Seconde Guerre mondiale, les contributions les plus importantes sont dues à la collaboration

des mathématiciens et des ingénieurs des télécommunications, qui ont été amenés à envisager les

propriétés théoriques de tout système de signaux utilisé par les êtres, vivants ou techniques, à des

fins decommunication.

Modèle de la communication de Shannon et Weaver

À la suite des travaux de Hartley (1928), Shannon détermine l'information comme grandeur

observable et mesurable (1948), et celle-ci devient la poutre maîtresse de la théorie de la

communication qu'il élabore avec Warren Weaver 1 .

Cette théorie est née de préoccupations techniques pratiques. La société Bell cherche à transmettre

les messages de la façon à la fois la plus économique et la plus fiable. Aussi le cadre originel de la

théorie est celui d'un système de communications où un émetteur transmet un message à un

récepteur à travers un canal matériel/énergétique donné. Émetteur et récepteur ont par hypothèse un

répertoire commun, un code qui contient les catégories de signaux utilisables. Ainsi le message codé

est transmis, de l'émetteur au récepteur à travers le canal, sous forme de signes ou signaux portés

par de la matière/énergie.

Ainsi, le concept d'information a été l'objet d'une théorie, appelée « théorie de l'information ». C'était

une théorie mathématique appliquée aux techniques de la télécommunication. Elle a été élaborée plus

spécialement par Claude Shannon, ingénieur à la Compagnie des Téléphones Bell et reste jusqu'à

nos jours la base du concept dit scientifique d'information.

Cependant cette définition mathématique de l'information ne pourrait s'appuyer ni sur la forme

matérielle/énergétique, ni sur le contenu cognitif des messages émis : leur contenu sémantique est

laissé de côté, de même que leur contenant physique, pour ne s'intéresser qu'aux aspects

mathématiques.

Dans sa conception originale, la théorie de l'information de Shannon s'est limitée à analyser les

moyens à mettre en œuvre dans les techniques de télécommunication pour transmettre l'information

le plus rapidement possible et avec le maximum de sécurité. Elle s'est donc efforcée de développer

des méthodes susceptibles de minimiser la probabilité d'erreur dans la reconnaissance du message.

Une notion fondamentale sera nécessaire pour développer ces méthodes : la mesure de l'information,

au sens mathématique du terme.

Pour Shannon, l'information présente un caractère essentiellement aléatoire. Un événement aléatoire

est par définition incertain. Cette incertitude est prise comme mesure de l'information. Une information

sera donc uniquement définie par sa probabilité (I = - log p). Donc l'information est la mesure de

l'incertitude calculée à partir de la probabilité de l'événement. Shannon a donc confondu la notion

d'information et de mesure d'incertitude. Il faut remarquer que dans cette définition l'information est

bien synonyme de mesure d'incertitude. Dans cet ordre d'idée, plus une information est incertaine,

plus elle est intéressante, et un événement certain ne contient aucune information. En théorie de

l'information de Shannon, il s'agit donc de raisonner en probabilité et non en logique pure.

L'information se mesure en unités d'information dites bits. Le bit peut être défini comme un événement

qui dénoue l'incertitude d'un récepteur placé devant une alternative dont les deux issues sont pour lui

équiprobables. Plus les éventualités que peut envisager ce récepteur sont nombreuses, plus le

message comporte d'événements informatifs, plus s'accroît la quantité de bits transmis. Il est clair que

nul récepteur ne mesure en bits l'information obtenue dans un message. C'est seulement le

constructeur d'un canal de télécommunication qui a besoin de la théorie, et mesure l'information en bit

pour rendre la transmission de message la plus économique et la plus fiable.

La notion d'information d'après Shannon est nécessairement associée à la notion de « redondance »

et à celle de « bruit ». Par exemple, en linguistique l'information n'est ni dans le mot, ni dans la

syllabe, ni dans la lettre. Il y a des lettres voire des syllabes qui sont inutiles à la transmission de

l'information que contient le mot : il y a dans une phrase, des mots inutiles à la transmission de

l'information. La théorie de Shannon appelle redondance tout ce qui dans le message apparaît comme

en surplus. Aussi est-il économique de ne pas transmettre la redondance.

L'information chemine à travers un canal matériel/énergétique : fil téléphonique, onde radio, etc. Or,

dans son cheminement, l'information rencontre du bruit. Le bruit est constitué par les perturbations

aléatoires de toutes sortes qui surgissent dans le canal de transmission et tendent à brouiller le

message. Le problème de la dégradation de l'information par le bruit est donc un problème inhérent à

sa communication. Ici, l'idée de redondance présente une face nouvelle ; alors qu'elle apparaît comme

un surplus inutile sous l'angle économique, elle devient, sous l'angle de la fiabilité de la transmission

un fortifiant contre le bruit, un préventif contre les risques d'ambiguïté et d'erreur à la réception.

Le statut physique de la théorie de l’information[modifier]

Très vite de multiples applications de la théorie de l'information de Shannon sont apparues dans le

domaine des sciences humaines2 : les modèles mathématiques élaborés ont permis de préciser

certains concepts utilisés couramment dans les analyses linguistiques structurales, en même temps

qu'ils faisaient apparaître les limites inhérentes à ce type d'analyse et provoquaient des recherches

nouvelles (en traduction automatique et en psycho-linguistique). Tandis que se développait un champ

scientifique nouveau : lacybernétique 3 .

Cependant, une caractéristique majeure de la théorie shannonienne est de donner à la notion

d'information (telle que définie par cette théorie) un statut physique à part entière. Effectivement,

l'information acquiert les caractères fondamentaux de toute réalité physique organisée : abandonnée

à elle-même, elle ne peut évoluer que dans le sens de sa désorganisation, c'est-à-dire l'accroissement

d'entropie ; de fait, l'information subit, dans ses transformations (codage, transmission, décodage,

etc..), l'effet irréversible et croissant de la dégradation. Par conséquent Shannon définit comme

entropie d'information la mesure H ( H = - K log p). De façon étonnante, l'équation par laquelle

Shannon définit l'entropie de l'information coïncide, mais de signe inverse, avec l'équation de

Boltzmann-Gibbs définissant l'entropie S en thermodynamique (S = K log p).

Certains, comme Couffignal4, ont soutenu avec raison que la coïncidence est sans signification :

l'application de la fonction de Shannon à la thermodynamique et à l'information est un hasard de

rencontre de l'application d'une même formule mathématique, sans plus. Certes, il peut y avoir

rencontre de deux équations de probabilité provenant d'univers différents. Toutefois Brillouin

prétendait établir une relation logique entre le H de Shannon et le S de Boltzmann.

Selon ce point de vue, il est possible d'inscrire l'information shannonienne dans la physique. En effet,

il existe une dualité dans le concept d'information reliant l'information à la matière/énergie véhiculant

cette information. L'information shannonienne s'enracine dans la physique et les mathématiques, mais

sans qu'on puisse la réduire aux maîtres-concepts de la physique classique, masse et énergie.

Comme le dit Wiener : « l'information n'est ni la masse, ni l'énergie, l'information est l'information. »

Développement de la théorie mathématique de l'information[modifier]

La théorie mathématique de l'Information résulte initialement des travaux de Ronald Aylmer Fisher.

Celui-ci, statisticien, définit formellement l'information comme égale à la valeur moyenne du carré de

la dérivée du logarithme de la loi de probabilité étudiée.

À partir de l'inégalité de Cramer, on déduit que la valeur d'une telle information est proportionnelle à la

faible variabilité des conclusions résultantes. En termes simples, moins une observation est probable,

plus son observation est porteuse d'information. Par exemple, lorsque le journaliste commence le

journal télévisé par la phrase « Bonsoir », ce mot, qui présente une forte probabilité, n'apporte que

peu d'information. En revanche, si la première phrase est, par exemple « La France a peur », sa faible

probabilité fera que l'auditeur apprendra qu'il s'est passé quelque chose, et, partant, sera plus à

l'écoute.

D'autres modèles mathématiques ont complété et étendu de façon formelle la définition de

l'information.

Claude Shannon et Warren Weaver renforcent le paradigme. Ils sont ingénieurs en télécommunication

et se préoccupent de mesurer l'information pour en déduire les fondamentaux de la Communication

(et non une théorie de l'information). Dans Théorie Mathématique de la Communication en 1948, ils

modélisent l'information pour étudier les lois correspondantes : bruit, entropie et chaos, par analogie

générale aux lois d'énergétique et de thermodynamique. Leurs travaux complétant ceux d'Alan Turing,

de Norbert Wiener et de John von Neumann (pour ne citer que les principaux) constituent le socle

initial de la théorie du signal et des « Sciences de l'Information ».

Pour une source   comportant   symboles, un symbole   ayant une probabilité   d'apparaître,

l'entropie   de la source   est définie comme :

C'est au départ le logarithme naturel qui est utilisé. On le remplacera pour commodité par le

logarithme à base 2, correspondant à une information qui est le bit. Les considérations d'entropie

maximale (MAXENT) permettront à l'inférence bayésienne de définir de façon rationnelle ses

distributions a priori.

L'informatique constituera une déclinaison technique automatisant les traitements (dont la

transmission et le transport) d'information. L'appellation « Technologies de l'Information et de la

Communication » recouvre les différents aspects (systèmes de traitements, réseaux, etc.) de

l'informatique au sens large.

Les sciences de l'information dégagent du sens depuis des données en s'appuyant sur des questions

de corrélation, d'entropie et d'apprentissage (voir Data mining). Les technologies de l'information,

quant à elles, s'occupent de la façon de concevoir, implémenter et déployer des solutions pour

répondre à des besoins identifiés.

Adrian Mc Donough dans Information economics définit l'information comme la rencontre d'une

donnée (data) et d'un problème. La connaissance (knowledge) est une information potentielle. Le

rendement informationnel d'un système de traitement de l'information est le quotient entre le nombre

de bits du réservoir de données et celui de l'information extraite. Les data sont le cost side du

système, l'information, le value side. Il en résulte que lorsqu'un informaticien calcule la productivité de

son système par le rapport entre la quantité de données produites et le coût financier, il commet une

erreur, car les deux termes de l'équation négligent la quantité d'information réellement produite. Cette

remarque prend tout son sens à la lumière du grand principe de Russel Ackoff qui postule qu'au-delà

d'une certaine masse de données, la quantité d'information baisse et qu'à la limite elle devient nulle.

Ceci correspond à l'adage « trop d'information détruit l'information ». Ce constat est aggravé lorsque

le récepteur du système est un processeur humain, et pis encore, le conscient d'un agent humain. En

effet, l'information est tributaire de la sélection opérée par l'attention, et par l'intervention de données

affectives, émotionnelles, et structurelles absentes de l'ordinateur. L'information se transforme alors

en sens, puis en motivation. Une information qui ne produit aucun sens est nulle et non avenue pour

le récepteur humain, même si elle est acceptable pour un robot. Une information chargée de sens

mais non irriguée par une énergie psychologique (drive, cathexis, libido, ep, etc.) est morte. On

constate donc que dans la chaîne qui mène de la donnée à l'action (données → information →

connaissance → sens → motivation), seules les deux premières transformations sont prises en

compte par la théorie de l'information classique et par la sémiologie. Kevin Bronstein remarque que

l'automate ne définit l'information que par deux valeurs : le nombre de bits, la structure et

l'organisation des sèmes, alors que le psychisme fait intervenir des facteurs dynamiques tels que

passion, motivation, désir, répulsion, etc. qui donnent vie à l'information psychologique.

Exemples d'information[modifier]

Une information désigne, parmi un ensemble d'événements, un ou plusieurs événements possibles.

En théorie, l'information diminue l'incertitude. En théorie de la décision, on considère même qu'il ne

faut appeler « information » que ce qui est « susceptible d'avoir un effet sur nos décisions » (peu de

choses dans un journal sont à ce compte des informations…)

En pratique, l'excès d'information, tel qu'il se présente dans les systèmes de messagerie électronique,

peut aboutir à une saturation, et empêcher la prise de décision.

Premier exemple[modifier]

Soit une source pouvant produire des tensions entières de 1 à 10 volts et un récepteur qui va mesurer

cette tension. Avant l'envoi du courant électrique par la source, le récepteur n'a aucune idée de la

tension qui sera délivrée par la source. En revanche, une fois le courant émis et reçu, l'incertitude sur

le courant émis diminue. La théorie de l'information considère que le récepteur possède une

incertitude de 10 états.

Second exemple[modifier]

Une bibliothèque possède un grand nombre d'ouvrages, des revues, des livres et des dictionnaires.

Nous cherchons un cours complet sur la théorie de l'information. Tout d'abord, il est logique que nous

ne trouverons pas ce dossier dans des ouvrages d'arts ou de littérature ; nous venons donc d'obtenir

une information qui diminuera notre temps de recherche. Nous avions précisé que nous voulions aussi

un cours complet, nous ne le trouverons donc ni dans une revue, ni dans un dictionnaire. nous avons

obtenu une information supplémentaire (nous cherchons un livre), qui réduira encore le temps de

notre recherche.

Information imparfaite[modifier]

Soit un réalisateur dont j'aime deux films sur trois. Un critique que je connais bien éreinte son dernier

film et je sais que je partage en moyenne les analyses de ce critique quatre fois sur cinq. Cette

critique me dissuadera-t-elle d'aller voir le film ? C'est là la question centrale de l'inférence

bayésienne, qui se quantifie aussi en bits.

Contenu d'information et contexte[modifier]

Il faut moins de bits pour écrire « chien » que « mammifère ». Pourtant l'indication « Médor est un

chien » contient bien plus d'information que l'indication « Médor est un mammifère » : le contenu

d'information sémantique d'un message dépend du contexte. En fait, c'est le couple message +

contexte qui constitue le véritable porteur d'information, et jamais le message seul (voir paradoxe du

compresseur).

Mesure de la quantité d'information[modifier]

Quantité d'information : cas élémentaire[modifier]

Considérons   boîtes numérotées de 1 à  . Un individu A a caché au hasard un objet dans une de

ces boîtes. Un individu B doit trouver le numéro de la boîte où est caché l'objet. Pour cela, il a le droit

de poser des questions à l'individu A auxquelles celui-ci doit répondre sans mentir par OUI ou NON.

Mais chaque question posée représente un coût à payer par l'individu B (par exemple un euro). Un

individu C sait dans quelle boîte est caché l'objet. Il a la possibilité de vendre cette information à

l'individu B. B n'acceptera ce marché que si le prix de C est inférieur ou égal au coût moyen que B

devrait dépenser pour trouver la boîte en posant des questions à A. L'information détenue par C a

donc un certain prix. Ce prix représente la quantité d'information représentée par la connaissance de

la bonne boîte : c'est le nombre moyen de questions à poser pour identifier cette boîte. Nous la

noterons I.

EXEMPLE :

Si  ,  . Il n'y a qu'une seule boîte. Aucune question n'est nécessaire.

Si  ,  . On demande si la bonne boîte est la boîte n°1. La réponse OUI ou NON

détermine alors sans ambiguïté quelle est la boîte cherchée.

Si  ,  . On demande si la boîte porte le n°1 ou 2. La réponse permet alors d'éliminer

deux des boîtes et il suffit d'une dernière question pour trouver quelle est la bonne boîte parmi les

deux restantes.

Si  ,  . On écrit les numéros des boîtes en base 2. Les numéros ont au plus   chiffres

binaires, et pour chacun des rangs de ces chiffres, on demande si la boîte cherchée possède le chiffre

0 ou le chiffre 1. En   questions, on a déterminé tous les chiffres binaires de la bonne boîte. Cela

revient également à poser   questions, chaque question ayant pour but de diviser successivement le

nombre de boîtes considérées par 2 (méthode de dichotomie).

On est donc amené à poser  , mais cette configuration ne se produit que dans le cas

de   événements équiprobables.

Quantité d'information relative à un évènement[modifier]

Supposons maintenant que les boîtes soient colorées, et qu'il y ait   boîtes rouges. Supposons

également que C sache que la boîte où est caché l'objet est rouge. Quel est le prix de cette

information ? Sans cette information, le prix à payer est  . Muni de cette information, le prix à

payer n'est plus que  . Le prix de l'information « la boîte cherchée est rouge » est

donc  .

On définit ainsi la quantité d'information comme une fonction croissante de   avec :

 le nombre d'évènements possibles

 le nombre d'éléments du sous-ensemble délimité par l'information

Afin de mesurer cette quantité d'information, on pose : 

 est exprimé en bit (ou « logon », unité introduite par Shannon[citation nécessaire], de laquelle, dans les faits,

bit est devenu un synonyme), ou bien en « nat » si on utilise le logarithme naturel à la place

du logarithme de base 2.

Cette définition se justifie, car l'on veut les propriétés suivantes :

1. l'information est comprise entre 0 et ∞ ;

2. un évènement avec peu de probabilité représente beaucoup d'information (exemple : « Il

neige en janvier » contient beaucoup moins d'information que « Il neige en août » pour peu

que l'on soit dans l'hémisphère nord) ;

3. l'information doit être additive.

Remarque : lorsqu'on dispose de plusieurs informations, la quantité d'information globale n'est pas la

somme des quantités d'information. Ceci est dû à la présence du logarithme. Voir aussi  : information

mutuelle, information commune à deux messages, qui, dans l'idée, explique cette « sous-additivité »

de l'information.

Entropie, formule de Shannon[modifier]

Article détaillé : entropie de Shannon.

Supposons maintenant que les boîtes soient de diverses couleurs : n1 boîtes de couleur C1, n2 boîtes

de couleur C2, …, nk boîtes de couleurs Ck, avec n1 + n2 + … + nk = N. La personne C sait de quelle

couleur est la boîte recherchée. Quel est le prix de cette information ?

L'information « la boîte est de couleur C1 » vaut log N/n1, et cette éventualité a une probabilité n1/N.

L'information « la boîte est de couleur C2 » vaut log N/n2, et cette éventualité a une probabilité n2/N…

Le prix moyen de l'information est donc n1/N log N/n1 + n2/N log N/n2 + … + nk/N log N/nk. Plus

généralement, si on considère kévènements disjoints de probabilités respectives p1, p2,

…, pk avec p1 + p2 + … + pk = 1, alors la quantité d'information correspondant à cette distribution de

probabilité est p1 log 1/p1 + … + pk log 1/pk. Cette quantité s'appelle entropie de la distribution de

probabilité.

L'entropie permet donc de mesurer la quantité d'information moyenne d'un ensemble d'évènements

(en particulier de messages) et de mesurer son incertitude. On la note   :

avec   la probabilité associée à l'apparition de l'évènement  .

Codage de l'information[modifier]

On considère une suite de symboles. Chaque symbole peut prendre deux valeurs s1 et s2 avec des

probabilités respectivement p1 = 0,8 et p2 = 0,2. La quantité d'information contenue dans un symbole

est :

Si chaque symbole est indépendant du suivant, alors un message de N symboles contient en

moyenne une quantité d'information égale à 0,72N. Si le symbole s1 est codé 0 et le symbole s2 est

codé 1, alors le message a une longueur de N, ce qui est une perte par rapport à la quantité

d'information qu'il porte. Les théorèmes de Shannon énoncent qu'il est impossible de trouver un code

dont la longueur moyenne soit inférieure à 0,72N, mais qu'il est possible de coder le message de

façon à ce que le message codé ait en moyenne une longueur aussi proche que l'on veut de 0,72N

lorsque N augmente.

Par exemple, on regroupe les symboles trois par trois et on les code comme suit :

symboles à coder probabilité du triplet codage du triplet longueur du code

s1s1s1 0,8³ = 0,512 0 1

s1s1s2 0,8² × 0,2 = 0,128 100 3

s1s2s1 0,8² × 0,2 = 0,128 101 3

s2s1s1 0,8² × 0,2 = 0,128 110 3

s1s2s2 0,2² × 0,8 = 0,032 11100 5

s2s1s2 0,2² × 0,8 = 0,032 11101 5

s2s2s1 0,2² × 0,8 = 0,032 11110 5

s2s2s2 0,2³ = 0,008 11111 5

Le message s1s1s1s1s1s2s2s2s1 sera codé 010011110.

La longueur moyenne du code d'un message de N symboles

est : 

Article détaillé : théorie des codes.

Limites de cette théorie[modifier]

L'une des caractéristiques fondamentales de cette théorie est l'exclusion de la sémantique. La théorie

de l'information est indifférente à la signification des messages. Le sens d'un message peut pourtant

être considéré comme essentiel dans la caractérisation de l'information. Mais le point de vue de la

théorie de l'information se limite à celui d'un messager dont la fonction est de transférer un objet5 .

La théorie de l'information de Shannon est toujours relative à un ensemble de données, une famille de

chaines de caractères, caractérisée par une loi de distribution bien précise. Elle donne donc un

contenu en information en moyenne, ce qui en fait une théorieprobabiliste, particulièrement bien

adaptée au contexte de la transmission de donnée, et dans ce cadre cette théorie a produit des

résultats importants. En revanche, elle n'est pas en mesure de quantifier le contenu en information

d'une chaine prise isolément, un brin d'ADN par exemple, alors que la théorie algorithmique de

l'information en est capable jusqu'à un certain point. Mais cette dernière théorie possède également

ses propres limitations. C'est pourquoi il ne faut pas considérer que la notion d'information est

entièrement cernée par la théorie de l'information de Shannon, ou la théorie algorithmique de

l'information, mais que cette notion a besoin d'une variété de modélisation formelles pour s'exprimer6.

L'information de Fisher semble ainsi parfois avantageusement remplacer l'information de Shannon

dans la mesure où elle est une quantification locale et non globale de l'information contenue dans une

distribution 7. Cela dit, les deux notions sont liées8 et peuvent dans diverses applications mener aux

mêmes résultats.