28
N° 51 - juillet / août 2006 Normalisation, dynamique de marchés et concurrence L ’universalité du service téléphonique est l’illustration parfaite du rôle de la normalisation. Permettre aux individus de communiquer librement quel que soit le lieu où ils se trouvent, le réseau auquel ils sont raccordés, voire le terminal qu’ils utilisent est l’essence même de l’industrie des télécoms. C’est aussi la source de sa valeur, au travers des externalités de réseau ainsi créées. Ce miracle technique n’est possible que par la coopération des acteurs, industriels et opérateurs, pour développer les normes permettant de garantir l’interopérabilité des multiples équipements techniques, terminaux et équipements de réseaux, intervenant dans une communication téléphonique. La prise de conscience par les Etats de l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe électrique et la création en 1865 de l’Union Internationale du télégraphe, qui devient en 1932 l’Union Internationale des Télécommunications. La libéralisation depuis 20 ans du secteur des télécommunications s’est accompagnée d’un changement des processus de normalisation, avec un engagement plus important des industriels et un retrait progressif des Etats, voire des opérateurs. Le « contrôle » d’une norme est, en effet, un enjeu stratégique pour un industriel, lui permettant d’anticiper le développement de produits par rapport à ses concurrents, de jouer de ses droits de propriété intellectuelle et parfois de verrouiller un marché. Les normes sont également importantes pour les opérateurs. Suite p 2 P lus de quatre milliards d’êtres humains sont aujourd’hui interconnectés par des services de communications électroniques. Certes, les conditions d’accès, les gammes de service, la qualité présentent encore de très grandes disparités. Les taux de pénétration de ces différents services continuent de croître auprès de la population planétaire et le potentiel est encore immense. Ces services sont produits par des réseaux multiples mondialement interconnectés. Ils constituent, par le montant des investis- sements, avec les moyens de transports et les réseaux d’énergie, la troisième infrastructure, qui structure, organise et fait vivre une société d’échange et de mobilité. Services et réseaux de communication électronique irriguent l’ensemble de la planète, fonctionnent en temps réel, vingt quatre heures sur vingt quatre. Le système nerveux de l’humanité d’aujourd’hui est un organisme vivant qui croît, qui mue en permanence, poussé par un progrès technique des plus révolutionnaires, sans que l’utilisateur ne s’en rende compte dans ses activités de tous les instants. Pour nos concitoyens, ces moyens de communications électroniques sont devenus des biens ordinaires. Ils sont le fruit de plus d’un siècle d’intenses efforts ; ils reposent sur un très complexe tissu de normes, résultats de laborieuses coopérations internationales. …suite p.2 Dans ce numéro DOSSIER : LA NORMALISATION........ p. 1 à 17 • L’accès mobile radio • L’accès haut débit • Normes et cœurs de réseau NGN • Les normes dans la vidéo • La galaxie de la normalisation • Point de vue des acteurs • « Normes et propriété intellectuelle », par Jean Tirole • Interviews d’experts SEPARATION COMPTABLE.................. p. 18 à 19 • L’Autorité lance une consultation publique • Interview de Fadhel Lakhoua (CRE) ANALYSE ÉCONOMIQUE.............................................. p. 20 SECTEUR POSTAL.................................................................. p. 21 • Tarifs du service universel : jusqu’à +2,1 % par an • Interview de Jean-Pierre Garcia (ville de Marseille) ACTUALITÉS .......................... p. 23, 26, 27 et 28 • BLR-Wimax : les résultats en couleur • VGAST : c’est parti ! • Discours de Paul Champsaur : morceaux choisis • TA SMS : pour une régulation LA REVIEW ........................................ p. 24 • Interview de J. Murray (BEUC) AGENDA DU COLLEGE p. 28 La normalisation Les normes structurent l’organisation mondiale de la communication électronique ; conditionnent la diversité, la facilité d’usage, le prix et la préservation des libertés individuelles ; déterminent les conditions d’offres, d’investissements et d’exploitation des opérateurs, des éditeurs de contenus ; orientent l’industrialisation des innovations des industries de composants, d’équipements et de logiciels. La régulation a une responsabilité en ce domaine, notamment vis-à-vis du consommateur. Ses arbitrages doivent tenir compte de l’efficacité des techniques, des effets de série et d’horizons économiques adaptés. La mission fixée par la loi lui prescrit de faciliter le déploiement des services et réseaux sur l’ensemble du territoire. Ces objectifs impliquent des normes ouvertes, stables sur des périodes économiquement viables, suffisantes pour une montée à maturation des services et utilisant efficacement les ressources rares. Etat des lieux. « Normes et propriété intellectuelle » : le point de vue de Jean Tirole Pages 14 à 16

AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

Page 1: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

N° 51 - juillet / août 2006

Normalisation,dynamique de marchés et concurrence

L’universalité duservicetéléphonique est

l’illustration parfaite durôle de la normalisation.Permettre aux individusde communiquerlibrement quel que soit lelieu où ils se trouvent, leréseau auquel ils sontraccordés, voire leterminal qu’ils utilisent

est l’essence même de l’industrie destélécoms. C’est aussi la source de savaleur, au travers des externalités deréseau ainsi créées. Ce miracle techniquen’est possible que par la coopération desacteurs, industriels et opérateurs, pourdévelopper les normes permettant degarantir l’interopérabilité des multipleséquipements techniques, terminaux etéquipements de réseaux, intervenantdans une communication téléphonique.La prise de conscience par les Etats del’importance de la normalisation ne datepas d’hier. Il n’a fallu que 30 ans entrel’invention en 1832 du télégrapheélectrique et la création en 1865 del’Union Internationale du télégraphe,qui devient en 1932 l’UnionInternationale des Télécommunications.La libéralisation depuis 20 ans dusecteur des télécommunications s’estaccompagnée d’un changement desprocessus de normalisation, avec unengagement plus important desindustriels et un retrait progressif desEtats, voire des opérateurs. Le«contrôle » d’une norme est, en effet,un enjeu stratégique pour un industriel,lui permettant d’anticiper ledéveloppement de produits par rapportà ses concurrents, de jouer de ses droitsde propriété intellectuelle et parfois deverrouiller un marché. Les normes sontégalement importantes pour lesopérateurs. … Suite p 2

Plus de quatre milliards d’êtreshumains sont aujourd’huiinterconnectés par des services decommunications électroniques.

Certes, les conditions d’accès, les gammes deservice, la qualité présentent encore de trèsgrandes disparités. Les taux de pénétration deces différents services continuent de croîtreauprès de la population planétaire et lepotentiel est encore immense.

Ces services sont produits par des réseauxmultiples mondialement interconnectés. Ilsconstituent, par le montant des investis-sements, avec les moyens de transports et lesréseaux d’énergie, la troisième infrastructure,qui structure, organise et fait vivre une sociétéd’échange et de mobilité.

Services et réseaux de communicationélectronique irriguent l’ensemble de laplanète, fonctionnent en temps réel, vingtquatre heures sur vingt quatre. Le systèmenerveux de l’humanité d’aujourd’hui est unorganisme vivant qui croît, qui mue enpermanence, poussé par un progrès techniquedes plus révolutionnaires, sans quel’utilisateur ne s’en rende compte dans sesactivités de tous les instants.

Pour nos concitoyens, ces moyens decommunications électroniques sont devenusdes biens ordinaires. Ils sont le fruit de plusd’un siècle d’intenses efforts ; ils reposent surun très complexe tissu de normes, résultats delaborieuses coopérations internationales.

…suite p.2

Dans ce numéroDOSSIER : LA NORMALISATION ........ p. 1 à 17

• L’accès mobile radio• L’accès haut débit• Normes et cœurs de réseau NGN• Les normes dans la vidéo• La galaxie de la normalisation• Point de vue des acteurs• « Normes et propriété intellectuelle »,

par Jean Tirole• Interviews d’experts

SEPARATION COMPTABLE .................. p. 18 à 19

• L’Autorité lance une consultation publique• Interview de Fadhel Lakhoua (CRE)

ANALYSE ÉCONOMIQUE .............................................. p. 20

SECTEUR POSTAL.................................................................. p. 21

• Tarifs du service universel :jusqu’à +2,1 % par an

• Interview de Jean-Pierre Garcia (ville de Marseille)

ACTUALITÉS .......................... p. 23, 26, 27 et 28

• BLR-Wimax : les résultats en couleur• VGAST : c’est parti !• Discours de Paul Champsaur :

morceaux choisis• TA SMS : pour une régulation

LA REVIEW ........................................ p. 24• Interview de J. Murray (BEUC)

AGENDA DU COLLEGE p. 28

La normalisationLes normes structurent l’organisation mondiale de la communication

électronique ; conditionnent la diversité, la facilité d’usage, le prix et la préservation des libertés individuelles ; déterminent les conditions

d’offres, d’investissements et d’exploitation des opérateurs, des éditeurs de contenus ; orientent l’industrialisation des innovations

des industries de composants, d’équipements et de logiciels. La régulation a une responsabilité en ce domaine, notamment vis-à-visdu consommateur. Ses arbitrages doivent tenir compte de l’efficacité

des techniques, des effets de série et d’horizons économiques adaptés.La mission fixée par la loi lui prescrit de faciliter le déploiement des

services et réseaux sur l’ensemble du territoire. Ces objectifs impliquentdes normes ouvertes, stables sur des périodes économiquementviables, suffisantes pour une montée à maturation des services

et utilisant efficacement les ressources rares. Etat des lieux.

«Normes et propriété intellectuelle» : le point de vue de Jean Tirole

Pages 14 à 16

Page 2: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

2 LA LETTRE DE L’AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES ● J U I L L E T / A O Û T 2 0 0 6

Dossier - La normalisationDossier - La normalisation

Sans normes, toutes communicationsélectroniques seraient impossibles. Ce n’estpas un hasard si la plus ancienne des organi-sations spécialisées de l’ONU est l’UnionInternationale des Télécommunications.

Ses fondements actuels reposent encore surla Convention et le Règlement issus de laPremières Conférence TélégraphiqueInternationale, tenue à Paris, en 1865, dix ansavant l’invention du téléphone. Si les servicesont beaucoup changé, les questions traitéesrestent d’actualité. Hier, trouver des tarifs«uniformes » pour le télégraphe, aujourd’hui, leroaming européen et international.

Il n’est pas question d’aborder la complexitéde la normalisation en télécommunication,mais d’essayer d’illustrer quelques enjeux clés.Comment assurer à l’utilisateur interopérabilitédes services et relative simplicité ? Commentréussir à interconnecter, à l’échelle mondiale, lesdifférents réseaux à un moment où la concur-rence multiplie les opérateurs, les innovationsdiversifient les solutions alternatives, les réseauxdeviennent multiservices ?

Interopérabilité et InterconnexionDepuis la Tour de Babel, l’être humain a,

encore aujourd’hui, bien mal atteint l’univer-salité dans ses communications naturelles : soitil est tributaire de traducteurs, soit il utilise unlangage véhiculaire de plus en plus dérivé del’anglais.

Dans ses communications médiatisées, il abesoin d’un terminal capable d’inter-opéreravec ses correspondants. Pour cela, il faut queles différents acteurs économiques (opérateurs,équipementiers, éditeurs) se soient mis d’ac-cord sur des protocoles normalisés. Très sché-matiquement, on peut distinguer quatregrandes classes de protocoles et donc denormes, relatives au codage des langages, autransport de l’information, au processusd’échanges et au type de services.

Plusieurs grands débats et travauxaniment actuellement les groupes d’experts ;ils sont encore, en majorité, impulsés par lepassage de l’analogique au numérique.• Le passage à la voix sur IP, celui de MPEG2à MPEG4 pour rendre plus efficace lacompression des images, sont deux thèmesqui focalisent les énergies.• La transmission inclut les réseaux d’accès,longue distance, internationaux qu’ils soienten câble, en fibre, par hertzien. Pour l’accès,l’objectif premier est l’augmentation desdébits, grâce à la fibre optique (XPON,Ethernet, …), en améliorant l’efficacité detraitement du signal sur le cuivre (XDSL), avecde nouvelles générations sans fil (HSDPA,WIMAX, …). Les réseaux radio exigent uneforte normalisation car les fréquences sont uneressource rare qui doit être utilisée avec grandeefficacité en évitant les brouillages.• Les processus d’échange requièrent desplans de numérotation, d’adressage et desprotocoles d’acheminement. La grandemutation qui s’enclenche est la généralisationdans les cœurs de réseau des protocoles IPvenus de l’informatique. Ce sera une évolu-tion qui permettra de pleinement entrer dansl’ère du multiservice (triple-quadruple) trans-porté par réseaux filaires et radio. Elle rendplus indépendants réseaux et services qui sontfournis par des plates-formes spécialisées.• Pour les services, le premier enjeu est denormaliser des interfaces (IMS) avec la nouvellegénération de réseau et de s’entendre simultané-ment, service par service, sur des normes pourles rendre inter-opérables (messagerie, portail,jeux en réseau, VoD, terminaux).

Ce gigantesque chantier de normalisationmet en jeu des milliers d’experts, venant desdifférentes industries et laboratoires derecherche qui concourent à la chaîne de la

valeur (fabricants de composants, équipe-mentiers, opérateurs, sociétés de logiciel,éditeurs de contenus). Suivant les sujets, leursintérêts peuvent être convergents ou diver-gents. Normaliser c’est débattre, s’affronterpour faire émerger une règle commune, unenorme qui s’impose à tous pour une duréesuffisante. La normalisation a des impactséconomiques forts et des répercussions sur ladynamique d’innovation.

Normalisation et économieLes opérateurs et les éditeurs dont la respon-

sabilité est de fournir à leurs clients des servicesinter-opérables de qualité sur des périodeslongues, doivent investir dans des réseaux trèscapitalistiques interconnectés et des logiciels deservices toujours plus complexes. Ils ont ungrand intérêt à une normalisation précise,stable, internationale pour éviter d’investir enplus dans de multiples passerelles d’interfaçageet de gérer de difficiles périodes de changementde norme durant lesquelles continuité et qualitédu service doivent être assurées. Les normesstables favorisent les effets d’échelle et la diversi-fication des approvisionnements. Ces avantagessont très réels pour les réseaux, moindres pourles services. Avec la plus grande indépendancedes services par rapport au réseau, ce phéno-mène s’intensifie. Les services ont des cycles pluscourts, ils sont des éléments déterminants de ladifférenciation concurrentielle.

Toute industrie apprécie, pour sonéconomie, les effets de série. C’est très sensiblepour les industries des composants électro-niques et des équipements, moins pour cellesdu logiciel où les modifications de version sontsources de revenus récurrents.

Si des normes précises, ouvertes et stablessont économiquement efficaces dans unsecteur marqué par une très grande indépen-dance et des forts effets d’échelles, elles peuvententraîner des inerties et nuire à la diversifica-tion et à la modernisation des services. Toutenorme fige un certain état de l’art et conduit àimposer des paliers à l’innovation.

Normalisation et innovationL’innovation est un long processus dans

lequel s’insère, de façon interactive, la norma-lisation.

La normalisation est très étroitement liée àla R&D et, par là, à la propriété industrielle(brevets et droits d’auteurs). Les innovationsreconnues par la normalisation bénéficientd’une valorisation importante, ce qui incite àdes normes fermées propriétaires. Les droits depropriété industrielle et intellectuelle associéscréent de jure des barrières à l’entrée des

…Suite de la page 1 Au-delà de celles,indispensables à l’interopérabilité desréseaux et terminaux, les normesparticipent à la baisse des coûts et destarifs au travers de la générationd’économie d’échelle et d’une concurrenceentre équipementiers, à l’échelle dumarché européen voire mondial.Pour parodier Esope, les normes peuventêtre la meilleure ou la pire des choses. Lameilleure, quand elles concourent à lagenèse de nouveaux services et usages enfavorisant l’interopérabilité des différentséléments de la chaîne de la valeur et le librechoix de l’utilisateur. A ce titre, ellescontribuent, en amont de la régulation, audéveloppement d’une dynamique demarchés innovants grâce à une concurrenceouverte. La pire, si elles contribuent àverrouiller un marché, au profit d’unnombre réduit d’acteurs.Si le rôle des Etats et d’autres acteursinstitutionnels comme la Commissioneuropéenne, n’est pas de choisir lestechnologies et de faire les normestechniques à la place des acteurs dumarché, neutralité technologique oblige,l’orientation des acteurs au travers d’uncadre institutionnel approprié,l’accompagnement des projets de pré-normalisation et surtout l’identificationharmonisée au niveau européen deressources spectrales suffisamment enamont relèvent certainement d’une«politique industrielle » moderne dont laréussite de la norme GSM est une parfaiteillustration.

Paul Champsaur, Président

Page 3: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

J U I L L E T / A O Û T 2 0 0 6 ● LA LETTRE DE L’AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES 3

Dossier - La normalisationDossier - La normalisation

nouvelles technologies et risquent de prolongerla durée de vie des filières au delà de l’efficacité.Les normes peuvent aussi constituer, pourcertains industriels, certains Etats, une tech-nique efficace de protectionnisme industriel.Les trois principaux standards adoptés pour la3G (l’UMTS en Europe et au Japon, le CDMA2000 enAmérique du Nord-, le TD SCDMAen Chine) en sont une illustration, les réactionshors de France vis à vis du minitel aussi.

Pour chaque cycle de normalisation, afinde concilier foisonnement innovatif et néces-sité de stabilité d’exploitation sur une périoderaisonnable, une méthode est de mettre encompétition plusieurs filières et de trouver uncompromis qui essaie d’optimiser les avan-tages venant de plusieurs voies de recherche.La norme qui en résulte est alors commune etouverte. Ce n’est pas toujours possible.Plusieurs possibilités s’offrent pour la rémuné-ration des inventions, gratuite, tarif raison-nable, pool de licences…

Certains, au contraire, préconisent laneutralité vis à vis des techniques ou la guerredes standards. Si cette approche peut donner debons résultats pour des produits àinvestissements modérés et à durée de vie assezcourte, l’expérience montre qu’elle est maladaptée à des infrastructures lourdes dont lescycles techniques se chiffrent en décennies. Lesdifficultés rencontrées par l’Europe lors de lapremière génération de mobiles, les retards prispar le continent Nord-Américain pour laseconde s’expliquent en partie par le choix demultiples standards. Le débat ATM-IP a mis enévidence la différenciation par la qualité deservice. Le Net neutralité est aujourd’hui portéau niveau du Congrès américain.

La vitesse d’innovation dans les TIC seheurte aux délais d’élaboration des normes et deleur rentabilisation sur une durée d’exploitationsuffisante. Pour accélérer le processus, les orga-nismes de normalisation ont multiplié lesversions et adopté des normes de plus en plus«floues ». Ces techniques ont certains méritespour obtenir la vitesse et affronter les incertitudes techniques. Cependant, les gainsimmédiats apparents peuvent être, dans laréalité, totalement ruinés par des investisse-ments sans avenir, des coûts de mise au point enexploitation très dommageables pour les opéra-teurs. Les retards dans l’ouverture de la 3G,l’obsolescence prématurée des versions précé-dant l’HSDPA, révèlent bien cet état de fait. Lesopérateurs pionniers ont eu à faire face à descoûts importants de mise au point sur le terrainde l’interopérabilité, les lancements commer-ciaux ont été retardés et les régulateurs ont dûrevoir les conditions des licences attribuées.

Il faut dire que la normalisation se fait àtravers de multiples organismes qui doiventaffronter intensification de la complexité, de lavitesse de changement, des convergences.

Processus d’élaboration des normesLes galaxies d’organismes de normalisations

(cf pages 9 et 10) sont soumises à trois lignes deforces : recul du rôle de l’Etat, osmose entretechniques des télécoms et de l’informatique,modification du poids des acteurs.

A l’origine, la normalisation mondiale rele-vait d’un organisme inter-étatique, l’UIT. Lamajorité des opérateurs était des monopolesgérés par les Etats qui, souvent, s’approvision-naient auprès d’équipementiers nationaux.Cette situation a complètement changé : aujour-d’hui des opérateurs privés et privatisés exercentleur activité en concurrence en s’approvision-nant auprès de multiples fournisseurs sur unmarché mondial. Le rôle des Etats a, de fait,beaucoup diminué ; ils ont, en particulier, perdules compétences de R&D qu’ils détenaient àtravers les laboratoires des opérateurs publics.Avec la numérisation, les normes portées parl’association entre les opérateurs et les équipe-mentiers sont contestées par celles venant del’informatique. Les protocoles de commutationcircuits vont ainsi être remplacés par des cœursde réseaux IP (NGN). Les nouveaux standardsde haut débit radio (Wimax) sont issus deforums liés à l’IEEE et non des instances tradi-tionnelles de normalisation (UIT, CEPT, ETSI).Ces nouvelles instances de type forum s’étaientfixées deux objectifs majeurs : rendre mieuxadaptées les normes de télécommunication àl’informatique et réduire le temps d’élaborationdes normes. Des progrès très réels ont étéaccomplis, mais elles se heurtent de plus en plusaux difficultés nées de la croissance combinatoirede la complexité, source de délais qui s’allon-gent:10 à 15 ans pour les filières majeures (3G,NGN, DVB).

Dans ces instances pilotées par l’industrie, leconsommateur n’est pris en considération quepar les études marketing des opérateurs. Lanormalisation a toujours été en majoritépoussée par la technique. Dans ce contexte, lesEtats ont de plus en plus de difficultés à fairerespecter les exigences de sécurité, de protec-tion des droits collectifs et individuels. Dans denombreux pays, l’Etat a confié la régulation dusecteur de la communication électronique à desautorités indépendantes. Quel rôle pourraient-elles jouer dans ce processus de normalisation ?

Régulation et NormalisationEn fait, il y a interaction entre régulation

et normalisation. Toutes deux définissent des

règles, plus économiques pour la première,plus techniques pour la seconde.

Le régulateur a la responsabilité vis à vis duconsommateur de la mise à disposition deservices inter-opérables de qualité, auxmeilleurs prix. Ses arbitrages doivent tenircompte de l’efficacité des techniques, des effetsde série et d’horizons économiques adaptés. Lamission fixée par la loi lui prescrit de faciliterle déploiement des services et réseaux sur l’en-semble du territoire. Ces objectifs impliquentdes normes ouvertes, stables, sur des périodeséconomiquement viables, suffisantes pour unemontée à maturation des services et utilisantefficacement les ressources rares.

Certaines décisions de régulation sontinfluencées directement par la politique denormes : licences, offres de référence… Lesrégulateurs n’ont pas la capacité de R&D pouragir sur le processus de normalisation. Parcontre, ils ont de plus en plus besoin d’êtrepartie prenante dans les processus de normali-sation pour anticiper les répercussions sur larégulation, pour optimiser la sélection descandidats aux licences, pour expliciter lescontextes économiques et sociaux danslesquels devront se déployer les nouvellesnormes.

Dans les organismes inter-étatiquesmondiaux comme l’UIT, européens (CEPT,ETSI) la nouvelle organisation des Etats avecdes Autorités nationales indépendantesrequiert une bonne synergie entre ministèreset régulateurs. Par exemple, l’UIT a bienressenti le besoin de mieux associer les régula-teurs en organisant chaque année un congrèsmondial des régulateurs. Une meilleure priseen compte de la dialectique régulation -normalisation par les forums élaborant desstandards contribuerait à rendre moins diffi-ciles sur le terrain l’introduction des nouvellesgénérations de réseaux et de services. C’estessentiel, car les régulateurs ont un rôleimportant dans l’introduction des nouvellesfilières. Le passage à la troisième génération deservices avec les mobiles, le déploiement de laTélévision numérique, l’introduction duWimax, les débats sur les projets de Télévision

avec les portables, quenous vivons actuelle-ment, en sont uneillustration concrète.L’intérêt du marché vavers une meilleurecompréhension entrerégulateurs et instancesde normalisation. ■

Michel Feneyrol,

Membre de l’Autorité

Page 4: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

Dossier - La normalisationDossier - La normalisation

4 LA LETTRE DE L’AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES ● J U I L L E T / A O Û T 2 0 0 6

Accès radio : faut-il encore parler de 4G mobile ?Les innovations dans le domaine des systèmes radio s’insèrent dans un cycle industriel long (18 ans pourle GSM, 12 ans pour l’UMTS), les générations se succédant après une longue phase de développementdont la normalisation est le nucleus. Un « après UMTS » est déjà évoqué, avec quatre à cinq ans d’avance surle calendrier du marché ; il annonce peut-être la fin des générations successives.

Aujourd’hui, le calendrier et lescontours de la génération postUMTS sont flous. Deux voiesmajeures se dessinent : l’une, à

dominante télécoms, repose sur l’écosystèmedes réseaux cellulaires de troisième générationissus des travaux normatif du 3GPP ; l’autreexploite la dynamique des accès sans fil, issusdes réseaux informatiques, où l’IEEEs’impose. Une troisième voie, plus récente,s’ouvre avec la possibilité de raccorder desaccès sans fil de type Wifi ou Bluetooth à unréseau mobile.

Trois voies possibles pour la 4GL’écosystème télécoms reposant sur les

réseaux mobiles de deuxième génération doitrépondre aujourd’hui aux enjeux de la montéeen débits. Le Long Term Evolution (LTE) – quidécrit l’après UMTS au 3GPP – tend vers dessolutions techniques en rupture avec la 3Gactuelle. Les options distinctes retenues pourles voies radio descendante et montanteintroduisent de nouvelles notions complexesaux noms barbares compris des seulsspécialistes : l’OFDMA et le SCFDMA. Si letemps de latence diminue, autorisant enthéorie la VoIP, les contraintes physiquesdemeurent et les débits dépendent des largeursde bande (5 à 20 MHz). Des débits théoriquesde 10 Mbits à 100 Mbits dans le sensdescendant sont à l’étude, autorisant unecertaine flexibilité, sous réserve que lesfréquences soient disponibles.

En parallèle, la seconde voie, dominée parl’industrie informatique, capitalise sur le succèsdu Wifi, soutenu par l’Alliance Wifi, et sur leForum Wimax qui, en-dehors de la normalisa-tion institutionnelle, jouent un rôle clé dans lacertification des équipements. La priorité est icide répondre aux enjeux de la mobilité. L’IEEE aouvert deux chantiers principaux : le 802.16e,dont le contour est défini depuis décembre2005, qui exploite ses liens privilégiés avec leWimax forum, et le 802.20. Les premiersdéploiements du Wibro, évoluant dans lamouvance Wimax, s’amorcent en Corée.

Sous l’impulsion de plusieurs opérateurshistoriques, la convergence fixe-mobile sereplace au coeur du processus normatif

(cf p.6). Exemple : l’Unlicensed Mobile Access(qui permet de piloter un accès radio sans filWifi ou Bluetooth à partir d’un réseau GSM),développé initialement au sein d’un forum adhoc, est maintenant intégré au socle normatifdu 3GPP. L’opérateur mobile élargit de facto sapalette d’accès radio potentiels.

La fin des générations successives ?

La logique de générations successives deréseaux mobiles a vécue. Le GSM a évoluéprogressivement vers les données avec leGPRS et l’EDGE. L’UMTS s’est « fondu »dans les réseaux mobiles en place. Si la couver-ture reste le premier atout d’un réseau mobile,un accès radio unique n’est plus optimal vue ladiversification des conditions d’usages et deservices. Les équipements déployés, les sitesopérationnels, les antennes et les bandes defréquences exploitées constituent un capitalque l’opérateur mobile va chercher à maxi-miser dans sa montée en régime vers le trèshaut débit. Plusieurs modes d’accès radiocoexistent ainsi au sein d’un terminal, àl’exemple des terminaux GSM/Wifi.Toutefois, l’encombrement, la puissance decalcul pour le traitement du signal et ses corol-laires (dissipation thermique et durée de vie dela batterie) limitent cette approche.

L’évolution, lente, est couplée aux progrèstechniques dans ce domaine.

Des opérateurs, parmi les plus significatifsà l’échelle mondiale (Vodafone, ChinaMobile, Orange, Sprint, T Mobile, KPN)viennent d’exposer leurs attentes en matièrede réseaux mobiles de nouvelle génération.Parmi les priorités : une approche cohérenteavec le calendrier des dernières versions del’UMTS (HSDPA) déployées prochainement,une efficacité spectrale nettement améliorée,un temps de latence inférieur à 30 ms, desdébits crêtes supérieurs à 100 Mbits parcellule. Les brevets (cf page 14) font égale-ment l’objet d’un signal fort ; leur impact surles coûts des terminaux s’accentue en effet,dans un contexte où les fonctions s’empilent.Enfin, la transformation du cœur de réseaufait également l’objet de certaines orientationsafin de limiter les ruptures. Ce messageadressé aux structures de normalisationmarque une étape décisive dans la modélisa-tion des futurs réseaux mobiles.

L’harmonisation des fréquences (cf page17), étroitement associée aux économiesd’échelle, dont le calendrier et la mise enoeuvre sont encore incertains, va conditionnercette évolution vers le très haut débit mobile.L’Autorité s’y investit en cohérence avec ledéveloppement actuel du secteur. ■

Page 5: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

Dossier - La normalisationDossier - La normalisation

J U I L L E T / A O Û T 2 0 0 6 ● LA LETTRE DE L’AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES 5

De nouvelles techniques, pourtant déjànormalisées, sont soumises au Comitéd'Experts avant leur déploiement. Pourquoi ?

Ces techniques doivent s'appuyer sur des normesou recommandations internationales, mais cela nesuffit pas car chaque signal véhiculé sur une paire decuivre, en particulier en haute fréquence, constitueune source de perturbation pour les signaux despaires voisines de la boucle locale. Il est de l'intérêtcommun des opérateurs qui partagent l'utilisationd'une boucle locale de maîtriser les techniquesemployées par tous. Une étude de leur pouvoirpolluant spécifique au contexte français estindispensable pour en définir les conditions d'emploi.

C'est pour cette raison qu'en septembre 2002, l'ARTa créé un Comité d'Experts sur la boucle locale, dontles membres sont nommés par le Président de l'Autoritéet qui a rendu une dizaine d'avis (1) sur les techniquesautorisées, dont un avis favorable à l'ADSL2+ aurépartiteur en octobre 2004, premier avis du genre enEurope. En novembre 2005, le Comité a autorisé latechnique READSL2, qui permet d'apporter un servicede quelques centaines de kbit/s à des abonnés éloignésjusqu'à 5 km de leur répartiteur, voire plus.

Qu'en est-il du VDSL2, très prometteur, en France ?Le Comité d'Experts travaille à l'heure actuelle aux

conditions d'autorisation du VDSL2, adopté par l'UIT-T

en février 2006 eteffectivement prometteurgrâce à des débits plusélevés que l'ADSL2+, del'ordre de 30 à 50 Mbit/ssur courte distance envoie descendante.

L'ARCEP, avec leconcours du Comitéd'Experts, développe leséchanges avec d'autrespays européens sur cethème. ■1 www.arcep.fr

DSL, fibre, câble : la normalisation de l’accèsLa normalisation des moyens d’accès au très haut débit pour le grand public fait, depuis de nombreusesannées, l’objet de multiples initiatives associant tous les producteurs de normes. Au-delà desperformances théoriques, chaque mode d’accès fixe - FTTH, câble et DSL - présente descaractéristiques intrinsèques et des contraintes de mise en œuvre propres. Concernant la mise enœuvre des technologies DSL déjà normalisées, l’ARCEP s’appuie sur un Comité d’experts.

100 Mbits/s par utilisateur sur lesréseaux câblés, telle est la promesse de lanorme Docsis et des nouvelles techniquesde modulation associées.

Mais l’accès à Internet très haut débit viale câble, conçu initialement pour ladiffusion audiovisuelle, nécessite une mise àniveau du réseau, proportionnelle à sa

vétusté, qui n’est pas anodine, à l’instar del’investissement massif des câblo-opérateursnord-américains ces dernières années.

Il est également possible d’utiliser unnombre limité de canaux laissés vacants parla télévision. Le débit par utilisateur,descendant et montant, compte tenu de lastructure en arbre, sera assuré par le

paramétrage entre la taille des poches(nombre d’utilisateurs desservis par unearborescence), le taux de contention, le tauxde pénétration. En France, le secteur ducâble, consolidé, se montre volontaire surces enjeux : des accès à 100Mbit/s sont déjà annoncés sur certaines zonesgéographiques. ■

DSL : comment faire cohabiter plusieurs opérateurs sur une même boucle locale de cuivre ?Interview de Catherine Mancini, Présidente du comité d’experts pour l’introduction de nouvelles techniques dans la boucle locale

Aujourd’hui, pour raccorder la fibreoptique jusqu’à l’abonné ou jusqu’àl’immeuble (FTTH), deux solutionsexistent : le point-multi-point (xPON) et lepoint à point (P2P).

Les versions xPON focalisent aujourd’huil’attention de l’industrie en raison des récentescommandes massives passées par plusieursopérateurs aux Etats-Unis et l’intérêt suscitéauprès de certains autres en Europe. Ces sixdernières années, plusieurs générations d’accèsPON ont déjà été déployées à travers lemonde, à l’exemple du Japon où nombred’entre elles cohabitent avec, parfois, desdéclinaisons spécifiques (EPON, GE PON,etc.). L’EPON domine le premier marché del’accès FTTH au monde, la Chine. L’essor duGPON, solution la plus récente, débute àpeine et reste encore à valider à grande échelle.

Le xPON est une fibre optique en arbre,où les débits utiles descendant et montant

sont partagés entre les points d’arrivée (16 à64 selon la norme), avec la possibilité dediffuser des services vidéo sur un canal dédié.Le calcul du budget optique dépend denombreux facteurs, tel le type de fibre oud’équipements optiques d’extrémité. Laperformance réelle, en terme de portée et detaux de partage, se quantifie par le nombrede coupleurs (splitters) partageant le signaloptique sur l’arborescence. Des débits voisinsde 100 Mbits par utilisateur peuvent êtreatteints. La topologie du réseau d’accès estdéfinie par ses caractéristiques (en arbre, enbus, en étoile).

Les solutions point à point (P2P)consistent à dédier une fibre pour chaqueclient raccordé. Passives ou avec équipementsactifs en boucle ou boucle-étoile (hub andspoke), elles privilégient le protocole Ethernetissu des réseaux informatiques. D’abordlimitées au marché des entreprises, à cause des

débits élevés et des coûts associés, cessolutions se développent en Europe (l’italienFastweb, le suédois B2, le français PauBroadband) sur le segment résidentiel depuisle début des années 2000.

Avantages et inconvénients

L’option P2P passive présente la topologiela plus simple et donc la plus évolutive vis-à-vis des éléments actifs de réseau et du modemclient. Elle présage par ailleurs d’un débitgaranti exclusif. L’option xPON est quant àelle avantageuse en cas d’encombrement desfourreaux et de longueur excessive de laboucle locale. Elle présente néanmoins deslimites intrinsèques en terme de partage auniveau physique et donc de mutualisationentre plusieurs opérateurs. En revanche, lecoût de déploiement de ces deux options estproche. ■

La fibre : xPON vs P2P

Le câble : réduire la taille des « poches » avant tout

Page 6: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

Dossier - La normalisation

6 LA LETTRE DE L’AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES ● J U I L L E T / A O Û T 2 0 0 6

Une illustration de la complexité du système normatif

Amorcée au 3GPP (UMTS), sa normalisa-tion s’est aussi inscrite dans le giron du 3GPP 2(CDMA 2000) qui développe le MultimediaDomain, basé sur l’architecture de l’IMS. Lesdeux types de réseaux convergent lentement auniveau du cœur de réseau.

Fort de ses atouts, l’IMS intéresse plusieursopérateurs intégrés tels France Télécom ouAT&T : c’est le maillon fort de leur stratégie deconvergence fixe-mobile dans un contexteéconomique difficile. Les opérateurs dotés d’uncapital en R&D suffisant pour influer sur lanormalisation mobilisent l’action normativepour les réseaux fixes en Europe, à l’ETSI-Tispan, pour transposer l’IMS. Par ailleurs,l’ATIS (Alliance for Telecommunications IndustrySolutions), entité de normalisation nord-améri-caine, amorce un dialogue avec l’ETSI. Enfin, lacommunauté des câblo-opérateurs nord-améri-cains est alertée : malgré le débat houleux sur la« net neutralité », les CableLabs se rapprochentdu 3GPP. Pour terminer, le Forum Wimax, dans

C’est la communauté mobile qui, lapremière, a jeté les bases d’une archi-tecture logique de référence : l’IPMultimedia System (IMS), qui se

superpose à l’infrastructure de transport etdonne à l’opérateur d’accès un contrôle accru desservices et la maîtrise des flux de données dansun environnement de connectivité IP.

Cœurs de réseau NGN : la normalisation en ébullition

ou partie des composantes de l’IMS intégrant à lafois les équipements d’interfaces entre réseauxfixes commutés et réseaux paquets (MediaGateway) ou entre réseaux paquets (Border sessioncontroler). L’enjeu est de taille : les opérateurshistoriques vont investir pour remplacer leurcœur de réseau fixe, à l’instar des 5 Mds£ d’in-vestissements sur cinq ans annoncés par BT. Lespremiers contrats IMS sont déjà annoncés alorsque la normalisation n’en est qu’à sa premièrephase. Un risque de «boîte noire» IMS existe, siun équipementier assumait toutes les compo-santes de l’IMS et proposait une architecture cléen main, neutralisant alors la concurrence.

La première composante de l’IMS se foca-lise sur les services de conversation. Or, lesopérateurs se placent aujourd’hui dans unelogique « tripleplay » voire « quadrupleplay ».

L’IMS et l’IP TV apparaissent comme deuxbriques essentielles dans la stratégie des opéra-teurs intégrés. Ces « silos » vont-ils coexister demanière indépendante ou une synergie pourra-t-elle se dégager, autorisant des innovations deservices sous le contrôle de l’opérateur ?Comment vont cohabiter les réseaux de diffusionde télévision sur mobile qui pourraient émerger,avec des réseaux mobiles intégrant l’IMS?

Quel rôle pour le régulateur ?Lorsque le débat atteint ce degré de

complexité et de confusion, le régulateur doit-il abandonner toute ambition ?

Le basculement des réseaux fixes et mobilesvers les réseaux de nouvelle génération intègreune composante stratégique non discutable. Lerégulateur a peu d’argument à avancer lorsquel’industrie s’interroge, par exemple, sur unefusion de certaines activités de l’ETSI-Tispanavec le 3GPP. Par contre, s’il veut contribuer auprocessus, le régulateur doit faire entendre sa voixet participer, de manière coordonnée avec seshomologues européens, aux instances de norma-lisation européennes, et notamment à l’ETSI.Une structure de l’ETSI (l’OCG ECN&S) ad’ailleurs été créée pour faire le lien entre, d’unepart, la communauté des administrations, desrégulateurs, la Commission européenne et,d’autre part, les groupes de travail de l’ETSI et lesenceintes de normalisation où rayonnent les inté-rêts de l’ETSI (3GPP et MESA). ■

L’Union Internationale des Télécom-munication (UIT), la « veille dame », tente –difficilement – de fédérer toutes ces initiativeset de s’imposer comme l’architecte du système.

L’IMS illustre bien la complexité dusystème. Il repose sur le protocole SIP, déve-loppé par l’IETF, « pilote technique » del’Internet et du protocole IP, dont les méca-nismes internes et l’interaction avec le 3GPP etle 3GPP2 ajoutent à l’instabilité de l’ensemble.De la même manière, l’Open Mobile Alliance,qui définit les services mobiles et pilote leurinteropérabilité, travaille en corrélation avec le3GPP et le 3GPP2 et s’intéresse désormais auxproblématiques des réseaux fixes dans le cadrede la convergence fixe-mobile.

Un risque de « boite noire »Quoiqu’il en soit, le train IMS s’ébranle et

trouve écho dans l’industrie sur le socle despremiers développements de la voix sur IP asso-ciant équipementiers du monde des télécoms etdu secteur informatique.

Certains d’entre eux se positionnent sur tout

lequel une communauté d’opérateurs s’estconstituée, succombe à la tentation : lespremières démarches en direction du 3GPPseraient imminentes, selon les experts. En plusde ces initiatives industrielles, la Chine, la Coréeet le Japon ont également décidé de monter unestructure de réflexion commune sur les NGN.

La migration des réseaux des opérateurs historiques et la mutation, plus discrète, des réseaux mobilesvers les réseaux de nouvelle génération (IMS-NGN) a ouvert un gigantesque chantier normatif où pratiquement chaque région du monde tente de jouer sa partition. L’UIT peine à conserver sa position dechef d’orchestre dans cette gigantesque cacophonie normative. Illustration de la complexité du système.

Page 7: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

Dossier - La normalisation

J U I L L E T / A O Û T 2 0 0 6 ● LA LETTRE DE L’AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES 7

Télévision numérique : dans le maelström de la normalisationL’arrivée de la télévision numérique s’accompagne d’une « guerre » des normes au niveau mondial. Latélévision sur IP, au cœur de la convergence télécoms, informatique et audiovisuel, peine encore à trouver sesmarques dans la jungle de la normalisation. Revue de détail.

prochaines années, l’accroissement desperformances du MPEG4 pourraitfavoriser, dans le cas de la TV sur DSL parexemple, une couverture élargie en TV

standard monocanal, la diffusion de 2canaux TV standard simultanés et ladiffusion, dans de meilleures conditions,en haute définition. ■

Le groupe de travail MPEG (MovingPicture Expert Group) est à l’origine desspécifications de codage et de compressiondes médias audio, vidéo et graphiquesreprises par l’industrie afin d’optimiser lesressources de transmission pour ladiffusion de contenus vidéo numériques.Conçu pour la télévision numérique (dansl’environnement satellite, câble etterrestre) et les DVD, le MPEG 2 estutilisé pour la télévision sur DSL.Largement optimisé par l’industrie etrépandu à l’échelle mondiale, il atteintaujourd’hui des limites en terme decompression et ne progresse plus.

L’attention se focalise désormais sur leMPEG 4 qui apporte des codages plusperformants, au prix toutefois d’unecomplexité supérieure, entraînant desinvestissements industriels significatifs quidevront être rentabilisés par la suite. Entoile de fond, le débat sur les conditionsd’accès aux brevets agite actuellementfortement l’industrie. Depuis 2006, leMPEG 4, stimulé par la croissance dumarché américain, permet de réduire d’unfacteur deux le format des canauxnumériques vidéo. Au cours des

Normes de compression et de codage : MPEG2 et MPEG4

Le passage de la télévisionanalogique à la télévision numériqueengendre une guerre de normes àl’échelle mondiale. Le projet DVB, aucœur de la lutte, est à l’origine de lafamille de normes DVB satellite, câble,terrestre et mobile avec plus de 55

spécifications, publiées en grande partiepar l’ETSI. Ce projet cherche àmaximiser les éléments communs auxdifférentes composantes de la chaînetechnique (satellite, câble, terrestre oumobile) et une compatibilité ascendanteentre les différentes options (DVB-H,

DVB-T). Des économies d’échelleattractives sont ainsi générées etréduisent le coût de déploiement. Ceprojet, porté par l’industrie européenne,fait face aux normes ATSC (Etats-Unis)et ISDB-T (Japon). L’issue est encoreincertaine. ■

Télévision numérique et guerre des normes

Les services de télévision sur DSL sedéveloppent dans un cadre normatifdéficient, s’appuyant sur plusieurscomposantes propriétaires incompatiblesentre elles. En réaction, les initiatives denormalisation se multiplient, impliquantplusieurs structures telles l’UIT, l’ETSI,l’IETF, le DSL forum, le projet DVB et laHome Gateway Initiative.

Deux mécanismes de routage IP se

distinguent déjà : le multicasting (le contenuest diffusé vers un nombre de points limitéset identifiés) et l’unicasting (le contenu estdiffusé vers un point unique). Lanormalisation devra permettre auxfournisseurs de services de se différenciertout en proposant un équilibre entre stabilitéet innovation, et un cadre d’interopérabilitésynonyme d’économies d’échelle et deréduction des coûts. Son périmètre

d’intervention va progressivement sedessiner au gré du calendrier ou desarbitrages entre acteurs et structures :couches d’interfaces au sein de la set top box,de la home gateway (plate-forme du réseaudomestique), protection des contenus,composantes du système point à point, etc.

Les enjeux sont à la hauteur de laconvergence des télécoms, de l’informatiqueet de l’audiovisuel. ■

L’IP TV au centre de la convergence

Page 8: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

8 LA LETTRE DE L’AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES ● J U I L L E T / A O Û T 2 0 0 6

L’UIT au centre de la nébuleuse

Responsable de la coordination avec l’UIT etdes questions de normalisation à l’ARCEP,Marie-Thérèse Alajouanine a été nomméelors de l’Assemblée mondiale de lanormalisation, en novembre 2004, Présidentede la Commission d’études 2, qui s’intéresseaux aspects opérationnels de la fourniture deservices, des réseaux et à la qualité de leur

fonctionnement, au sein de l’activité denormalisation de l’UIT.

Marie-Thérèse Alajouanine est la premièrefemme à présider l’une des treizeCommissions d’études de l’UIT-T depuis lacréation de ce « secteur », il y a cinquanteans. Elle participe également au groupe

consultatif de la normalisation destélécommunications aux côtés de la DGE et anime, en tant que présidente, lastructure de coordination française destravaux de l’UIT-T qui réunit les membres del’Administration (DGE, ARCEP, ANFr) et lesmembres français du secteur privé participantà ces travaux.

Marie-Thérèse Alajouanine : une pionnière de l'UIT-T

Dossier - La normalisation

Née en 1865 de la signature de laconvention de l’Uniontélégraphique internationale,l’UIT a accompagné toutes les

étapes des évolutions technologiques tout ens’adaptant à l’environnement international.Elle est rattachée à l’ONU, dont elle devientune institution spécialisée en 1947.

Cette « vieille dame » de 141 ans estcomposée de 190 Etats et de plus de 600membres du secteur privé, l’UnionInternationale des Télecommunications apour principal objectif est de promouvoir ledéveloppement des télécommunications, surfond de coopération internationale, avec unsouci d’harmonisation à l’échelle mondiale.

Ses champs d’action se décomposent entrois « Secteurs » : le développement destélécommunications (UIT-D), la norma-lisation des télécommunications (UIT-T) etles radiocommunications (UIT-R).

Au cœur de la normalisation depuis 50 ans

Depuis cinquante ans, le secteur de lanormalisation des télécommunications seconsacre à l’élaboration de normesinternationales techniques et d’exploitationà travers l’action, depuis 1992, de l’UIT-T.Des d’experts se réunissent ainsi toute

l’année pour mettre en commun leurscompétences au sein de Commissionsd’études (au nombre de treize) qui élaborentdes « Recommandations » assimilables à desspécifications techniques et des paramètresde fonctionnement pour les équipements etles systèmes couvrant chaque aspect del’exploitation du réseau. Par exemple, laRecommandation H.323, qui a facilitél'acheminement des signaux téléphoniques,vidéo et de données sur l'Internet, a joué unrôle essentiel dans la conception denouveaux services de téléphonie sur IP touten garantissant l'interopérabilité entre lesproduits de différents fabricants.

Plus de deux cents Recommandationssont publiées chaque année par l’UIT-Tdont le programme de travail est approuvépar l’Assemblée mondiale de normalisationdes télécommunications qui détermine lespriorités et l’urgence des travaux denormalisation. Cette dernière se réunit tousles quatre ans, sauf exception, et approuve,modifie ou refuse les projets derecommandation de l’UIT-T.

Réduire les délais de production de la norme

Dans un environnement où les systèmeset les services de télécommunications

évoluent toujours plus vite, la productionde normes doit se faire dans des délais brefset selon des procédures fixées à l’avance.Consciente de cet enjeu, l’UIT-T arécemment optimisé ses procédures denormalisation en simplifiant les méthodesd’approbation et en réduisant le tempsmoyen d’élaboration de ses normes. Alorsqu’il y a dix ans il fallait compter quatreannées pour élaborer une norme, huitsemaines suffisent aujourd’hui dans le casdes normes techniques et neuf mois sontnécessaires lorsque les Recommandationsont des implications politiques ouréglementaires.

Alors que la concurrence s’intensifiesur les marchés, ce travail denormalisation, auquel sont associés lesgrands noms du secteur des télécom-munications, se traduit par la mise enœuvre d’un cadre solide permettant auxfabricants de rivaliser sur les marché sansentraves d’ordre technique et par lapossibilité de réaliser de très importanteséconomies d’échelle et de réduire les coûtsde développement. A ce titre d’ailleurs,l’UIT se présente comme un forummultilatéral où les débats constructifsmènent à un consensus au bénéfice duconsommateur. ■

Première organisation internationale jamais créée, l’UIT a longtemps été, et resteencore, au coeur du développemment des télécommunications à travers lemonde. La normalisation est la plus ancienne de ses activités, formalisée dans unestructure sectorielle, aujourd’hui l’UIT-T, qui fête son cinquantième anniversaire cet été.

Page 9: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

Dossier - La normalisation

J U I L L E T / A O Û T 2 0 0 6 ● LA LETTRE DE L’AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES 9

La galaxie de la normalisationDeux cents à cinq cents instances – selon le périmètre retenu – jouent un rôle dans la normalisationdes réseaux et des services de communications électroniques. En outre, des accords de coopérationexistent entre nombre d’entre elles. Tour d’horizon, non exhaustif, de quelques unes de ces entités quijouent un rôle structurant dans cette tectonique des plaques.

La normalisation institutionnelle, socleoriginel, se structure autour de troiscomposantes : le niveau internationalet les échelons régionaux ou natio-

naux. Au sommet de cette pyramide cohabitentles trois organisations sectorielles : l’UIT (télé-communications), l’ISO (généraliste), la CEI(électricité) reconnues par l’OrganisationMondiale du Commerce. Initialement pilotéeexclusivement par les gouvernements, l’UIT, parexemple, s’ouvre largement au secteur industriel.Les recommandations de l’UIT conservant unimpact majeur dans le cadre réglementaire, lesgroupes d’influence cherchent à y faire adopterleur options, orientations, spécifications.

En Europe, trois entités régionales répliquentl’organisation sectorielle internationale : l’ETSI(télécommunications), CEN et CENELEC.Elles bénéficient du statut d’organismes denormalisation reconnus par la Commissioneuropéenne. Des mandats de normalisationélaborés après un processus de consultation desEtats membres peuvent ainsi leur être confiés.Emanation de la CEPT créé à la fin des années80, en prévision de l’ouverture à la concurrencedu secteur des télécommunications, l’ETSI sedistingue des deux autres entités par sagouvernance, ses mécanismes de financement etson rayonnement au delà du simple cadreeuropéen. Dans ce contexte, l’échelon nationals’estompe nettement même si, par exemple, laCGTEC, placée sous l’égide de l’AFNOR,représente un lieu de concertation apprécié desmembres français de l’ETSI et de l’UIT.

Dans une économie mondialisée, lescollaborations à l’échelon internationals’intensifient. L‘exemple de la normalisation desréseaux mobiles est significatif. Elle se construitau sein du 3GPP (pour l’évolution du systèmeGSM) où l’ETSI joue un rôle majeur et du3GPP2 (pour les générations successives duCDMA). Ces deux projets en partenariat -nouvelle forme de coopération internationaleapparue pour normaliser la troisième générationmobile – regroupent des membres d’organismesnationaux : ATIS (Etats Unis), ARIB, TCC(Japon), TTA (Corée), CCSA (Chine). Un soclecommun se dessine, même si de nombreusesdisparités régionales et nationales persistent. Enécho à ces deux structures centrées sur lescouches les plus basses des réseaux, l’OMA(Open Mobile Alliance) investit l’univers desniveaux intermédiaires et des services.

Internet bouscule le landernauL’émergence d’Internet, au cours des années

90, a bousculé le landernau de la normalisationinstitutionnelle en générant ses propres entités degouvernance et de spécifications techniques où lecontexte historique nord américain joue encoreun rôle. L’ICANN gère les ressources en noms dedomaine et adressage (adresses IP). L’IAB etL’IETF produisent les standards liés au protocoleInternet. Progressivement assimilés et digérés parle secteur des télécommunications, de nombreuxréférentiels de l’IETF deviennent le socle desfuturs réseaux mobiles ou fixes.

La montée en puissance du « sans fil » a, parcontre, révélé l’influence de l’IEEE, sociétésavante dont 40 % des membres sont localiséshors des Etats Unis, au travers de la productiondes spécifications pour les réseaux locaux etmétropolitains fixes ou radio : la famille802.xx. Des consortiums, tels la Wifi alliance(interopérabilité des équipements 802.11x), leWimax Forum (interopérabilité des équipe-ments 802.16x, entre autres) appuient le

rayonnement international de cette entité, parailleurs, membre des secteurs de l’UIT.

Dans un contexte de convergence multi-formes fixe-mobile, voix-données, télécoms-informatique, une seule entité peutdifficilement maîtriser l’ensemble de la chaînenormative. Les forums, associations, consor-tiums, malgré leurs droits d’entrée souventélevés, restent toujours des outils prisés dans lastratégie des équipementiers, des éditeurs delogiciel mais également des principaux opéra-teurs fixes, mobiles voire des câblo-opérateurs.Par exemple, les « cablelabs », créé par les câblo-opérateurs nord américains au cours desannées 90, font référence dans le domaine desspécifications des réseaux câblés. Restera alorspour ces structures à trouver la meilleure voiepour influencer les normes émanant des struc-tures institutionnelles.

Dans ce maelström industriel, le régulateuradopte une approche modeste et pragmatique.L’UIT et l’ETSI restent deux balises incon-tournables. ■

ICANN Internet Corporation For Assigned Names and NumbersIEC International Electrotechnical Commission IEEE Institute of Electrical and Electronics EngineersIETF Internet Engineering Task Force ISO International Standards OrganizationJTC1 Joint Technical Committee 1TIA Telecommunications Industry Association TTA Telecommunications Technology AssociationTTC Telecommunication Technology CommitteeUIT Union Internationale des TélécommunicationsUTE Union Technique de l'Electricité W3C World Wide Web Consortium

3GPP 3rd Generation Partnership Project ACIF Australian Communications Industry ForumAFNOR Association française de normalisationARIB Association of Radio Industries and BusinessesATIS Alliance for Telecommunications Industry Solutions CCSA China Communications Standards AssociationCEN Comité Européen de NormalisationCENELEC Comité Européen de Normalisation Electrotechnique ETSI European Telecommunications Standards Institute GSMA Groupe Speciale Mobile AssociationIAB Interactive Advertising BureauIANA Internet Assigned Numbers Authority

Page 10: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

Dossier - La normalisation

10 LA LETTRE DE L’AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES ● J U I L L E T / A O Û T 2 0 0 6

Comment un équipementiertélécom vit-il latransformation du systèmede normalisation,notamment par lamultiplication des forumstechniques ?

La loi des marchés est ainsifaite, qu’aujourd’hui plus que

jamais, lestechnologies secroisent dans leurs

origines et dans leurs applications. Jusqu’à présentune technologie développée pour un marché destélécommunications trouvait principalement sonapplication sur ce marché. Depuis peu, laconvergence, si souvent évoquée, aboutit pour unemême technologie à une multitude d’applicationsou de déclinaisons.

En outre, la forte dynamique des marchés des

télécommunications fait émerger sans cesse denouvelles technologies. Afin de garantirl’interopérabilité nécessaire au lancement desservices commerciaux, de nouveaux forums secréent à l’initiative d’organismes déjà existant ou parregroupement d’acteurs présents sur ces domaines.Leurs champs d’application sont parfois différents :règlementaire et/ou normalisation, leurscomportements aussi : organisations ouvertescherchant à évangéliser le marché ou exclusivementréservées à leurs membres.

La maturation des technologies et le pragmatismedes acteurs du marché provoquent très souvent lafusion de ces organisations. Ceci ne résout cependantpas tous les problèmes : les voix qui se regroupentsont souvent discordantes et rendent les décisionsdifficiles à adopter voire très complexes à implémenterdu fait de multiples concessions entre les parties.

Cependant, quand le paysage reste trop

longtemps fragmenté, le risque est de voir deslancements de services libres et non réglementés,donc très souvent propriétaires avec les limites de cesystème sur l’interopérabilité et donc la capacité à segénéraliser rapidement.

Les brevets jouent un rôle important dans lanormalisation. Autant certains peuvent protéger desinventions majeures, autant d’autres, parfois mineursmais placés dans les normes, ont un impactsignificatif sur le coût des produits.

Sagem Communication, présent sur l’ensembledes technologies des télécommunications et duhaut débit, est parti prenante de nombreuxorganismes. Nous pouvons ainsi anticiper lestendances réglementaires et normatives du marchétout en contribuant à leur élaboration. Cetteapproche nous permet de satisfaire au mieux lesbesoins du consommateur. ■

www.sagem.com

GRÉGOIRE OLIVIER - Safran Membre du Directoire de Safran - Président Directeur Général de Sagem Communication

Qu’implique, en matière denormalisation, l’introductiondu logiciel dans les télécoms ?

L'adoption généralisée destechnologies de l'informationdisponibles dans le commerce(microprocesseurs, langagesde programmation, systèmesd'exploitation, intergiciels) pardes fabricants d'équipements

télécoms, mûs par un besoinde réduire les coûts, donneactuellement lieu à uneconvergence au niveau

technique de l'infrastructure des communications etdes systèmes d'information. En conséquence,l'industrie des technologies de l'information et de lacommunication (TIC) fait face à de nouveaux défisdans le domaine des normes et des brevets.

Les normes ont toujours joué un rôle central dansl'industrie des télécommunications pour garantirune interopérabilité efficace entre des systèmescomplexes. Dans ce domaine, l'accent atraditionnellement été mis sur les comportementsobservables sur une interface bien définie et sansprésomption d’une réalisation sous-jacente.Partant, ces normes ont généralement pu restertechnologiquement neutres et promouvoir laconcurrence. Par ailleurs, les fabricantsd'équipements télécoms rentabilisent de longuedate leurs investissements en recherche etdéveloppement par l'introduction d'innovationsbrevetées sous forme de normes utiles.

Les normes logicielles quant à elles sont axées surla spécification de langages d'abstraction desdonnées, de langages de programmation ainsi qued'interfaces logicielles pour des systèmesd'exploitation ou des intergiciels comme des bases

de données. Les systèmes logiciels se caractérisenten outre par une organisation en couches où desgains de productivité sont réalisés grâce auxabstractions fournies par les couches supérieures.Ce sont ces dernières qui doivent faire l'objet d'unenormalisation TIC. Cependant, dans de nombreuxcas, ces couches supérieures dépendent decouches inférieures dont les réalisations sontdevenues des normes propriétaires rendant difficilel'élaboration de normes technologiquement neutres.En outre, les logiciels évoluent très rapidement, cequi contraint les systèmes de brevetage à produiredes définitions pertinentes de brevets logiciels et lesorganismes chargés des normes TIC à élaborer lesnormes correspondantes. Enfin, l'incertitude autourde la définition et de l'applicabilité des brevetslogiciels freine encore davantage l'émergence d'unenormalisation publique TIC viable. ■

www.hp.com

DAVE PENKLER - HP OpenCall SoftwareDirecteur Technique

Alors que l’audiovisuel fait sarévolution numérique, quelleplace joue la normalisation ?Le passage de l’analogique aunumérique en matière de vidéoest inéluctable : ce n’est plusqu’une question de calendrier.Le fait que le monde entier ait

désormais décidéde soutenir voired’accélérer lecalendrier, est unebonne chose pour

l’industrie comme pour l’utilisateur. Parce qu’envidéo, un triple phénomène, à mon avis importantdéfinit le processus : le passage en numérique, lahaute définition – d’une façon générale la montéeen qualité –, et la mobilité. Le numérique vafinalement permettre de diffuser de la meilleure

qualité sur une bande passante plus étroite, pluscondensée. Voilà la vraie clef économique :permettre à la fois à la haute définition et à lamobilité de se développer.Pour ce qui est du strict aspect de la normalisation,je dirais que tout s’organise autour des normes decodage. C’est un domaine où l’industrie de la vidéoa plutôt été un précurseur puisque tous les codagesMPEG2, MPEG4, etc., existent depuis longtemps.Chose rare, ils ont été rapidement en avance dephase sur le marché, alors que la normalisationarrive le plus souvent après. Je pense que lanormalisation du « Mpeg » (Mpeg2, Mpeg4) a étéplutôt un modèle de ce qu’il faut faire ennormalisation. Et un exemple à suivre également enmatière de propriété intellectuelle qui, via desnormes, est commercialisée par les inventeurs sousforme de brevets mais à des prix assezraisonnables pour ne pas empêcher l’explosion du

marché.Les normes « Mpeg » sont la preuve que le passagede la R&D à la normalisation peut fonctionner, àl’instar d’autres exemples de best practice commele GSM dans les télécoms. Néanmoins, ce n’estpas toujours le cas : le DVD haute définition est letémoin d’un combat de titans pour un standard, quin’a pas d’autre effet que de retarder le marché.Finalement, si la haute définition et la mobilité ontdémarré, la difficulté réside plutôt dans lanumérisation. Or le problème n’est pas lié à lanormalisation mais plutôt à la réglementation. Eneffet, alors que les services concernés sontpopulaires, et qu’ils ont potentiellement un énormesuccès commercial, la question peut être alors :comment aller plus vite pour dégager les bandes defréquences nécessaires au bon développement deces services ? ■

www.thomson.net

JACQUES DUNOGUÉ - ThomsonDirecteur Général Adjoint

Poin

ts d

e vu

e

Page 11: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

Dossier - La normalisation

J U I L L E T / A O Û T 2 0 0 6 ● LA LETTRE DE L’AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES 11

Bernard Dupré, Délégué général – AFUTT

Les enjeux de la normalisation pour les utilisateurs

l’AFUTT incite vivement les four-nisseurs à se conformer, aminima, à la norme NF X 50-798qui fixe un référentiel de délais etde qualité des réponses.

Mais il ne suffit pas de disposerd'une norme pour que l’utilisa-teur en bénéficie ; encore faut-il qu’elle soit reconnue etappliquée sur le marché. Ainsi,par exemple, l’échange desSMS entre opérateurs, bien que parfaitementspécifié, a dû attendre plusieurs années avant d’êtremis en œuvre au bénéfice de tous. Aujourd’hui, lesconsommateurs attendent que les messageriesinstantanées soient interopérantes ; ils l’espèrentaussi pour les services de visiophonie.Le régulateur a un rôle majeur à jouer pour faire ensorte que la concurrence soit équitable et que l'utili-sateur puisse bénéficier des effets positifs de lanormalisation. Pour cela, il faut inciter les opérateursà s’orienter résolument vers des solutions ouvertes etfournir des informations fiables et comparables sur lecontenu de leurs offres, la qualité de service et l'inter-opérabilité auxquelles ils s'engagent. ■

www.afutt.org

Dans le contexte actuel, fortement concurrentiel, lapriorité pour les fournisseurs de services est à laconquête de nouvelles parts de marchés et à laconservation des parts de marchés acquises. Enoutre, les utilisateurs, tout en restant sensibles à laréduction des coûts, sont de plus en plus soucieux del'interopérabilité et de la qualité de service des offresqui leurs sont proposées, ainsi que des services derelation client qui leurs sont nécessairement associés.

A cet égard, l’AFUTT, qui a été en 1988 l’un desmembres fondateurs de l’ETSI, l’institut européen denormalisation des télécoms, est convaincue que lanormalisation est un outil indispensable, protecteurdes utilisateurs, qu’ils soient particuliers ou entreprises.

Le formidable succès mondial de la norme GSM estlà pour nous rappeler la force économique des normeslorsque toutes les parties concernées y adhèrent. Maiselles sont aussi indispensables pour assurer l'interopé-rabilité ou pour mesurer la qualité de service à partird’indicateurs comparables.

Parmi les freins au développement d’une saineconcurrence, on trouve en bonne place le recours àdes solutions techniques propriétaires qui réduisent lechoix des équipements compatibles, limitent le déve-loppement des services associés et pénalisent lepassage à un autre fournisseur.

L'utilisateur attend de la normalisation qu’elle luipermette de composer les solutions qui lui convien-nent à partir des offres des différents fournisseurs deservices ou d’équipements terminaux, indépendam-ment des réseaux, ce vers quoi devraient tendre lesNGN (réseaux de nouvelle génération).

Pour être pleinement satisfaisante, la normalisationdoit pouvoir aller jusqu’à standardiser la connectiqueet l’ergonomie des services, ce qui est loin d’être lecas, suscitant l’agacement de bien des consomma-teurs, perplexes par exemple devant une collectionde chargeurs de batterie !

Par ailleurs, pour éclairer son choix, le consomma-teur a besoin d’informations transparentes sur les prixet la qualité de service. En ce sens, sans prétendreétablir des spécifications techniques, l’AFUTT s'efforce de formaliser les attentes fonctionnelles desutilisateurs. Ainsi, en matière d'interopérabilité, elle asoutenu la production d'un guide ETSI (EG 202 308)qui donne le point de vue des utilisateurs sur cethème. Dans le domaine de la qualité de service,l'AFUTT a aussi largement contribué à la rédaction duguide ETSI (EG 202 009) et continue à travailler à sarévision. Elle collabore activement aux travauxengagés par l’ARCEP pour la mise en place d’indica-teurs de qualité. En matière de relation client enfin,

Emmanuel Gabla, Chef du service des technologies et de la société de l’information– DGE (Ministère de l’Economie et des Finances)

Les normes,outils de la guerre économique ?

beaucoup impliqué), témoignantainsi, vis-à-vis du système denormalisation, d’un positionnementnouveau, avant tout dicté par une logiqueéconomique.

Aujourd’hui, la normalisation peut aider à orienterles développements pour des mises sur le marché àl’horizon de deux-trois ans, voire moins. Elle doit êtreintégrée dans toute stratégie d’entreprise, au moinsau même titre que les brevets, la prospective ou l’in-telligence économique.

Elle ne doit plus être l’apanage des grandsgroupes, mais impliquer également les PME car lesnouveaux thèmes de travail (IPTV, RFID, GRID,Réseaux de prochaine génération (NGN)…) requièrent des compétences pointues que peuventdétenir des petites équipes spécialisées.

La normalisation représente tout à la fois uneoccasion de valoriser son savoir faire et un moyenefficace de s’informer sur les dernières tendancestechnologiques et de bénéficier ainsi d’une alerteprécoce sur les fameux « signaux faibles ».

Elle est donc sans aucun doute un outil essentieldans la compétition économique que se livrent tantles entreprises que les blocs économiques ! ■

www.telecom.gouv.fr

La notion de normalisation reste souvent associéeà l’idée d’un travail de longue haleine, parfois ésoté-rique et dont les bénéfices sont difficiles à cerner.Fondée sur le consensus, la transparence desprocessus et l’accès de tous aux mêmes informa-tions, la normalisation peut donc apparaître commeune démarche quasi-idéalisée. Relèverait-elle pourautant de l’acte désintéressé, de la philanthropie ?

Ce serait se méprendre que de le croire. En effet,dès l’avènement de l’ère industrielle, toutes lesgrandes avancées dans le domaine de la normalisa-tion (systèmes de mesure, règles de conception dessystèmes de transport, etc.) se sont inscrites dans uncontexte de concurrence technique, voire politique.

Le domaine des technologies de l’information et dela communication (TIC) n’est pas en reste, ayant vécudes transformations radicales ces vingt dernièresannées (transformation d’administrations en sociétéprivées, introduction de la concurrence…). Ces trans-formations ont mis fin à un système normatif mondial,structuré et centralisé, dont les symboles étaient leCCITT, le CCIR et l’UIT.

La convergence entre télécommunications et infor-matique a également transformé la nature desproduits et services des TIC ; elle a considérablementaccéléré les cycles, tant dans le domaine de la

production que dans celui de l’utilisation des normes,mesurés désormais en mois et non plus en années.Ses conséquences sont profondes, que ce soit letransfert de valeur des infrastructures vers les interfaces et les applications ou la protection accruedes droits de propriété industrielle, corollaires d’investissements toujours plus importants enrecherche et développement.

La structure du secteur ayant changé, le paysagede la normalisation en a été directement affecté. Ainsinaissent et sont testées de nouvelles démarches,comme les fora et les consortia, instances souventconstituées sur une thématique précise, avec commeobjectif un résultat concret et rapide…

En réaction, les institutions officielles développentde nouvelles offres pour inciter en premier lieu leursmembres à privilégier les enceintes internes (groupespécialisé à l’UIT-T, accords d’ateliers CEN-ISSS),pour transformer les résultats de ces fora ou consortiaen normes ou standards (procédure fast track à l’ISO)ou développer des formules de partenariat, tel le3GPP à l’ETSI.

Si les organismes officiels peuvent revendiquer,grâce à leur démarche « classique », des succèsincontestables (GSM et 3G à l’ETSI, VDSL à l’UIT), lessuccès du WiFi sont ceux de l’IEEE (où Intel s’est

Points de vue

Page 12: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

Dossier - La normalisation

12 LA LETTRE DE L’AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES ● J U I L L E T / A O Û T 2 0 0 6

Quel est l’intérêt de la recherchefondamentale pour un équipementier ?

En amont, la recherche fondamentaleest un énorme atout. Nous couplonsobservations et modélisations mathéma-tiques pour étoffer nos connaissances etaboutir à des applications concrètes. Envoici deux exemples : l’étude de l’organi-sation et de la structure des éponges dansles grands fonds marins nous a permisd’améliorer la fabrication des appareilsoptiques. Nous analysons comment lesaraignées tissent leur toile pour essayer deconcevoir des réseaux sans fil qui s’auto-organisent.

C’est aussi un excellent moyen deconforter notre portefeuille de droits depropriété intellectuelle.

Comment passe-t-on de la recherchefondamentale à la normalisation ?

Auparavant, ce processus se faisait demanière linéaire : nous inventions unproduit, sans avoir la moindre idée de ceque nous allions en faire, puis nous lenormalisions. Une fois sur le marché, leproduit ne répondait pas forcément auxattentes de la demande, voire étaitinvendable… Cette méthode n’étaitévidemment pas rentable.

Aujourd’hui, le processus est inter-actif : nous essayons de créer un espaced’échanges entre les chercheurs, leséquipes chargées de la normalisation et lesspécialistes du marketing et des produits,qui s’apparente à une standardisation desrapports en interne. Nous faisons doncdes études de marché, pour tenterd’anticiper les évolutions et prévoir quelsseront les services dont les opérateursauront besoin. Ces études sont mises à ladisposition des chercheurs. Dans le mêmetemps, les responsables du marketing etdes produits découvrent les idéesnouvelles sur lesquelles leurs collègues dela R&D travaillent.

Ainsi, si nous voyons que nous nousengageons dans la bonne direction, nousinvestissons davantage dans la recherchepour développer ces idées. À partir de cemoment-là, l’équipe chargée de lanormalisation et celle chargée desproduits travaillent ensemble. Elless’interrogent alors sur les manières et lesmoyens à employer pour arriver au

produit final en définissant ce qu’il fautnormaliser – ou pas – pour se démarquerde la concurrence sans nuire à l’inter-opérabilité du produit avec ceux desautres équipementiers.

Comment s’assurer d’une bonneinteropérabilité entre produits ?

C’est une gageure ! Un client sollicitegénéralement plusieurs fournisseurs,d’où la nécessité pour ces derniers deproposer des produits compatibles entreeux, sous peine de s’exclure du marché.La téléphonie mobile en est la meilleureillustration, tant au niveau deséquipements que des services. Aujour-d’hui, chacun s’efforce donc de respecterdes normes minimales avant de déployerun produit.

Car ce sont les normes qui condition-nent très largement l’interopérabilité.Mais il ne s’agit pas d’attendre qu’unenorme soit définie et de l’appliquer à lafabrication d’un produit pour que celui-ci soit bon. Encore faut-il, au préalable,bien identifier le besoin afin de mieuxappréhender l’ensemble de normes exis-tantes, voire d’en créer, sans perdre devue l’interaction qui peut exister entre-elles.

Le succès d’un produit tient égale-ment à notre présence au sein de lamultitude d’organismes de normalisationexistants : il est nécessaire de suivre lesréalisations en cours et de comprendre ceque chacun essaye de faire.

Quel délai faut-il pour passer de l’idéeinitiale au produit final ?

Pour certaines applications, le processus,s’il est bien encadré et ne connaît pas decontraintes particulières, peut aboutir trèsrapidement : nous avons pu transformer uneidée en un produit en moins de deux ans,normalisation comprise.

A l’inverse, pour le MIMO (Multiple-Input Multiple-Output), système d’antennesmultiples permettant de plus haut débits –que nous introduisons au 3GPP – le produitn’existe toujours pas alors que Bell Labs l’ainventé… il y a dix ans. Il ne faisait pournous aucun doute qu’il fallait normaliser ceproduit, mais ce projet était tellementrévolutionnaire que nous en avons étéempêchés. Car, avant de normaliser unproduit, vous devez être capable de le réaliser.Si vous êtes le seul à détenir ce savoir-faire, ilfaut être convaincant, une technologie nepouvant être normalisée qu’avec l’aval duplus grand nombre. Or les entreprisespeuvent bloquer le processus denormalisation, soit par scepticisme, soit parune manœuvre visant à gagner du tempspour combler un retard technologique.

Pouvez-vous nous citer d’autresexemples concrets ?

Prenons l’IMS (IP Multimedia Subsystem)par exemple : nous avons vraiment poussépour que la norme 3GPP2 intègre la VoIPtrès rapidement d’autant que, peu coûteuse,cette dernière peut être couplée avec d’autresservices IP. Nous avons donc fait un grandeffort pour pouvoir déployer la 3GPP2 avecde la VoIP de grande qualité: les premierssystèmes seront mis en œuvre dès cetteannée.

Nous travaillons également beaucouppour mixer les services « sans fil » avec lesservices d’IPTV. Toutefois cela implique uneconvergence des opérateurs de réseaux sansfil et de réseaux filaires, et donc une grandeinteropérabilité, chacun utilisant le réseau del’autre pour que les services se superposent.C’est à cette condition que l’on pourra parexemple voir s’afficher des SMS sur nosécrans de télévision. ■

De la R&D à la normalisation

Entre 12 000 et 13 000 personnes travaillent aux Bell Labs. Cet effectif comprend lesdéveloppeurs et les personnes qui travaillent sur les normes, c'est-à-dire la partie « D » de laR&D. Dans la partie « R », on compte environ 1 000 chercheurs.

Plus de 10.000 personnes travaillent aux Bell Labs

Aujourd’hui, le

passage

de la recherche

fondamentale à la

normalisation,ne

s’appuie plus sur

un processus

linéaire mais sur

un processus

interactif.

Inte

rvie

w

Paul Mankiewich, Directeur technique – Bell Labs / Lucent Technologies

Page 13: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

Dossier - La normalisation

J U I L L E T / A O Û T 2 0 0 6 ● LA LETTRE DE L’AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES 13

sur infrastructures IP ! De la couche Physique à la couche

Application, chacune de ces initiatives afficheclairement sa différence et entretient ainsi desfronts multiples où la bataille entre opérateurs,mais aussi entre opérateurs et industriels, faitrage. La production, la diffusion et la protection des contenus multimédia accessiblesaux clients depuis un terminal fixe ou mobileconstituent là encore autant de thématiques oùla défense des intérêts particuliers continue deprimer au détriment d'un nécessaire effort decoordination qui puisse tenir compte, en particulier, de l'existence de services commercialement disponibles aujourd'hui.

La standardisation des services est à ce titreun travail de longue haleine, dont les résultatspermettant de garantir la complète interopéra-bilité des technologies caractéristiques de l'activation et de l'exploitation des fonctionsélémentaires supports de ces services (identifi-cation et authentification des clients, routage,qualité de service, sécurité, gestion, facturation, etc.) ne devraient pas être dispo-nibles avant 2009 ou 2010.

Le succès du déploiement de services convergents sur des réseaux NGN est conditionné par la capacité des organismes destandardisation à coordonner efficacementleurs efforts, mais aussi par celle des acteurs dela normalisation à harmoniser leurs contributions. La répartition de l'intelligenceentre terminaux, passerelles et réseaux est la cléde ce succès, mais aussi un farouche casus bellidont l'issue reste encore incertaine. ■

De la standardisationdes services

La situation n'est pas plus consensuelle lorsqu'il s'agit d'aborder la standardisation desservices déployés dans des environnementsNGN. L'évolution des travaux de normalisationvers les services est une tendance récente.Amorcée par le forum OMA souvent décrit

comme le terreau privilégié de la standardisationdes éléments catalyseurs du développementde nouveaux services aux terminaux mobiles,la tendance se généralise avec une complexitécroissante par la mise en place de nouveauxforums ou la création de nouveaux groupesde travail au sein des organismes institu-tionnels tels que l'UIT et l'ISO.

L'exemple des services IP/TV est presquecaricatural : plus d'une dizaine d'organismesrevendiquent aujourd'hui la responsabilité detravaux de normalisation des techniques dediffusion de programmes télévisés et assimilés

Les normes et standards constituentde plus en plus, pour les entreprisesau niveau mondial, un levier privi-légié pour défendre et promouvoir

la propriété intellectuelle, et, pour les paysdéveloppés, des industries exportatrices baséessur des standards nationaux. Les enjeuxéconomiques des travaux engagés par lesnombreux organismes de normalisation etforums internationaux sont tels que les statutsde ces structures intègrent d'une manièresystématique les règles de la politique depropriété intellectuelle descriptives des droitset devoirs des membres contributeurs.

Les spécifications issues de ces travauxdoivent également respecter les lois anti-trusten vigueur. La bataille sur le front de la stan-dardisation des réseaux et services de commu-nication globaux n'en est donc que plusardente. Voici quelques exemples de débatsqui devraient agiter les esprits de la commu-nauté internationale pour les cinq à dix ans àvenir.

De l'intelligencerépartie

Le réseau Internet devient le support privi-légié des services de voix, de données etd'images. Le protocole IP constitue le substratcommun aux architectures de réseaux denouvelle génération (NGN) qui font actuelle-ment l'objet d'importants efforts de standar-disation, notamment au sein de l'UIT-T et del'ETSI , projet TISPAN.

La convergence des environnements fixe etmobile permettra d'accéder à l'ensemble desservices supportés par les réseaux NGN,quelles que puissent être les technologies et lesconditions d'accès à ces réseaux. Leitmotivnaturel des travaux de normalisation desréseaux NGN (dont la complétude estannoncée pour les années 2007-2008), laconvergence révèle cependant des approchestrès différentes, selon le degré de répartitionde l'intelligence des fonctions supportées parles réseaux NGN : du terminal au cœur duréseau NGN en passant par la passerelled'accès, la répartition des fonctions avancées(signalisation, présentation et productionautomatisées de services, processus de [re-]configuration dynamique selon diffé-rentes métriques telles que l'état de congestiondu réseau, etc.) reflète des intérêts divergents,selon que le membre participant est un équipementier ou un opérateur.

Normalisation, les chantiers à venir

La mise sur le marché des équipements terminaux et radioélectriques est couvertepar la directive R&TTE. Utilisée également dans une vingtaine d’autres secteurs, ellevise à harmoniser dans toute l'Europe les exigences techniques applicables aux pro-duits industriels.

La directive R&TTE définit des exigences essentielles qui doivent être respectées par les équipements : sécurité électrique, compatibilité électromagnétique, prévention des interférences.Des exigences spécifiques additionnelles sont décidées au cas par cas : interfonctionnement avecle réseau, accès aux services d’urgence, besoins des utilisateurs handicapés, etc. L'apposition dela marque CE sur les produits est une obligation pour les fabricants.Elle définit également des outils et procédures destinés à permettre l’évaluation de la conformitédes équipements. Cette évaluation n’est plus basée sur des règles techniques obligatoires. Elle faitdésormais appel, conformément à la « nouvelle approche », à des normes harmonisées (NH)d’application volontaire. Dans ce contexte, l’ARCEP désigne les organismes notifiés qui sont deslaboratoires compétents pour évaluer la conformité des produits aux exigences essentielles quileur sont applicables.Les NH sont rédigées, sur mandat de la Commission européenne, par les organismes européensde normalisation – CENELEC, ETSI – et sont adoptées après enquêtes publiques. Un industrieln’est cependant pas obligé d’utiliser une NH pour évaluer la conformité de son produit auxexigences essentielles. Il peut en effet faire appel à un organisme notifié qui validera les basestechniques de son évaluation. En pratique, cette situation se produit surtout à titre transitoire, lorsde l’introduction sur le marché de technologies ou systèmes innovants pour lesquels la rédactionde la (ou des) NH prévue(s) n’est pas encore finalisée. http://www.arcep.fr/dossiers/rtte/rtte.htm

Terminaux : des normes au marché

L'intelligence dans

le réseau et la

standardisation

des services sont

les chantiers qui

devraient agiter la

communauté de

la normalisation

pour les cinq à dix

ans à venir.

Point de vue

Pascal Viginier, Directeur Exécutif Recherche et Développement – France Télécom

Page 14: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

Dossier - La normalisationPo

int d

e vu

e

brevet relatif au standard VL-bus et avoirdemandé des redevances sur ce brevet aprèsadoption de la norme. Une controverse plusrécente et relative aux DRAM est celle impli-quant la participation de Rambus au processusencadré par le Joint Electron Device EngineeringCouncil.

D’autres débats sont associés au niveau deredevance, avec des comportements potentiel-lement opportunistes des donneurs de licence,allant de déclarations inexactes, voire fraudu-leuses (exigence de redevances en contradic-tion avec une promesse antérieure de garder lanorme ouverte) à une simple exploitation del’ambiguïté inhérente au caractère « raison-nable » des licences RAND.

La normalisation, facteur de risque de cartellisation ?

Une autre inquiétude, relevant celle-ci del’Article 81 des règles communautaires relatives à la concurrence, a trait à la possibilitéde cartellisation à travers le processus denormalisation. Il peut y avoir conspiration depreneurs de licences pour faire baisser le prix dela propriété intellectuelle en refusant desstandards propriétaires ou en exigeantl’absence de redevance. Inversement, lesdonneurs de licence peuvent manipuler leprocessus pour nuire à des entrants potentiels ;par exemple, la Cour Suprême américaine ajugé dans sa décision Allied Tubes en 1988 queles producteurs de conduites métalliquesavaient manipulé le vote (à travers uneparticipation intense et nombreuse) pourempêcher l’acceptation d’une norme deconduites en plastique.

Le nécessaire arbitrage entre protection de la propriété intellectuelle

et diffusion de l’innovationRéfléchir sur l’économie des normes

nécessite de replacer celles-ci dans le contexteplus général de l’innovation et de la propriétéintellectuelle. La protection de la propriétéintellectuelle, que ce soit au travers de brevets,de droits d’auteurs ou de la protectionjuridique des secrets de fabrication, a de toustemps essayé d’arbitrer de manière fine entredeux objectifs contradictoires : la création d’unenvironnement propice à l’innovation et ladiffusion de cette dernière.

L’idée fondamentale du droit de lapropriété intellectuelle est de promouvoir des

plateformes, de télépho-nie classique autrefois,du secteur de l’Internetaujourd’hui.

L’émergence de standards a des bénéfices et des

coûtsL’émergence de stan-

dards a, dans tous lessecteurs de l’économie,des bénéfices et des coûtsbien connus.

Une norme permetaux utilisateurs d’inter-agir entre eux et auxfournisseurs d’investirdans la technologieconcernée. Par exemple,

deux utilisateurs d’un réseau téléphonique nepourraient pas communiquer si leurs fournis-seurs ne s’accordaient pas sur les spécificationstechniques d’acheminement de la voix. End’autres termes une norme permet au secteurde tirer bénéfice des « externalités de réseau ».La normalisation par contre peut avoir deseffets négatifs lorsqu’elle favorise la convergence vers une technologie particulièreau détriment d’une autre qui s’avère par la suitesupérieure ; et, précisément du fait de l’existence d’externalités de réseau, une norma-lisation peut aussi s’opérer au détriment desutilisateurs de la génération technologiqueprécédente en l’absence de « compatibilitéarrière ».

Normes et propriété intellectuelleNous nous intéresserons ici à un aspect

particulier, mais central, du processus denormalisation : le lien entre la propriété intel-lectuelle et les standards. La relation entre lesdeux fait depuis de nombreuses années l’objetde nombreuses controverses. Il s’agit de biendistinguer les différentes inquiétudes vis-à-visde l’existence de droits de propriété dans unenorme.

Certaines ont trait à la possibilité de non-respect des engagements pris par les partici-pants lors de leur participation à un processusde standardisation. Par exemple Dell fut en1997 contraint à un accord à l’amiable avec laFederal Trade Commission après avoir (appa-remment involontairement) omis de révéler un

Les standards émergent de plusieursmanières. Certains, tel Windows,résultent d’un processus de marchédans lequel les utilisateurs finissent

par converger vers une solution particulière,propriétaire ou non (« norme de facto »).D’autres font l’objet d’une validation par unorganisme de normalisation (tel que l’UIT oul’IEEE). Les organismes de normalisation s’as-surent de la compatibilité des différentscomposants de la norme, peuvent exiger ladéclaration des brevets ou futurs brevets ayantune pertinence pour la norme (transparence),et adoptent une politique vis-à-vis des droits depropriété intellectuelle allant du laisser-fairecomplet à l’abandon des droits de propriétéintellectuelle, en passant par l’exigence delicence gratuite (« royalty free licensing ») ou lapromesse de licences « à prix raisonnable »(«reasonable and non-discriminatory licensing »ou « RAND »).

Les organismes de normalisation diffèrentégalement de par leur gouvernance (règles dedécision à l’unanimité ou à une majorité quali-fiée) ou leur composition (les « special interestgroups » ou SIG sont en général composésd’entreprises et sont plus favorables auxdonneurs de licence que la plupart des « stan-dard setting organizations » ou SSO établis delongue date).

Le processus de normalisation est particu-lièrement déterminant dans le secteur des télé-communications, du fait de la nécessité derendre inter-opérationnelles les différentes

Ingénieur Général desPonts et Chaussées, JeanTirole est docteur enMathématiques de ladécision et titulaire d’unPh.D. du prestigieuxMassachusetts Institute ofTechnology (MIT) où ilenseigne comme Visitingprofessor.Distingué par de nombreuxprix et titres honorifiques,le «chercheur français enEconomie le plus cité » en2004, selon le ThomsonScientific Laureate, estégalement l’auteur denombreuses publications.Parmi ses domaines deprédilection : l’économieindustrielle, la théorie desjeux et l’économiefinancière internationale.

14 LA LETTRE DE L’AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES ● J U I L L E T / A O Û T 2 0 0 6

Normes et propriété intellectu

par Jean Tirole, directeur scientifique de

Les standards émergent de plusieurs manières. Certains, tel Windows, résultent d’un processus de marché, d’autresde replacer celles-ci dans le contexte plus général de la diffusion de l’innovation et de la protection de la

Page 15: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

Dossier - La normalisationPoint de vue

innovations réelles (dans le cas des brevets,utiles, non-évidentes et faisant preuve denouveauté) en octroyant des droits sur l’exploi-tation de l’innovation ; ces droits créent unpouvoir de marché pour l’entreprise qui enbénéficie, ce qui a pour effet d’en limiter ladiffusion. Ce compromis subtil se retrouvedans le cas particulier du traitement de lapropriété intellectuelle dans les processus denormalisation.

D’une part, ces processus doivent êtrerespectueux de la propriété intellectuelle pourne pas courir le risque de décourager l’innova-tion dans le secteur concerné (ou d’encouragerles innovateurs à « contourner » le processus,soit en cherchant à utiliser le marché pour faireémerger un standard de facto, soit en recourantà des organismes conciliants-voir ci-dessous).D’autre part, le contrôle propriétaire d’unenorme crée le risque d’une diffusion beaucouptrop restreinte de l’innovation de par des rede-vances exorbitantes.

Un lobbying intense des détenteursde brevets et des utilisateurs

La taille des enjeux fait que le traitement dela propriété intellectuelle est l’objet d’unlobbying intense des détenteurs de brevets et desutilisateurs pour valoriser ou au contraire rendreplus accessible cette propriété intellectuelle. Il estdonc important de prendre un peu de recul(1).

La certification, essence de la normalisation

Une première observation est que la certifi-cation est l’essence, ou du moins un aspectimportant, de la normalisation. Un détenteurde propriété intellectuelle (ou un groupe dedétenteurs) doit convaincre les utilisateurs dela valeur de sa technologie. En cela, ilressemble à un chercheur essayant de publierun article dans une revue à comité de lecture, àune entreprise recourant à une banque d’inves-tissement pour certifier son émission de titres,ou encore aux entreprises du secteur informa-tique (IBM, HP, etc.) s’adressant à un « opensource intermediary » (comme CollabNet) pourvalider auprès de la communauté du logiciellibre la nature de son code mis sous une licencelibre, et l’indépendance du développement etde l’utilisation de ce code. Le détenteur depropriété intellectuelle pense alors que leprocessus de marché a trop peu de chancesd’imposer sa technologie comme standard de

J U I L L E T / A O Û T 2 0 0 6 ● LA LETTRE DE L’AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES 15

elle : la vue d’un économiste

1 La discussion suivante est très succincte. Le lecteurpourra trouver plus de détails dans les articles écrits parl’auteur avec Josh Lerner : sur les normes : « A Model ofForum Shopping » (article théorique à paraitre dans lenuméro de septembre 2006 de l’American EconomicReview), « The Rules of Standard SettingOrganisations : An Empirical Analysis » (articleempirique, écrit en collaboration avec Ben Chiao) ; etsur les regroupements de technologies : «Efficient PatentPools » (paru dans l’American Economic Review en2004) et « The Design of Patent Pools : TheDeterminants of Licensing Rules » (article empiriqueécrit en collaboration avec Marcin Strojwas).

l’Institut d'Economie Industrielle de Toulouse

font l’objet d’une validation par un organisme de normalisation. Réfléchir sur l’économie des normes nécessitepropriété intellectuelle.

facto, et se tourne donc vers un organismecapable de donner le coup de pouce nécessaire.

Le choix de l’organisme de normalisation

Pour cela, plusieurs organismes de normali-sation sont en général envisageables pour unetechnologie donnée (à moins qu’une partimportante du marché aval soit liée à desachats par la puissance publique et que lesrègles d’achat de cette dernière octroient uneposition de monopole à un organisme particu-lier sur le marché de la normalisation). De fait,il y a eu récemment beaucoup d’entrée denouveaux organismes de normalisation, enparticulier en réponse au mécontentement desentreprises vis-à-vis des organismes existants,jugés trop lents et parfois trop biaisés en faveurdes utilisateurs.

Une première considération dans le choixd’un organisme est bien sûr la propension del’organisme à accepter la norme. Celle-cidépend par exemple de la nature de l’organisme (SIG ou SSO), de sa composition(entreprises, utilisateurs, universitaires, etc.),de ses règles de décision (majorité simple,consensus, etc), et de son ancienneté.S’adresser à un organisme plus complaisant ouplus enclin à accepter une norme (composéd’entreprises détentrices de propriété intellec-tuelle, décidant à la majorité simple, SIG, etc.)a à la fois un bénéfice et un coût pour les parti-sans de la technologie. Le bénéfice est uneprobabilité accrue d’accréditation. Le coût estune perte de crédibilité vis-à-vis des utilisateurspotentiels de la technologie, qui pourraient nepas suivre une décision favorable de l’orga-nisme de normalisation et adopter une techno-logie concurrente. Les partisans de latechnologie recherchent donc le forum le pluscomplaisant possible parmi ceux qui ont unecrédibilité suffisante vis-à-vis des utilisateurs.

Une seconde considération est le degréd’exigence ou de concessions choisi parl’organisme de normalisation : traitement de lapropriété intellectuelle (abandon complet desdroits, licences gratuites, RAND, pas decontrainte du tout), règles de transparence (lespropriétaires de brevet, au delà de touteintention de « hold up » mentionnée ci-dessus,n’aiment pas dévoiler les brevets actuels oufuturs, car cela révèle à leurs concurrents et auxutilisateurs des informations stratégiques surl’usage des technologies et sur la stratégie

d’entreprise), méthodes de résolution desdifférends, etc.

L’indépendance de l’organisme denormalisation vis-à-vis des

détenteurs de propriété intellectuelle La théorie prédit qu’une technologie a priori

plus attrayante (plus établie, faisant face à moinsde concurrence de technologies alternatives)sera certifiée par des organismes pluscomplaisants et exigeant moins de concessionsdes détenteurs de propriété intellectuelle.Intuitivement, les détenteurs de droits depropriété sur une technologie attrayante pourles utilisateurs peuvent se contenter d’unecertification plus légère et exiger plus desutilisateurs. Une analyse empirique conduitesur 59 organismes de normalisation dans lesecteur des technologies de l’information et destélécommunications confirme cette prédiction.L’indépendance de l’organisme vis-à-vis desdétenteurs de propriété intellectuelle estcorrélée positivement et de façon significativeavec le niveau de concessions qui est exigé despartisans de la technologie. Les technologiesplus attrayantes ont tendance à faire l’objet demoins de concessions aux utilisateurs et d’unecertification plus légère. Enfin, et comme leprédit aussi la théorie, l’exigence detransparence est beaucoup plus fréquente dansle cas de licences RAND que pour des licencesgratuites (le régime, RAND ou royalty frees’applique ex post aux brevets non dévoilés lorsdu processus et jugés par la suite essentiels àl’implémentation de la technologie).

Le rôle croissant des regroupements de technologies Enfin, il est important de mentionner le

rôle croissant des regroupements detechnologies (« patent pools ») dans lesprocessus de normalisation.

Page 16: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

Dossier - La normalisation

pour cet article consacré aux normes est quel’on ne peut ignorer la possibilité de regrou-pement de technologies lors de l’élaborationd’une norme, d’une part parce que le regrou-pement peut permettre une baisse de prix etainsi rendre la technologie plus attrayantepour l’utilisateur et d’autre part parce qu’unpool permet de résoudre l’ambiguïté associéeà la promesse de redevances « raison-nables » (8). ■

Jean Tirole

2 Selon les lignes directrices sur les accords de transfert de tech-nologie de la Commission Européenne (UE/27/04/2004),«Les accords de regroupement de technologies sont desaccords par lesquels deux parties ou plus regroupent unensemble de technologies qui sont concédées non seule-ment aux parties à l'accord, mais aussi à des tiers ».

3 “The history of this country has perhaps never witnesseda more completely successful economic tyranny” (JusticeBlack).

4 "Les regroupements de technologies peuvent égalementêtre favorables à la concurrence, notamment en réduisantles coûts des opérations et en limitant les redevancescumulatives afin d'éviter une double marginalisation. Leregroupement permet la concession en une seule opérationdes licences relatives aux technologies concernées. Cela estparticulièrement important dans les secteurs où ce sont lesdroits de propriété intellectuelle qui prévalent et où, pourpouvoir opérer sur le marché, les preneurs doivent obtenirdes licences d'un nombre important de donneurs.Lorsqu'ils bénéficient d'un service continu pourl'application de la technologie concédée, le regroupementdes licences et des services peut entraîner des réductions decoûts supplémentaires." (§214 des lignes directrices de laCommission Européenne de 2004)

5 Les brevets sont substituts si une réduction de la redevancesur l’un réduit la demande pour les autres.

6 Toujours selon les lignes directrices de 2004 de laCommission Européenne : "Les accords créant des regroupements de technologies et

définissant les conditions de leur fonctionnement ne sontpas couverts par l'exemption par catégorie, quel que soit lenombre des parties concernées." (§212)"Les accords de regroupement de technologies peuventrestreindre la concurrence. De tels accords impliquentnécessairement la vente en commun des technologiesregroupées ce qui, lorsqu'il s'agit uniquement ouprincipalement de technologies pouvant se substituer lesunes aux autres, constitue une entente portant sur lafixation des prix. De plus, outre le fait qu'ils réduisent laconcurrence entre les parties, les regroupements detechnologies peuvent également avoir pour effet,notamment lorsqu'ils couvrent une norme industrielle oucréent une norme industrielle de fait, de réduirel'innovation en excluant d'autres technologies du marché.L'existence de la norme et des technologies regroupées quiy sont liées peut rendre plus difficile la pénétration sur lemarché de technologies nouvelles et améliorées." (§213)

7 Ou la substitution est mesurée de façon indépendante parl’existence ultérieure de poursuite judicaire et de remèdesappropriés.

8 Pour des raisons de droit de la concurrence, les participantsaux processus de normalisation évitent scrupuleusement duparler de prix des redevances dans leurs réunions.

formation d’un pool entraîne à la fois unebaisse de la redevance totale pour latechnologie et une augmentation du profit desdétenteurs de brevets.

Par contre, la formation d’un pool(analogue à une fusion) entraîne uneaugmentation des prix lorsque les brevets sonten situation de concurrence entre eux, c'est-à-dire sont des substituts (5). Pour cette raison, lespools ne devraient pas être couverts par uneexemption par catégorie (6).

Mais comment peut-on distinguer poolsde compléments et pools de substituts, c'est-à-dire filtrer les mauvais pools pour n’accepterque les bons ?

De fait, les autorités de la concurrence neconnaissent pas toujours la relation decomplémentarité / substitution entre brevets.De plus cette relation peut changer assez viteau cours du temps : des technologiescomplémentaires aujourd’hui peuvent devenirconcurrentes à l’avenir. La théorieheureusement suggère une méthode simplepour faire la part des choses : la liberté deconcession de licences indépendantes. Dans cecas, le pool peut commercialiser l’ensembledes brevets relatifs au regroupement detechnologies, mais laisser leurs détenteursoctroyer à leur guise des licences sur les brevetsindividuels. Il peut être démontré que cetteliberté n’a aucun impact sur l’allocationéconomique quand le pool augmente le bien-être social (réduit les prix) en l’absence delicences individuelles. Par contre, la libertéd’octroi de licences individuelles "remet lescompteurs à zéro" si le pool réduit le bien-être(retour aux prix prévalent en l'absence depool). Les licences indépendantes permettentdonc aux autorités de la concurrence de faireun tri sans information sur les fonctions dedemande actuelle et future pour les brevets.De façon intéressante, une étude empiriquesur 63 pools (essentiellement de la premièremoitié du 20ème siècle) montre indirectementla pertinence des licences indépendantes. Eneffet les pools de substituts (7) tendent à ne pasautoriser les licences indépendantes, aucontraire des pools de compléments.

On ne peut ignorer la possibilitéde regroupement de technologieslors de l’élaboration d’une norme

Les regroupements de technologie posentde nombreuses autres questions fascinantesque je n’ai pas la place d’aborder ici : taille dupool, inclusion de brevets non valables(« bogus patents »), exigences de rétrocessionau pool des innovations futures reliées à latechnologie couverte par le pool, gouver-nance du pool, etc. Le message pertinent

Un regroupement de technologies est lamise en commun de brevets permettant lepartage de ces droits de propriétéintellectuelle soit entre les membres du pool(pool fermé, généralisant les accords delicences croisées entre deux entreprises), soitpour octroyer des licences en commun à destierces partis (pools ouverts)(2).

Les premiers regroupements de brevetsconnus datent du milieu du 19ème siècle(Sewing Machine Pool 1856) et couvraient laplupart des industries « high-tech » du débutdu 20ème siècle (aéronautique, pétrole,automobiles, chemins de fer, etc.) jusqu'à ladécision Hartford Empire de la CourSuprême américaine en 1945 estimant queces regroupements étaient essentiellementdes instruments de cartellisation par lesdonneurs de licences (3). Ce n’est que dans lesdernières années que les regroupements detechnologies ont réapparu de manière certestimide, mais significative (par exemple, dansles technologies de l’information, les poolsMPEG-2 Digital Video en 1997, DVD-ROM, DVD-Video et Wireless PersonalArea Networking-Bluetooth en 1998, ou3G-Mobile Communications en 2001. Desdiscussions sont en cours également pour laformation de pools sur les biotechnologiesappliquées à l’agriculture, les bio marqueurspour le cancer, les brevets relatifs au virusHIV et au sida, au vaccin SARS, et auclonage animal).

Le renouveau de l’intérêt pour lesregroupements de technologies

est dû à deux facteurs. Le premier est l’accroissement rapide du

nombre de brevets ces vingt dernières années.Cette multiplication des droits de propriétéfait que, dans des secteurs comme ceux deslogiciels ou des biotechnologies, tout produitrisque d’enfreindre un ou plusieurs brevets.Les pools sont souvent proposés comme unesolution au problème du « patent thicket ».

Ensuite, les économistes et les autorités dela concurrence ont réalisé que les pools debrevets peuvent avoir des effets très bénéfiquespour l’économie, en créant un guichet uniquepour les utilisateurs d’une technologie etsurtout en faisant baisser les prix lorsque lesbrevets sont compléments l’un de l’autre (4).En effet, la multiplication des marges desdétenteurs individuels est nuisible à la fois auxutilisateurs et aux détenteurs eux-mêmes dansla mesure où la réduction de la redevance surun brevet augmente la demande pour lesautres brevets dans une situation decomplémentarité (ce point avait été noté parAntoine Augustin Cournot en…1838). La

16 LA LETTRE DE L’AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES ● J U I L L E T / A O Û T 2 0 0 6

Poin

t de

vue

Page 17: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

Dossier - La normalisation

J U I L L E T / A O Û T 2 0 0 6 ● LA LETTRE DE L’AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES 17

Point de vue

L ’importance prise par lesradiocommunications dans la sociétémoderne, dans un contexte demondialisation de l’économie et de

mobilité toujours plus grande des utilisateurs,conduit à poser en des termes nouveaux laquestion de la normalisation des servicesradioélectriques et des fréquences hertziennes quiles transportent.

En quelques années, la liaison radioélectrique asupplanté le câble pour relier l’usager aux réseaux.Celui-ci plébiscite désormais le raccordement parradio qui lui offre autonomie, mobilité, souplesse etl’affranchit d’un lien trop serré avec un opérateur.

La radio est un instrument de liberté

Tous d’accord sur ce point, les utilisateurs, lesopérateurs et les régulateurs lui trouvent demultiples vertus pour introduire davantage deconcurrence sur les marchés de la communicationélectronique.

Dès lors, certains ne manquent pas de poussercette logique de liberté à l’extrême : n’imposonsrien, banalisons les bandes de fréquences, laissonsla possibilité à chacun de s’en servir comme bonlui semble en respectant seulement des règlestechniques générales, laissons faire le marché et lemeilleur des mondes en résultera. Les promoteursde cette approche qui vise à multiplier les bandeshertziennes « de plein droit », sans assignation,mettent par exemple en avant le succèscommercial des réseaux Wi-Fi, avec la liberté et leconfort qu’ils procurent à l’utilisateur d’un micro-ordinateur portable. Les Etats-Unis sont sansdoute les propagandistes les plus convaincus decette méthode.

Normes de fait ou réglementation normative ?

Cependant, d’autres experts font valoir lesincontestables avantages de la normalisation et dela réglementation des systèmes et servicesradioélectriques. Il faut distinguer les deux. Lanormalisation est un processus librement mis enœuvre par des acteurs du marché qui se concertentpour définir un produit décrit dans un documentpublic, une norme. Le choix de mettre en œuvretelle ou telle norme dans un terminal ou un serviceest communément de la liberté des acteurs dumarché. Cependant, une instance réglementairecompétente peut imposer l’usage d’une normeparticulière sur un segment de marché et, s’il s’agit

d’un système radioélectrique, lui réserver desressources hertziennes qui seront allouées à desopérateurs particuliers. Ce schéma est communaujourd’hui, qu’il s’agisse par exemple de latéléphonie mobile ou de la radiodiffusion.L’Europe (UE, CEPT, ETSI) est largement enfaveur de cette approche. Ses avantages sont unebonne maîtrise de la qualité de service, une plusgrande facilité pour offrir un service universel et,paradoxalement peut-être, une plus grande libertéconcurrentielle.

Ce point mérite un commentaire. La norme etla réglementation normative ont en effet le méritede la transparence et de la prédictabilité. Si la libertétechnique laisse à des acteurs majeurs l’opportunitéde créer et d’imposer des « normes de fait», elle leurlaisse aussi la possibilité de contrôler le marché. Aucontraire, la réglementation normative donne àtous les acteurs, y compris aux PME, la mêmechance de jouer leur partition et d’innover dans uncadre défini. Elle crée d’emblée un vaste marchéhomogène.

Les fréquences radioélectriques font clairementpartie de la norme et de la réglementation dessystèmes radioélectriques. Une certaine souplesseexiste malgré tout puisque, à l’exemple du GSM(bandes 900 MHz et 1800 MHz) ou de latélévision analogique (bandes VHF et UHF), onconçoit assez communément des terminaux bi-bandes ou tri-bandes. D’une manière générale, lessystèmes modernes de communication sontconçus suivant un modèle « en couches » quidistingue le support physique hertzien desmodulations, des protocoles logiques et desapplications. Une formalisation des interfacesentre ces couches permet un découplage entreelles. La bande de fréquences est une des couchesdu modèle : le concepteur et le régulateurbénéficient d’une certaine latitude pour agencer lesupport hertzien par rapport aux autres couchesdu système. Bien entendu cette latitude doit êtreencadrée sous peine de rendre trop complexes etcoûteux les terminaux.

Le Réglement desradiocommunications ne

prend pas partieEntre les deux approches, le Règlement des

radiocommunications élaboré par l’UIT ne prendpas parti. Même si l’esprit général des procéduresest imprégné des méthodes d’assignation et mêmesi la segmentation fine du spectre est un moyenhabituel de répondre aux besoins, on doit

considérer que le spectre est attribué par l’UIT àdes «services génériques », service fixe, servicemobile, services spatiaux, etc. d’une façon qui nepréjuge pas des choix que devront faire lesrégulateurs nationaux de normaliser ou non telservice concret et de réguler en conséquence lesbandes autorisées.

Ce sont des choix politiques qui doivent guiderla pratique des régulateurs, tant au niveau del’Union européenne que des Etats. Quels servicesradioélectriques doivent être réglementés, quellesnormes doivent être retenues, quelles fréquencesdoivent être assignées aux acteurs ? Il est clair qu’iln’existe pas de martingale qui garantisse le succèsindustriel et commercial d’un système. Le GSM,entièrement réglementé, est un succès mondial. Lamessagerie ERMES, sur le même modèle, fut unéchec. La TNT en DVB-T peut être un succèseuropéen. La radio DAB le sera-t-elle ? Par ailleursle Wi-Fi, dans une logique différente, est très bienaccueilli par le marché. Il n’y a donc pas desolution unique.

La décision devra être prise au cas par cas

Le succès remarquable du GSM incite à retenirla voie de la réglementation normative, y comprisdes bandes de fréquences, dans les cas, limités, oùl’on pense pouvoir créer un service de masseintéressant tous les citoyens sur le long terme. Lesinstances politiques comme la Commissioneuropéenne sont alors pleinement qualifiées pourimposer des choix. Dans les autres cas, marchés deniche, systèmes non structurants, opportunités àcourt terme, il vaut mieux laisser le marché agir ets’orienter vers la définition de vastes espacesradioélectriques sans assignations tropcontraignantes. Aux régulateurs et auxréglementeurs de décider, au cas par cas, quelmodèle retenir. ■

Jean-Marc Chaduc, ancien Directeur Général de l’Agence Nationale des Fréquences

Fréquences,normalisation et réglementation

Laréglementationnormative donneà tous les acteurs,y compris auxPME, la mêmechance de jouerleur partition etd’innover dans uncadre défini.Ellecrée d’emblée unvaste marchéhomogène.

Page 18: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

Actualité

18 LA LETTRE DE L’AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES ● J U I L L E T / A O Û T 2 0 0 6

Séparation comptable : le L’Autorité lance une consultation publique sur les obligations comptables de France Télécom. La mise en œuvrede l’opérateur historique. Elle permettra d’améliorer la transparence vis-à-vis des tiers et faciliter la surveill

Au terme des analyses de marchéspertinents de la téléphonie fixe et duhaut débit, France Télécom a étédésignée puissante sur plusieurs

marchés de gros et de détail. Certainesobligations lui ont été imposées enconséquence, notamment des obligationscomptables (1). Ces dernières devaient êtreprécisées ultérieurement par l’Autorité,conjointement pour l’ensemble des marchésconcernés, afin qu’elles soient établies ets’appliquent dans un cadre cohérent et unique.Ces nouvelles obligations comptables – qui sedéclinent en obligation de « comptabilisationdes coûts » et en obligation de « séparationcomptable » – ont vocation à remplacer lesobligations comptables imposées par leprécédent cadre réglementaire.

Un projet de décision précisant les obliga-tions comptables de France Télécom fait actuel-lement l’objet d’une consultation publique (2)

pour mise en œuvre à l’automne.

L’objectif : permettre la vérification des obligations imposées à France

TélécomLes obligations de comptabilisation des coûts

et de séparation comptable présentent laparticularité de sous-tendre ou de permettre lavérification d’autres obligations imposées àl’opérateur puissant. Le cadre réglementaireprévoit d’ailleurs de façon explicite l’articulationentre les obligations comptables, le contrôle desprix, la transparence et la non discrimination.Elles représentent de ce fait un outilindispensable et structurant.

La comptabilisation des coûts est tout parti-culièrement indispensable aux obligations rela-tives au contrôle des prix (3). Elle consiste en lamise en place d’un système de comptabilisationet d’attribution de l’ensemble des coûts etrevenus par service produit ainsi que du capitalemployé par ces derniers. Elle permet ainsi et enparticulier de s’assurer de la cohérence des tarifspratiqués par l’opérateur avec les coûts encourusdans le cadre d’une obligation d’orientation desprix vers les coûts.

Eviter les subventions croisées …La séparation comptable (4), qui s’appuie sur

les éléments de coûts et de revenus produits parle système de comptabilisation des coûts,consiste à isoler sur le plan comptable certainesactivités de l’opérateur dans l’optique de vérifier

le respect des obligations de non discriminationimposées lors des analyses de marché etl’absence de subventions croisées abusives entreactivités.

… Renforcerla transparence comptable

De façon générale, les obligations comptablescontribuent aux objectifs de transparence dans lamesure où elles prévoient, dans la limite du secretdes affaires, la publication d’un ensemble d’étatscomptables et de documents annexes.

Obtenir des informations relatives aux coûts

Afin de mettre en œuvre un contrôle des prixefficace, l’Autorité doit accéder aux informationsconcernant les coûts encourus par FranceTélécom. Pour ce faire, le projet de décisionmaintient l’obligation pour France Télécom detenir un système de comptabilisation des coûts (5)

et prévoit l’extraction de ce système de restitu-tions comptables plus ou moins granulaires, selontrois grands axes.

Premièrement, dans l’objectif d’éclairer l’ori-gine des coûts encourus par France Télécom,cette dernière devra 1/ décrire le passage de lacomptabilité sociale de FTSA à l’assiette des coûtsretenus dans son système de comptabilisation descoûts, 2/ justifier la répartition des masses decoûts et préciser les méthodologies utilisées lorsde la détermination des clés d’allocation. Cettedernière mesure permet notamment d’obtenirdes informations de coûts de divers degrés definesse, de la prestation élémentaire (prestation desupport ou commerciale, éléments de réseau…) àl’offre commerciale ou l’activité.

Deuxièmement, dans l’objectif de garantir lacohérence globale de la répartition de ses coûts etd’offrir une vision structurante de son économie,France Télécom sera tenue de fournir à l’Autoritédes éléments synthétiques de coûts, en adoptantdiverses approches transversales ; par exemple, ilest prévu une restitution portant sur la répartitiondes coûts d’infrastructure entre boucle locale,réseaux locaux, régionaux et nationaux ou encoresur les coûts de transmission en fonction destechnologies utilisées (réseau commuté, hautdébit…). Cet axe de restitution est particulière-ment important au regard des évolutions desmarchés, qu’elles soient technologiques (appari-tion et développement des NGN) ou concurren-tielles (développement inégal de la concurrenceen fonction de la hiérarchie du réseau).

Troisièmement, France Télécom sera tenue derestituer des éléments ciblés en fonction de sesobligations tarifaires relatives à des marchés oudes offres spécifiques, par exemple, les coûtsrelatifs à aux offres d’accès à la boucle locale oud’interconnexion.

De façon générale, France Télécom est tenued’effectuer, lorsque cela est imposé par unedécision de l’Autorité, ses restitutions de coûts entenant compte des méthodes de valorisation descoûts réglementaires ; par exemple, les donnéesrelatives au coût de la boucle locale de cuivredoivent être calculées en « coût courantséconomiques » (6).

Faire abstraction du caractère intégré de France Télécom

La séparation comptable consiste à faireabstraction du caractère intégré de FranceTélécom en distinguant comptablement les diffé-rentes activités de l’opérateur et en imposant queses activités de détail recourent aux offresproduites par ses activités de gros dans des«conditions équivalentes » à celles auxquelles sontconfrontées les opérateurs alternatifs lorsqu’ils sepositionnent sur les marchés de détail.

La segmentation des activités de FranceTélécom retenue dans le projet de décisionconsiste tout d’abord à isoler comptablementtous les marchés pertinents de gros sur lesquelspèsent des obligations de séparation comptable etde non discrimination. Sont également isolés, lecas échéant, les comptes des offres de grosrégulées et soumises à une obligation comptableen conséquence d’une analyse de marché (c’est lecas de la Vente en Gros de l’Accès au ServiceTéléphonique – VGAST). Sont enfin isolés lescomptes des marchés de détail pertinents surlesquels France Télécom a été reconnue parl’Autorité comme exerçant une influencesignificative et les comptes des marchés de détailsur lesquels elle n’a pas été déclarée puissante maisqui reposent sur un approvisionnement en offresde gros.

Les transactions entre comptes, c’est-à-direentre activités de gros et de détail, sontformalisées par des protocoles de cession interne.Ces derniers précisent ainsi à partir de quellesoffres de gros sont construites les offres de détailde France Télécom. En conséquence, lesprotocoles contiennent les informationsconcernant les conditions tarifaires (les prix decession internes) et techniques (cellescorrespondantes aux offres commercialisées à des

Page 19: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

Actualité

J U I L L E T / A O Û T 2 0 0 6 ● LA LETTRE DE L’AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES 19

« top départ » est donnéde cet « outil » est une condition sine qua non de l’allégement par l’ARCEP de la régulation des tarifs de détailance «ex post » par le Conseil de la concurrence.

créer les conditions d’une levée par l’Autoritédu contrôle effectué au niveau des marchés dedétail. En effet, conformément à la logiqueimposée par le cadre réglementaire, unerégulation effective et efficace des marchéssitués en amont doit permettre de résoudre lesproblèmes concurrentiels sur les marchés aval etde limiter l’intervention du régulateur sur cesmarchés. ■1 La Lettre de l’Autorité numéro 50 propose un récapitulatifdes obligations imposées à ce jour aux opérateurs reconnuspuissants.

2 Ce document peut être téléchargé surhttp://www.arcep.fr/publications/c-publique/consult-sepcompt-290606.pdf

3 Article 13 de la Directive Accès, Article L.38 I 5° et D.311du Code des Postes et des Communications Electroniques.

4 Article 11 de la Directive Accès, Article l. 38 I 5° et D.312du CPCE.

5 FT dispose déjà d’un tel système, mis en œuvre au titre de sesobligations comptables de l’ancien cadre réglementaire.

6 conformément à la décision n° 05-0834.

- de la liste des offres de gros sur lesquellesreposent les offres de détail (extraite desprotocoles) ;

- des résultats des comptes séparés des marchésde gros et de détail lorsque ces derniers sontrégulés.

Conformément aux dispositions légales, lesystème de comptabilisation des coûts et ledispositif de séparation comptable sont parailleurs audités et l’attestation de conformité deces comptes est publiée.

Préparer l’allégement de la régulation sur les marchés de détail

Les obligations comptables contribuent, engarantissant le respect par France Télécom deses obligations au niveau de l’accès et del’interconnexion (marchés de gros), et enparticulier le recours à ses propres offres de grosdans des conditions non discriminatoires, à

tiers) pratiquées en interne et qui permettent devérifier le respect de l’obligation de nondiscrimination au niveau des marchés de gros.

Améliorer la transparence vis-à-vis des tiers

Le projet de décision prévoit d’élargir lechamp de l’information comptable de FranceTélécom transmise au secteur. Ainsi l’Autoritépropose la publication d’éléments nécessaires àla compréhension de la formation des coûts del’entreprise et à la garantie du respect de sesobligations. Cela se traduit par la publication,dans la limite du secret des affaires :- de la description du système de

comptabilisation des coûts et desméthodologies utilisées pour les répartir ;

- d’éléments de réconciliation entrecomptabilité sociale et comptabilitéréglementaire ;

Dans le secteur énergétique, la séparationcomptable des opérateurs intégrés est uneobligation prévue par les directives. Comment laCRE a-t-elle procédé pour la mettre en œuvre ?

La dissociation comptable des opérateurs gazierset électriques est une obligation prévue par lesdirectives 2003/54 et 2003/55 concernant des règlescommunes pour le marché intérieur de l'électricité etdu gaz. Elle a été transposée en droit français par leslois du 10 février 2000, du 3 janvier 2003 et du 9 août2004. S’imposant à tous les opérateurs intégrés, elleconsiste à isoler comptablement les bilans et lescomptes de résultat des différentes activités exercéespar ces opérateurs (production, transport,distribution, fourniture, stockage…).

La CRE approuve, après avis du Conseil de laconcurrence, les principes de dissociation, qui sontproposés par les opérateurs concernés, pour mettreen oeuvre la séparation comptable. En outre, elleveille à ce que ces règles, ces périmètres et cesprincipes ne permettent aucune discrimination,subvention croisée ou distorsion de concurrence.

Concrètement, la CRE a invité les opérateurs à luiprésenter leurs propositions de principe dedissociation comptable. Afin de guider les opérateursdans cette tâche, la CRE a précisé les principalesrègles qu'elle recommandait aux opérateurs desuivre. Tout en procédant à l'instruction despropositions qui lui ont été faites, la CRE a saisi leConseil de la concurrence afin de recueillir son avissur ces propositions.

Concernant les opérateurs du secteur del’électricité, l’avis du Conseil de la concurrence du 30

novembre 2000 a considéré que les propositions desopérateurs étaient insuffisantes pour permettre unedissociation comptable satisfaisante. La CRE a,donc, utilisé son pouvoir réglementaire supplétif afinde préciser, elle-même, les principes de dissociationcomptable.

Concernant les opérateurs du secteur du gaz, laCRE a approuvé, sous certaines réserves, leurspropositions de principes de dissociation comptable.

A votre sens, l'objectif visé a-t-il été atteint ?La bonne application des règles de dissociation

comptable est indispensable à l’ouverture desmarchés à la concurrence car elle permet de garantirl’absence de discrimination, de subvention croiséeou de distorsion de concurrence entre lesopérateurs.

Les comptes dissociés sont, également, unpréalable indispensable à la détermination du niveaudes charges à couvrir par les tarifs d’accès auxinfrastructures essentielles d’électricité et de gaz.

Pour vérifier la bonne application de ces règles, laCRE mène régulièrement des audits sur les comptesdissociés. En effet, au terme de la loi du 10 février2000, la CRE dispose d’un droit d’accès à lacomptabilité des entreprises ainsi qu’un pouvoir desanctions en cas manquement.

Aujourd'hui, la dissociation comptable remplitparfaitement ces objectifs.

Vous semble-t-il souhaitable d'aller au-delà ?La filialisation progressive des gestionnaires de

réseaux est en cours. C’est déjà le cas pour les

gestionnaires deréseaux detransport (lafilialisation de RTEet de GRT Gaz esteffective depuis lepremier janvier2005). Laséparationjuridique desgestionnaires deréseaux dedistribution doitintervenir, avant le1er juillet 2007, en applicationdes directives européennes.

Les structures filialisées ont,de fait, des comptes sociauxséparés des autres activités des opérateurs intégrésconformément au droit commun des sociétés.

Le régulateur devra, dans ce contexte, s’assurerque les objectifs visés par la dissociation comptablecontinuent à être respectés. Ces comptes sociaux,comme les comptes dissociés, comportent uncertain nombre de postes reflétant les relationsfinancières intra-groupe (i.e. entre les activitésrégulées, filialisées ou non, et les activitésconcurrentielles). Il conviendra de vérifierrégulièrement la pertinence de ces postes. Plusgénéralement, les contrôles effectués devronts’assurer que les comptes des activités réguléesreflètent un fonctionnement efficient sur le planéconomique. ■

Comment la séparation comptable est-elle mise en œuvre dans le secteur de l’énergie ?

FadhelLakhouaDirecteurFinancier

de laCommission

de régulation

de l’énergie(CRE)

Page 20: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

Analyse économique

20 LA LETTRE DE L’AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES ● J U I L L E T / A O Û T 2 0 0 6

proposé diffère entre clients par des caractéris-tiques annexes comme le délai et le lieu delivraison, la flexibilité du contrat…

Enfin, la mise en œuvre de la discrimina-tion du troisième degré repose sur une différenciation des acheteurs en fonction deleur « localisation ». Cette localisation peut êtregéographique (auquel cas la règle de tarifica-tion prend en compte ou non le recouvrementdes frais de transports) ou se situer sur uneéchelle de qualités de produit.

Discrimination tarifaire et différenciation des produits

La limite entre une politique tarifaire discri-minatoire et une politique de différenciationdes produits peut être floue, notamment dèslors qu’il s’agit de discrimination spatiale ou parla qualité. Il convient cependant de noter que lalogique économique sous-jacente à chacune deces pratiques est différente. En effet, la logiquede la discrimination relève de l’exploitationd’un pouvoir de marché pour accaparer lesurplus des acheteurs, en leur faisant payer unprix pour un même produit qui diffère en fonc-tion de leur disponibilité à payer. L’objectifd’une telle politique n’est pas nécessairementd’augmenter une part de marché, mais plutôtde rentabiliser davantage le parc de clientèle. Enrevanche, la logique relevant d’une différencia-tion des produits relève d’une situation concur-rentielle, et en particulier une concurrence enprix forte, qui incite les entreprises présentes surle marché à préserver (voire augmenter) leurpart de marché en se concentrant sur une nichede marché correspondante, ce qui se concrétisepar la production d’un produit différencié decelui offert sur le marché(5). ■

1 Dans son prochain numéro, la Lettre considérera la mise enœuvre de l'obligation de non discrimination sur les marchés descommunications électroniques.

2 Il reste, cependant, un débat persistant sur la définition exacte.

3 En termes économiques, « sa disposition marginale à payer ».

4 Cette politique nécessite donc un degré d’informationmaximal, « l’information parfaite ».

5 Ce modèle de concurrence est appelé « concurrence monopo-listique ».

payer à chacun « le prix qu’il est prêt à payerpour obtenir le produit » (3). Une telle politiquetarifaire est complexe à mettre en oeuvre dansla mesure où elle nécessite que l’entreprisepuisse appréhender la demande individuelle dechaque acheteur pour adapter le prix pratiquéà son égard (4) ; • la discrimination du deuxième degré (« parauto-sélection ») est plus répandue. Elle consisteà permettre au client de choisir entre différentsprix, voire des règles de tarification concur-rentes, en fonction des caractéristiques duproduit acheté et notamment de sa quantité.En effet, la modalité la plus commune consisteà lier le prix payé à la quantité de bien achetée.Dans cette catégorie entrent notamment latarification forfaitaire, les tarifs à deux compo-santes constitués d’un forfait et d’une redevance proportionnelle à la quantité, ouencore les remises au volume. Une telle poli-tique tarifaire est adaptée aux situations où lesacheteurs sur le marché se caractérisent pardifférents types de demande, sans qu’il soitcependant possible, pour une entreprise, de lessegmenter a priori en identifiant et qualifiantles différents types d’acheteurs ;• la discrimination de troisième degré (« parindicateurs »), également très pratiquée, est unediscrimination par groupes d’acheteurs ou parclasses d’usages, définis a priori, comme parexemple, les tarifs jeunes, les tarifs entreprises,les modulations horaires... Cette politique estpossible dès lors que l’entreprise est informéedes demandes sur chaque segment de marché.

Modalités de mise en œuvreLa discrimination par les prix du premier

degré, également qualifiée de « parfaite » esttrès peu mise en œuvre, en raison du hautdegré d’information qu’elle exige de la part del’entreprise sur ses acheteurs. Des cas particu-liers d’offres sur mesures peuvent être identifiéscomme relevant de cette catégorie.

La discrimination par les prix du deuxièmedegré peut se concrétiser en fonction de deuxdimensions, éventuellement associées :• la quantité : dans ce cas, la règle de tarifica-tion associe des prix différents à des biens iden-tiques en fonction de la quantité consommée.La discrimination peut ainsi se traduire par desremises sur quantité achetée ou des tarifscomme les forfaits téléphoniques ;• la qualité : le tarif est identique quel que soitl’acheteur, néanmoins, la qualité du bien

La Lettre propose un point sur le concept de discrimination afind'éclairer les objectifs de l'imposition d'une obligation de nondiscrimination à un opérateur puissant sur un marché (partie 2)1.

Les

outi

ls d

u ré

gula

teur

La discrimination tarifaire (partie 1)

Une pratique discriminatoire peutprendre différentes formes : ladiscrimination tarifaire, la discri-mination en termes d’accès à une

offre, en termes de variété et de qualité desproduits offerts. Cet article n’aborde que lepremier aspect.

Les conditions de la discrimination tarifaire

Pour qu’une entreprise puisse mettre enœuvre une politique tarifaire discriminatoire,trois conditions doivent être réunies. D’abord,une entreprise ne peut discriminer entre sesclients sur un marché intermédiaire ou finalque lorsqu’elle exerce un certain pouvoir demarché. Elle dispose en effet d’une marge demanœuvre sur ses choix et stratégies en secomportant indépendamment de sonenvironnement, et notamment de la demandequi s’adresse à elle. Ensuite, elle doit disposerd’un niveau d’information suffisant sur lescaractéristiques de cette demande de façon àdéterminer la politique tarifaire discrimina-toire adéquate (c’est-à-dire identifier les ache-teurs prêts à payer plus ou moins chers lesproduits qu’elle offre). Enfin, elle doit s’assurerde l’impossibilité de revente directe entre lesacheteurs des différents segments de marchéque la discrimination crée (vérifier que lesacheteurs qui bénéficient des tarifs faibles nefournissent pas ceux qui paient les tarifs forts).

Une définitionSelon l’approche économique, il y a

discrimination tarifaire si une entreprise venddeux unités d’un même produit à des prixdifférents (2) à un même acheteur ou à desconsommateurs différents. Cette définition,bien que commune et retenue ici, contient unepart d’ambiguïté, liée au fait qu’une différencede prix peut refléter une différence de coût (detransport par exemple) ou encore qu’un prixidentique peut refléter une différence detraitement entre acheteurs (par exemple entarifant des frais de port de façonindépendante de la distance).

Trois catégories de discriminationpar les prix

La typologie suivante permet de distinguertrois catégories de discrimination par les prix :• la discrimination du premier degré ou«politique de prix personnalisés » consiste à faire

Page 21: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

Ce price cap donne à La Poste une visibi-lité pluriannuelle qui doit lui permettre depréserver son taux de marge actuel, voire del’augmenter si elle accroît sa productivité, etde réaliser les investissements nécessaires –900 millions d’euros en 2005 – à l’adapta-tion de son outil de production industrieldans un contexte de concurrence accrue. Ilgarantit également qu’une partie des gainsengendrés bénéficie aux consommateurs.Ainsi, si La Poste souhaitait augmenter letarif de base, actuellement de 53 centimes,elle ne pourrait le relever de plus de 1 ou 2centimes d’euro par an. ■

de La Poste. Pour calculer ce price cap,l’ARCEP a pris en compte l’inflation, dont laréférence est l’indice des prix à laconsommation (+ 1,8 % par an), conjuguée àla baisse estimée des volumes traités par la Poste(-0,35 % en moyenne ces trois dernièresannées), à l’évolution des charges de l’opérateur(+1,65% par an) et à l’élasticité-prix de lademande (- 0,28). En partant de ceshypothèses, les calculs de l’ARCEP fontapparaître que les tarifs du service universelpostal ne pourront pas augmenter de plus de2,1 % par an en moyenne sur les années 2006,2007 et 2008.

La loi de régulation des activités postales a confié à l’ARCEP la régulation des tarifs postaux.En effet, le ministre délégué à l’Industrie n’homologue plus les tarifs, hormis ceux desprestations offertes au titre du service public du transport et de la distribution de la presse.Désormais, les tarifs des services sous monopole sont approuvés par le régulateur. L’Autoritéformule son opposition éventuelle par une décision motivée. L’Autorité est par ailleursinformée, préalablement à leur entrée en vigueur, des tarifs des prestations des autresservices sur lesquels elle peut rendre un avis public. L’Autorité tient compte, dans sesdécisions ou avis, de la situation concurrentielle des marchés, en particulier pour l’examendes tarifs des envois en nombre.

L’encadrement des tarifs postaux

Estimez-vous que le service postal est rendude façon satisfaisante ?

Actuellement, le service postal est assurépresque exclusivement par La Poste. Elle le rendglobalement de manière satisfaisante avec unebonne régularité. La Poste bénéficie encore de safonction de détentrice du monopole avec unréseau de bureaux de poste distributeurs quiémaillent la France entière, des moyens importantstant humains que matériels et un savoir-faireacquis avec le temps.

Le service est de qualité. En ce qui nousconcerne, en tant que « Grands comptes », nousavons des contacts privilégiés et nous rencontronsune bonne réactivité à nos demandes spécifiques.Néanmoins, des changements tendant à diminuercette qualité sont perçus de l’extérieur, comme,par exemple, en ce qui nous concerne, lacentralisation presque obligatoire de la distributiondu courrier par l’adresse postale définie par leCedex, au détriment de l’adresse géographique,pour les sites institutionnels ; cette centralisationsur le Cedex impose ensuite une redistribution

interne du courrier sur dessites géographiquesnombreux et distants.

En tant qu’utilisateur,qu’attendez-vous durégulateur ?

L'ARCEP doit être garantedu service postal universel,ainsi que de la qualité duservice rendu par lesentreprises qu'elle autorisera àconcurrencer La Poste. Il estessentiel que le régulateurs'assure des capacités de celles-ci à prendre en chargel’acheminement du courrier, et le respect desengagements pris, notamment sur les envoisrecommandés utilisés dans le cadre desprocédures administratives et juridictionnelles. Deplus, le régulateur doit être en mesure de jouerpleinement son rôle dans la lutte contre lesententes illicites entre opérateurs. ■

J U I L L E T / A O Û T 2 0 0 6 ● LA LETTRE DE L’AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES 21

Secteur postal

L’encadrement tarifaire (ou pricecap) décidé par l’ARCEP pour lapériode 2006-2008 s’inscrit dansune période de transition du

marché postal vers une structure plus concur-rentielle, avec la perspective d’une libéralisa-tion totale du marché postal en 2009. Il portesur les tarifs des offres du service universelassurées par La Poste à l’exclusion des prestations offertes au titre du service publicdu transport et de la distribution de la presse :l’affranchissement du courrier national etinternational de moins de 2 kg, les envoisrecommandés et les colis (hors express) jusqu’à20 kg, ainsi que sur les produits de la gamme« mobilité » (réexpédition, garde du courrier etabonnement mobilité).

L’établissement d’un price cap s’inscrit dansla pratique courante des régulateurs européens.Il a pour objectif de limiter l’évolution des prixdes produits du service universel postal, surlequel porte la régulation, tout en maintenant,grâce à un effort d’efficience, le taux de marge

L’ARCEP a fixé la hausse maximum des prix des offres du service universel de La Poste à 2,1 % paran sur trois ans. Ainsi, le tarif de base (actuellement égal à 53 centimes d’euro) ne pourra pas augmenterde plus de 1 ou 2 centimes d’euro par an.

La Poste pourra augmenter les tarifs du service universel de 2,1 % par an

Les acteurs du secteur postal en FranceLa Lettre poursuit son tour de France des acteurs postaux. Aujourd’hui, un autre grand émetteur de courrier : la Ville de Marseille.

Jean-Pierre Garcia - Directeur Général des Services à la Population - Ville de Marseille Que peut vous apporter la libéralisation dusecteur postal ?

Dans un premier temps, cette libéralisation partielledevrait avoir pour conséquence une augmentationdes coûts d'affranchissement et de traitement ducourrier, car nous devrons opérer - que La Poste soitou non l’opérateur - une distinction entre les plis deplus et de moins de 50 grammes pour respecter lemarché public rendu obligatoire. Les machines àaffranchir intelligentes qui pourraient permettred’opérer cette distinction sont distribuées par dessociétés en relation d’exclusivité avec La Poste et àce jour ne disposent pas de solutions avec desopérateurs multiples.

Par la suite, la libéralisation totale pourrait entraînerune baisse des coûts d'acheminement des courrierssur certaines destinations urbaines et/ou locales. Leplus probable étant la création de services plusréactifs, avec une meilleure prise en compte de nosbesoins spécifiques non programmés etmomentanés, sans contractualisation contraignante,comme le routage, le courrier express, l’envoiélectronique recommandé, la mise sous pli…

Page 22: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

Juridique

22 LA LETTRE DE L’AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES ● J U I L L E T / A O Û T 2 0 0 6

BLR-Wimax : le Conseil d’Etat confortela sécurité juridique des autorisationsd’utilisation de fréquencesLe Conseil d’Etat vient de se prononcer sur un recours relatif aux autorisations de BLR. Cet arrêt (1)

présente un caractère structurant pour le secteur : il permet d’assurer la sécurité juridique desautorisations d’utilisation de fréquences délivrées par l’ARCEP, tout en lui laissant la faculté d’exercerson rôle pour assurer la bonne utilisation des fréquences.

En 2003, l’Autorité a autoriséAltitude Télécom à utiliser desfréquences dans la bande 3,4-3,6GHz sur l’ensemble du territoire

métropolitain, dans le cadre de la procédured’attribution de droit commun, c’est à direau fil de l’eau. En effet, la synthèse de laconsultation publique, publiée le 12 mars2003, avait permis d’établir que le degré derareté dans la bande 3,5 GHz ne justifiaitplus l’attribution par appel à candidaturesdes fréquences disponibles.

Parallèlement, constatant les difficultéstechniques de déploiement de la bouclelocale radio, Neuf Telecom renonçait à sesautorisations, attribuées lors des appels àcandidatures de 2000.

Toutefois, au cours des deux annéessuivantes, la technologie « Wimax » a relancél’intérêt de nombreux opérateurs et descollectivités territoriales pour les fréquencesde boucle locale radio disponibles dans labande 3,4-3,6 GHz. Au vu de la raretéconstatée, l’Autorité décide, en juillet 2005,de procéder à l’attribution des fréquences parun mécanisme d’appel à candidaturesrégional.

Le 2 novembre 2005, Neuf Telecom ademandé à l’ARCEP d’abroger l’autorisationdétenue par IFW – anciennement AltitudeTélécom, titulaire de l’autorisation de bouclelocale radio sur le territoire métropolitain,dont 100% du capital a été racheté par Iliad– faisant valoir que cette abrogation étaitimposée, d’une part, par la modification de laprocédure d’attribution des autorisations et,d’autre part, par le fait qu’il y aurait eu unecession déguisée des autorisations d’AltitudeTélécom à Iliad, mettant en cause lesconditions d’une concurrence effective etloyale sur ce marché. L’Autorité ayant refuséde faire droit à cette demande, Neuf Telecoma saisi le Conseil d’Etat d’une requête enannulation de cette décision de refus.

Par sa décision du 30 juin 2006, leConseil d’Etat a rejeté la requête.

En principe, en droit administratif,

l’autorité administrative est tenue d’abrogerune décision administrative devenue illégalesuite à un changement de circonstances, maisseulement si la décision en question n’a pascréé de droits au profit de son titulaire, etn’est pas devenue définitive.

La première question que le Conseild’Etat devait donc trancher était celle ducaractère créateur de droits des décisions del’ARCEP permettant l’utilisation dudomaine public hertzien.

En effet, les fréquences appartiennent audomaine public de l’Etat et le principegénéral est que les autorisations d’occupationdu domaine public sont précaires etrévocables. Mais d’importantes évolutionsont marqué le droit récent pour en permettrela valorisation économique du domaine enfacilitant le financement des investissementsdes occupants. Ainsi, le Conseil d’Etat avaitreconnu, par sa décision du 10 octobre 1997,« Société Strasbourg FM », que lesautorisations d'usage de fréquenceshertziennes accordées par le Conseilsupérieur de l'audiovisuel, étaient créatricesde droits.

Le Conseil d’Etat a donc étendu ceprincipe aux autorisations d’utilisation defréquences délivrées par l’ARCEP enestimant que l'attribution à AltitudeTélécom des licences litigieuses, alors mêmequ'elle emporte autorisation d'occupationdu domaine public, avait créé des droits auprofit de cette société. Cette solution protègeles investissements des opérateurs afin deleur permettre d’exercer leur activité dansdes conditions économiques satisfaisantes vule niveau des investissements requis et sansque la nécessité d’utiliser une ressourcedomaniale puisse être un obstacle.

Ce point étant acquis, le Conseil d’Etat enconcluait logiquement que même ensupposant que le changement decirconstances tenant à la modification de laprocédure d'attribution ait pu rendre illégalesles autorisations attribuées avant cechangement, l'ARCEP n'était donc pas

tenue, eu égard au caractère créateur de droitset définitif des autorisations de boucle localeradio en cause, de prononcer leur abrogation.

Il a ensuite écarté l'argumentation tirée dece que le régulateur aurait dû abroger ceslicences pour assurer la bonne gestion dudomaine public hertzien et une concurrenceeffective et loyale.

En effet, et c’est le second pointimportant tranché par le Conseil d’Etat, déslors que le caractère créateur de droit étaitreconnu aux autorisations d’utilisation desfréquences pendant la durée de leur validité,l’ARCEP ne peut les abroger que pour lesmotifs prévus à l’article L. 36-11 du Code(instituant les procédures de sanction) etselon les modalités prévues par cet article.

En l’espèce, il ne ressortait pas du dossierqu’Altitude Télécom n’aurait pas respecté lesconditions posées par la réglementation envigueur ou les autorisations qui lui avaientété délivrées.

Le Conseil d'Etat écarte également lathèse selon laquelle les autorisationsattribuées à Altitude Télécom auraient faitl'objet d'une cession déguisée à Iliad. Ilestime que la cession de la totalité des partssociales d’une société ne saurait être analyséeni comme une cession du fonds decommerce, ni comme emportant la créationd’une personne morale nouvelle et qu’ainsiles fréquences en cause n’ont pas cesséd’appartenir à la même personne morale.Aucune disposition législative ouréglementaire n'interdisait donc un telrachat, ni d'ailleurs n'imposait que l'ARCEPen soit informée.

Enfin, le Conseil d'Etat a estimé que lemoyen tiré de ce que la possession desautorisations litigieuses placerait IFW ensituation d'abuser d'une position dominanten'était, en tout état de cause, pas établi par lesécritures de Neuf Telecom ou les pièces dudossier. ■

1 Arrêt du 30 juin 2006 « Société Neuf Telecom SA »n°289564, téléchargeable surhttp://www.arcep.fr/textes/recours/ce-9telecom-300606.pdf

Page 23: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

Actualité

J U I L L E T / A O Û T 2 0 0 6 ● LA LETTRE DE L’AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES 23

Autorisations BLR-Wimax : les résultats

des engagements financiers qu’ils ont pris dansleur dossier de candidature (les conseilsrégionaux ayant postulé pour 1 eurosymbolique). Une redevance annuelle de prèsde 2,4 millions d’euro sera par ailleurs verséechaque année au budget général de l’Etat parl’ensemble des opérateurs BLR.

Désormais, il appartient aux candidatsd'accepter formellement ces autorisations. Saufdésistement, les fréquences correspondantesleur seront attribuées d'ici fin juillet. ■

de l’ARCEP. Les titulaires d’une autorisationBLR pourront ainsi la transférer, en totalité oupartiellement (au niveau d’un département parexemple) à un tiers. La mise à disposition desfréquences – en totalité ou en partie – à un tiersest également autorisée.

Les montants financiers perçus par l’Etat

125 millions d’euro seront versés par leslauréats à l’Etat. Ils correspondent au montant

Deux autorisations étaient en jeu danschacune des 22 régions demétropole et en Guyane, trois àMayotte. Les dossiers ont été

départagés selon trois critères : la contributionau développement territorial des services à hautdébit, l’aptitude à favoriser la concurrence sur lehaut débit (par exemple en proposant des offresde gros donnant accès aux infrastructures deBLR à des fournisseurs tiers) et le montantfinancier proposé par le candidat.

Une analyse comparative détaillée de cestrois critères pour chaque proposition descandidats a été publiée. Elle est consultable surle site de l’Autorité.

Les collectivités ont trouvé toute leur place

La procédure a donné leur chance à tous lesacteurs, en particulier aux collectivitésterritoriales, qui ont trouvé leur place dans laprocédure. Nombre de conseils régionaux ontmis en œuvre des regroupements decandidatures de collectivités infra-régionalesnécessaires à la cohérence territoriale de leurprojet. Ainsi, un nombre important de conseilsrégionaux (14) ont participé aux procédures desélection. Six ont été retenus. Les collectivitésne disposant pas de fréquences ne sont pas pourautant exclues puisqu’elles pourront y accédervia des partenariats public-privé avec lesopérateurs retenus.

Favoriser le déploiement rapide du Wimax sur le territoire

Les candidats retenus ont souscrit desengagements de déploiement importantspuisque plus de 3.500 sites d’émission (autantqu’un réseau GSM ou 3G) seront ouverts dèsjuin 2008. Ces déploiements couvrent enparticulier les zones non couvertes par le DSL,dites « zones blanches». Il convient de noterque certains candidats fournissent des offres degros d’accès à leurs réseaux, parfois sans fournireux-mêmes d’offres de détail. Certainsprévoient de céder les fréquences là où ils ne lesutilisent pas.

Un régime d’attribution offrant de la souplesse

La répartition des fréquences pourra évoluergrâce à un mécanisme de cession d’autorisationde type « marché secondaire », sous le contrôle

35 candidats étaient en lice pour obtenir une autorisation de boucle locale radio en technologie Wimax. Auterme de cinq mois de dépouillement, l’Autorité a choisi 15 acteurs (dont six Conseils régionaux) quise partageront les ressources en fréquences disponibles. Résultats en couleur…

Bolloré Télécom (85% Bolloré, 10% Hub Télécom et 5% Antalis TV)

Collectivité Territoriale de Corse

Conseil régional d'Alsace

Conseil régional d'Aquitaine

Conseil régional de Bretagne

Conseil régional de Bourgogne

Conseil régional Poitou-Charentes

HDRR Multi-Régions (90,2 % TDF, 4,9% LDCollectivités et 4,9% Axione)

HDRR Centre est (90,2 % TDF, 4,9% LDCollectivités et 4,9% Axione)

Maxtel (50% Altitude et 50% APRR - société desAutoroutes Paris-Rhin-Rhône)

Société du Haut Débit (66% SFR et 34% NeufTelecom)

Départements et Territoiresd’Outre-mer

Candidats retenus

Département d'outre-mer de la Guyane

France TélécomGuyatel

(50% OMTSL et 50% Infotech Net)

Collectivitéterritoriale de Mayotte

France TélécomGuét@li Haut Débit

(99,99% SFR)STOI Internet

(4 particuliers)

Autorisations BLR – Wimax délivrées par Départements et Territoires d’Outre-mer (7 juillet 2006)

Répartition des autorisationsWiMax par opérateur en métropole

Page 24: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

Réexamen du cadre réglementaire européenRéexamen du cadre réglementaire européen

Jim Murray Directeur – BEUC (Bureau Européen des Unions de Consommateurs)

La Lettre de l'Autorité revient sur le chantier d'envergure que constitue le réexamen du cadre réglementaireeuropéen. Aujourd'hui, la parole est donnée à une association européenne de consommateurs, leBEUC.

24 LA LETTRE DE L’AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES ● J U I L L E T / A O Û T 2 0 0 6

La review : qu’en attendent-ils ?

Services de capacité : L’Autorité notifie àla Commission européenne son analysede marché des services de capacité pourles entreprises. Dans son projet dedécision, elle propose un allégement dela régulation du marché de détail etprivilégie l’incitation au déploiement deréseaux en fibre optique en n’imposantpas d’orientation vers les coûts auxoffres de gros de segment terminal deplus de 10 Mbit/s sur fibre optique.

Interconnexion et sélection du

transporteur : France Télécom a publiéle 23 juin dernier une nouvelle version deson offre de référence « Interconnexionet sélection du transporteur ». En dehorsd'une modification éditoriale, qui

consiste à publier les tarifs dans desannexes spécifiques et thématiques,France Télécom a procédé à la mise àjour de plusieurs tarifs. La modification laplus importante concerne le tarif desBPN d'interconnexion au niveau ducommutateur d'abonnés, en baisse de20%.

Formation : La promotion 2006 duBADGE, diplôme de la Conférence desgrandes écoles françaises, poursuit soncycle de formation dans les matièreséconomique, technique et juridique quiintéressent les communicationsélectroniques. A l’initiative de l’ARTEL, lerégulateur Burkinabé, Christine Galliardet Grégoire Weigel, membres du Service

juridique de l'ARCEP, se sont ainsirendus à Ouagadougou pour aborderavec les différents participants, lesquestions liées aux procédurescontentieuses et non contentieusespropres à la régulation.

BRÈVES

malheureusement pas mis en oeuvre demanière correcte, ni de façonhomogène dans les Etats membres.Cela désavantage les consommateurs.Des dispositions spécifiques pourraientcontribuer à résoudre ce problème.Toutefois, pour nous, touteharmonisation devrait être uneharmonisation a minima : les EtatsMembres devraient avoir la possibilitéd’aller au-delà de la législationeuropéenne en fonction de leursparticularités nationales.

Nous pensons que les droits desutilisateurs et la protection desconsommateurs devraient êtrerenforcés, notamment la transparencedes prix, les informations sur lesservices et les modalitéscontractuelles. De la même manière,pour permettre aux consommateurseuropéens d’avoir recours dans debonnes conditions aux accords àl’amiable, il conviendrait de renforcer etde préciser le dispositif prévoyant lesconditions de réparations des litiges (ycompris pour les litigestransfrontaliers). Enfin, nous attendonsdes règles cohérentes et faciles àcomprendre par les consommateurssur la sécurité des réseaux et sur laprotection de la vie privée (par exempleun régime de consentement préalablepour les communicationscommerciales automatiques). ■

http://www.beuc.org

manière opportune les intérêts desconsommateurs finaux. Aussi unerégulation ex ante nous paraît-ellenécessaire.

Quelles mesures d’harmonisationsont nécessaires pour lesconsommateurs en Europe ?

Les investissements dans lesinfrastructures ont toujours étéencouragés par les autoritéscommunautaires et nationales maispeuvent sans doute être réellementsoutenus grâce à une meilleure mise enœuvre de la réglementation. Parexemple, les investisseurs deviennentfrileux quand les autorités deréglementation privilégient ledégroupage des réseaux desopérateurs historiques ou fixent les tarifsde terminaison d’appel des opérateursde boucle locale à des niveaux trop bas,en dessous de leurs coûts. Les câblo-opérateurs sont les seuls réseauxtotalement indépendants desopérateurs historiques : eux seulspermettent d’assurer une véritableconcurrence sur le long terme. Il fautque leur démarche soit soutenue par lerégulateur.

La convergence entre opérateursde contenant et de contenu rend-elle nécessaire une nouvellerégulation du contenu ?

Le cadre réglementaire n’est

Qu’attendez-vous de la Reviewengagée en 2006 ?

Globalement, les objectifs du cadreréglementaire actuel nous satisfont carils visent à favoriser la concurrence touten reconnaissant à tous lesconsommateurs le droit de disposerd’un accès « abordable » aux « servicesde communications essentiels » etd’une protection adéquate. Il est doncessentiel de maintenir les dispositionssur le service universel et de renforcercelles sur les droits des utilisateurs.

Le BEUC ne soutiendrait pas uneredéfinition majeure de la notion deservice universel, telle par exemple uneapproche qui séparerait lesinfrastructures des services. Nousestimons qu’il serait prématuré de ledéfinir en se fondant sur le potentiel desservices IP ou sur le niveau de laconcurrence sur le marché, qui sontencore incertains. Un « filet de sécurité»,en l’occurrence les obligations deservice universel, doit être mis en placepour protéger les consommateurs lesplus vulnérables, ceux qui bénéficient lemoins de la concurrence et desdéveloppements technologiques.

Eu égard au rôle primordial quejouent les communications dans la viede tous les jours et à la menace d’abusde position dominante inhérente auxindustries de réseaux, nous pensonsque les régulateurs devraient disposerde pouvoirs suffisants pour protéger de

« Le service

universel est un

filet de sécurité

qui doit être

maintenu pour

protéger les

consommateurs

les plus

vulnérables. »

Act

ualit

é

Page 25: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

moindres puisque c’est le cas par exemple duspécialiste du commerce électronique dematériel informatique LDLC – sont revenues enarrière à cause de ces problèmes.

Avez vous ouvert les télécoms de l'ARCEPà la concurrence ? Comptez-vous le fairepour les services d'envois postaux ?

La mise en concurrence de nos télécoms aeu lieu en 2001 au début de la libéralisation. Lapremière année, nous avons d’entrée de jeuéconomisé 47 % de notre facture précédente.Nous disposons aujourd’hui d’une bonnequalité de service. D’une façon générale,toutes nos prestations – messagerie,connexion Internet, etc – sont mises enconcurrence. C’est la règle et il n’y a pas deraison qu’il en soit autrement pour les servicespostaux dès que ce sera possible.

D'une manière générale, commentintégrez vous la dimension"modernisation de l'Etat" (dépenser mieuxen apportant une meilleure qualité deservice au meilleur coût) dans votreréflexion ?

Les chiffres parlent d’eux mêmes.

Actuellement, dans les administrations, lesinvestissements vont aux services pour60 %, aux matériels pour 21 % et auxlogiciels pour 19 %, ce qui fait quebeaucoup d’administrations ont deslogiciels datés d’avant 2000. A l’ARCEP,c’est 37 % pour les services, 26 % pour lesmatériels et 37 % pour les logiciels : on estlargement à la pointe sur les logiciels.

Par ailleurs, il est très facile de dépenserde l’argent en informatique. Si on n’a pasune vision claire de ce que l’on veut faire, onpeut vite se lancer dans des dépensesinconsidérées et au final improductives. Al’ARCEP, nous avons une visionprospective. L’argent économisé grâce à laprogrammation de nos besoins permetd’améliorer le quotidien des agents : nouschangeons ainsi les micro ordinateurs tousles 3 ans. Et le matériel devenu obsolètechez nous est recyclé dans d’autresadministrations – police, éducation nationale– sans doute moins bien dotées maisheureuses de récupérer des ordinateursplus récents. La Cour des comptes, dansson dernier rapport, a salué cette bonneutilisation des deniers publics. ■

Vie de l’ARCEP

Les travailleurs de l’ombreLe quotidien des agents de l’Autorité, c’est elle : l'unité « Systèmes d'information et affaires générales »gère toutes les ressources informatiques et logistiques de l’ARCEP, ainsi que la sécurité del'information et des locaux. Interview de Pierre-Jean Darmanin et Jean-Paul Daufès, respectivementchef d’unité et adjoint.

J U I L L E T / A O Û T 2 0 0 6 ● LA LETTRE DE L’AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES 25

Quelles technologies nouvelles utilisezvous dans le système d'information del'ARCEP ?

Nous avons testé le Wifi que nous avonsabandonné pour des raisons de sécurité ; maismaintenant qu’il est plus fiable, nous allons lemettre en place dans les salles de réunion enaccès externe. Autre nouvelle technologieutilisée ici mais peut-être moins visible del’extérieur : la mutualisation des ressources destockage (ou SAN pour Storage Area Network)qui permet de redimensionner les espaces destockage des serveurs en fonction desbesoins. Je citerai aussi la virtualisation desserveurs, technologie sur laquelle noussommes précurseur en France et même vitrinepuisque des sociétés viennent visiter notremodèle. L’idée, c’est de regrouper plusieursmachines virtuelles sur une machine physique.A l’ARCEP, 18 serveurs virtuels cohabitent ainsisur 3 machines physiques. Les avantages sontnombreux : souplesse, réduction des coûts,maintenance simplifiée.

Qu’est-ce qui, dans votre activité, ne sevoit pas mais vous paraît important ?

La sauvegarde des données : personne n’ypense, mais c’est fondamental. L’ARCEPsauvegarde tous les jours un Tera de données(soit 1000 Giga) et la taille des donnéessauvegardées va croissante ! Notre unité atravaillé plusieurs années sur cette questionpour trouver une solution fiable à 100 % ettransparente pour l’utilisateur.

Par ailleurs, la question de la sécurité, qui estdéjà une forte préoccupation car l’Autoritétravaille sur des dossiers sensibles, va devenirde plus en plus importante dans les années àvenir. L’ARCEP subit pas moins d’unequinzaine d’alertes virales par jour et reçoitentre 30 000 à 50 000 spams par moisstoppés par des systèmes de protection mis àjour quotidiennement. Dans toute notre activité,cette préoccupation de sécurité est constanteet occupe déjà 40 % de notre temps.

La direction générale à la modernisationde l'Etat pousse à l’utilisation destandards ouverts. L'ARCEP les applique-t-elle ?

Non car les acteurs externes avec lesquelsnous sommes en contact permanent – 10 000messages sont échangés chaque jour – nesont pas en “open source”. Nous utilisonsdonc plutôt les technologies les plus répanduessur le marché. En outre, s’il est vrai quel’utilisation des logiciels libres peut contribuer àune bonne gestion des dépensesinformatiques, on n’y trouve toutefois pas toutela gamme des services pouvant répondre à nosbesoins. Certaines sociétés – et pas des

5

4321

109

8

76

Coup de chapeau à Régine LaporteLes litiges consommateurs, les questions en tous genres sur leslicences, les fréquences, le dégroupage, les numéros, etc, RégineLaporte connaît par cœur : elle a l’immense et lourde tâche detenir l’accueil téléphonique de l’ARCEP. Soit 500 à 700 appels parsemaine filtrés, triés, orientés avec le sourire et un accentensoleillé, le tout en trois langues : français, anglais et espagnol.Mais Régine Laporte ne fait pas que passer les appels : « quand le12 a disparu avec l’arrivée des numéros 118, les gens se sont affolés »raconte cette ancienne diplômée de l’Ecole Hôtelière de Tarbes.Pour les rassurer, elle a immédiatement entrepris de leur envoyerà tous la liste des nouveaux numéros 118. Professionnelle etsympathique, en un mot : indispensable.

De gauche à droite : 1- Guy Carollo, 2 - Jean-Marc Vié, 3 - Marie-PauleLubert, 4 - Pierre-Jean Darmanin (chef d'unité), 5 - Régine Laporte, 6 - Cyrille Garnier, 7 - Dominique Rénia, 8 - Jean-Paul Daufès (adjoint), 9 - Ginette Faye, 10- Gilles Feuillas.

Page 26: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

Actualité

26 LA LETTRE DE L’AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES ● J U I L L E T / A O Û T 2 0 0 6

Vente en gros de l’abonnement : les premiers contrats sont signésLa vente en gros de l’accès au service téléphonique (« VGAST ») est en place. Cette offre de gros deFrance Télécom va permettre aux concurrents de l’opérateur de proposer des offres intégréesplus simples aux consommateurs, notamment dans les zones non dégroupées qui regroupentaujourd’hui 46% de la population. Elle va également jouer un rôle important dans le contexte plusglobal de convergence.

La sélection du transporteur, si elle afortement contribué audéveloppement de la concurrencesur les marchés des

communications, atteint ses limitesconcurrentielles en ne pouvant à elle seulepermettre l’instauration complète d’uneconcurrence effective et loyale. Aussi l’Autoritéa imposé à France Télécom, et comme remèdecomplémentaire à la sélection du transporteur,l’obligation de fournir une nouvelle offre degros permettant aux opérateurs de proposer àleurs clients des offres complètes de servicetéléphonique, incluant l’acheminement del’ensemble de leurs communications et lesprestations de raccordement au réseautéléphonique public.

De son côté, dans le cadre du processusd’homologation de la hausse du tarif del’abonnement principal et des frais de miseen service liés à cet abonnement, FranceTélécom s’était publiquement engagée, enfévrier 2005, à publier une première offre deréférence de vente en gros de l’accès auservice téléphonique (ci-après VGAST etimproprement appelée « revente del’abonnement ») au 15 septembre 2005, cequ’elle a fait, pour une commercialisation au1er avril 2006 au plus tard.

En parallèle, des discussions multilatéralesont réuni pendant l’année 2005, sous l’égidede l’Autorité, France Télécom et lesopérateurs alternatifs. Elles ont permis despécifier les modalités techniques et tarifairesd’une telle offre d’accès (1). En particulier,l’offre de VGAST est proposée à des tarifsreflétant les coûts. Ces discussions se sontégalement accompagnées d’un processusd’expérimentations dont la vocation est defavoriser la mise en œuvre technique del’offre, et de créer les conditions d’undémarrage sans heurt.

Définition technique de l’offre

L’offre de VGAST ainsi définie s’appuiesur une offre de collecte des appels audépart des abonnés, comparable, dans ses

modalités, à la sélection du transporteur, àlaquelle, en accord avec l’ensemble desacteurs, la modalité habituelle permettantd’écarter appel par appel la présélection dutransporteur, a été retirée. A cette offre desélection du transporteur particulières’ajoutent alors, pour former l’offre deVGAST :- des prestations de raccordement physique

et logique au réseau téléphonique fixepublic de France Télécom,

- des prestations additionnelles permettantaux opérateurs alternatifs decommercialiser l’ensemble descommunications émises par le client final,y compris celles exclues du champ de lasélection du transporteur,

- certains outils complémentaires nécessairesà la gestion de la ligne,

- ainsi que la fourniture de services associés,comme la présentation du nom ou letransfert d’appel.

Par ailleurs, la VGAST est compatibleavec une utilisation simultanée de la bandehaute de fréquences, notamment dans le casd’offres de gros d’accès large bande livrées auniveau régional ou national ou dedégroupage partiel, et ce quel que soitl’opérateur exploitant cette bande haute.

Enfin, un abonné VGAST étantphysiquement raccordé sur le réseau deFrance Télécom, une souscription à uneoffre VGAST n’entraîne pas la portabilitédu numéro à « l’opérateur VGAST », quibénéficie en revanche d’une mise àdisposition du numéro attribué à FranceTélécom.

Répondre aux souhaits d’offresforfaitaires des consommateursD’ores et déjà, plusieurs acteurs majeurs

du secteur de la présélection ont signé avecFrance Télécom les contrats leur permettantd’acheter l’offre de VGAST et ont lapossibilité de se lancer progressivement dansla commercialisation d’un servicetéléphonique complet à leurs clients.

En permettant à un opérateur alternatif

de commercialiser un tel service global, lamise en place de la VGAST autorise lesacteurs du marché à développer des offresinnovantes couplant par exemple accès etcommunications, et pour ceux qui sontégalement présents sur le marché de l’accèshaut débit, couplant téléphonie fixe et offrede haut débit.

De telles offres forfaitaires répondent auxsouhaits des clients de plus en plus désireuxd’une simplification et d’une unification deleurs factures téléphoniques et sont appeléesà jouer un rôle important dans le contexteactuel plus global de convergence. A ce titre,l’Autorité a d’ailleurs rendu des avis positifspour le lancement d’offres commercialesexpérimentales de France Télécom,couplant accès, communications, voire hautdébit, et qui ne sauraient dorénavant êtreconsidérées d’office comme des couplagesabusifs.

Renforcer l’action de l’ARCEP sur les marchés de gros

L’offre de VGAST fait par ailleurs partiedu renforcement des moyens d’interventionde l’Autorité sur les marchés de gros : ils’agit de créer les conditions d’uneconcurrence effective et loyale en aval sur lesmarchés de détail tout en limitant lesinterventions directes sur ces derniersmarchés.

Associé au développement continu desoffres de détail de voix sur large bande, quiaugmente de fait la concurrence sur lesmarchés de détail des communications, cerepositionnement des outils sur les marchésde gros auquel participe pleinement laVGAST, permet à l’Autorité d’envisager unallégement de la régulation des marchés dedétail.

A terme ne devraient alors plus peser surFrance Télécom que ses obligations au titredu service universel et certaines obligationscomptables nécessaires à l’application duseul droit commun de la concurrence. ■

1 Qui ont été reprises dans la décision n° 06-0162 del’Autorité

Page 27: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

Actualité

J U I L L E T / A O Û T 2 0 0 6 ● LA LETTRE DE L’AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES 27

2005 : Une année charnière pour l’ARCEP

Ecarter le risque de remonopolisation de la boucle locale

« Nous allons explorer de nouveaux territoires enmatière de régulation des marchés de l’accès pourrépondre aux nouvelles problématiques qui émer-gent en matière de réseau très haut débit. La ques-tion qui se pose n’est pas " réguler ou ne pas réguler",mais plutôt quelle action sera la plus favorable àl’investissement du plus grand nombre d’acteursdans le développement de nouveaux réseaux dufutur et au développement de nouveaux servicesporteurs d’innovation pour notre société.

Il convient naturellement de s’intéresser à laquestion des infrastructures de génie civil, issues del’ancien monopole public et de la phase initialed’ouverture du secteur à la concurrence (…). Nouschercherons à répondre à la question de savoir si uneaction centrée sur le génie civil apparaît suffisantepour écarter le risque de remonopolisation de laboucle locale, ou si des actions complémentairesdoivent être envisagées ».

Investissement et collectivités locales

« Les collectivités locales développent de nouvellesinfrastructures et amplifient l’investissement privé(…). Ce sont les projets qui mettent à dispositionsdes acteurs économiques des infrastructures passives– fourreaux, fibres noires – qui semblent les plusadaptés dans un contexte technologique toujours trèsévolutif. Ces projets présentent un profil de risqueplus adapté pour un investissement public de longterme en minimisant le risque d’obsolescence ».

Entouré des membres du Collège de l’Autorité, Paul Champsaur a présenté le 3 juillet aux acteurs du secteurle rapport d’activité 2005 de l’ARCEP. Morceaux choisis.

Vers une 4e licence UMTS en France ?

La couverture du territoire par les services 3Greprésente un enjeu important (…). L'extension dela couverture sera tout d'abord facilitée par laréutilisation par la 3G des fréquences 900 MHzactuellement utilisées par la 2G. L'Autorité lancerasur ce sujet une consultation publique à l'automneprochain. Cette consultation aura notammentpour objet d'apprécier si une redéfinition de larépartition des bandes 900 et 1800 MHz est néces-saire pour garantir le maintien de l’équité des attri-butions de fréquences entre l’ensemble desopérateurs de réseaux mobiles de deuxième et troi-sièmes générations. A cette occasion, le marché seraà nouveau sondé quant à son intérêt pour laquatrième licence UMTS encore disponible ».

Soutien à la création d’un dividende numérique harmonisé européen

« Mais c'est l'accès à des fréquences encore plusbasses, c'est-à-dire inférieures à 800 MHz, qui estvéritablement de nature à permettre une couvertureefficace de l'ensemble du territoire par des servicesd'accès à haut et très haut débit sans fil. L'Autoritése félicite à cet égard de la création en mai dernierdu Comité stratégique pour le numérique, dont laprésidence déléguée a été confiée à Jean-MichelHubert (…). L'Autorité soutient la position de laCommission européenne selon laquelle la libérationd'un dividende numérique harmonisé représente unobjectif politique et industriel de première impor-tance au niveau européen ». ■

La régulation postale prend corps

« L’année 2005 aura été l’occa-sion pour l’Autorité de s’installer dansle paysage du secteur. Des travauxpréparatoires ont facilité cet appren-tissage (…). L’Autorité va continuerson action en veillant à faire en sorteque l’ouverture à la concurrenceamplifie les progrès d’ores et déjàobtenus en matière de qualité desservices, de productivité et d’innova-tion dans le secteur ; et garantir unservice universel de qualité auxconsommateurs ».

Accompagner l’innovation sur les marchés de détail au bénéfice des consommateurs

« Les progrès accomplis dans la richesse des offresde gros ont permis à l’ARCEP d’autoriser l’introduc-tion par France Télécom de nouvelles offres de servicessur les marchés de détails, démontrant ainsi qu’inno-vation et régulation ne s’opposent nullement ».

La dérégulation des marchésde détail va se généraliser

« Le repositionnement de nos outils sur lesmarchés de gros étant en bonne voie, le temps estvenu pour l’Autorité de s’engager résolument dans ladérégulation des marchés de détails (…). Le déve-loppement soutenu des offres de voix sur accès largebande et l’introduction de la VGAST, ou revente del’abonnement, sont les éléments clés qui sous-tendentcette dérégulation. En permettant à tous les opéra-teurs d’être présents sur le marché de l’accès au réseautéléphonique, les conditions d’une concurrence effec-tive et loyale sont ainsi créées ».

Une régulation qui se concentre sur les goulots d’étranglement

« L’Autorité privilégie la régulation par lesmarchés de gros, mais celle-ci se doit de rester dyna-mique en s’adaptant en permanence à la réalité desmarchés. Cette régulation se concentre sur les goulotsd’étranglement que constituent les réseaux d’accès etpeut être étendu transitoirement aux éléments deréseau d’un niveau supérieur, qui ont vocation à êtrerépliqué. Dans cet esprit, nous avions mis en placepour douze mois une régulation allégée du marchéde gros de la collecte ADSL nationale ; nous allonssoumettre à consultation publique une propositionde levée de ce régime transitoire ».

1. le Collège de l'ARCEP2. Paul Champsaur et Dominique Baudis, président du CSA3. Jean-Michel Hubert, président délégué du Comité stratégique

pour le numérique, Paul Champsaur et Edouard Bridoux4. Nicolas Curien et Antoine Weil, pdg de Expway5. Joelle Toledano, Benoit Loutrel et Jacques Champeaux, respon-

sable de la réglementation à France Télécom6. Gabrielle Gauthey, Michel Combes, président de TDF et Marcel

Desvergnes7. Marie-Christine Levet, présidente de Club Internet, et Michel

Feneyrol.

1.

2. 3.

4. 5.

6. 7.

Page 28: AOÛT 2006 - Autorité de Régulation des Communications ... · l’importance de la normalisation ne date pas d’hier. Il n’a fallu que 30 ans entre l’invention en 1832 du télégraphe

Un nouveau marché pertinentConformément au nouveau cadre

réglementaire communautaire, l'Autorité mènedes analyses concurrentielles sur les 18 marchéspertinents identifiés par la Commissioneuropéenne. Elle peut, dans des circonstancesparticulières, être amenée à définir de nouveauxmarchés pertinents non encore identifiés auniveau européen. C’est ce que l’Autorité a décidéde faire pour ce qui concerne la terminaisond’appel SMS (TA SMS).

En effet, malgré la forte baisse des coûtsunitaires du SMS, jamais depuis la mise en placede l’interopérabilité SMS en décembre 1999, lesopérateurs n’ont pris l’initiative d’abaisser les tarifsde la terminaison d’appel SMS (qui représententprès de 50% du prix de détail des SMS).

Initialement fixés à 5,3 centimes d’euros, lestarifs sont actuellement de 4,3 centimes d’eurossuite à une décision de règlement de différend del’Autorité de novembre 2005

Au vu du développement du SMS dans notrepays, illustré par une multiplication par 8,6 dunombre de SMS échangés entre 2000 et 2005, etdes problèmes concurrentiels identifiés, l’ARCEPconsidère qu’il est désormais nécessaire de mettreen place une régulation spécifique sur le marchéde gros la TA SMS en métropole, de façon àlibérer le jeu concurrentiel du SMS sur le marchéde détail et permettre la diffusion du SMS au-delàdu seul monde mobile.

Pas d’intervention directe sur le marché de détail

L’Autorité, espére que son action sur lesmarchés de gros sera suffisante et considère

qu’une intervention directe sur le marché dedétail n’est pas nécessaire à ce stade.Néanmoins, elle suivra attentivementl’évolution des prix de vente en gros de SMS,notamment ceux facturés aux MVNO et auxagrégateurs, ainsi que l’évolution des prix pourle consommateur.

L’Autorité constate que chacun des troisopérateurs mobiles métropolitains exerce uneinfluence significative sur le marché de gros dela terminaison d’appel SMS sur son propreréseau. A ce titre, elle propose de leur imposerdes obligations d’accès, de transparence, denon-discrimination et de séparationcomptable, ainsi qu’un contrôle tarifaire, sousla forme d’une orientation vers les coûts destarifs de terminaison d’appel SMS.

Une différenciation de tarif purement transitoire

L’ARCEP considère justifié etproportionné de fixer le tarif maximal de la TASMS à 3 cts d’€ par SMS pour Orange Franceet SFR, et à 3,5 cts d’euros pour BouyguesTélécom. Un tarif différent a été appliqué audernier opérateur entré sur le marché car il nebénéficie pas des mêmes avantages, en termede clientèle, que SFR et Orange France quidisposent tous les deux d’une part de marchéplus importante. En cela, l’Autorité a suivi larecommandation du Conseil de laconcurrence.

Cette différenciation tarifaire, justifiée àtitre transitoire, n’a pas vocation à perdurer,notamment au regard du critère d’efficacitééconomique.

La France est le premier pays en Europe àenvisager une régulation sur ce marché degros. ■

Actualité

AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES7, square Max Hymans - 75730 Paris Cedex 15Web: www.arcep.fr - Mél : [email protected] - Tél. : 0140477000 - Fax: 0140477198Responsable de la publication : Paul Champsaur - Directeur de la rédaction: Philippe Distler.Rédaction: Ingrid Appenzeller, Alain Finot, Jean-François Hernandez, Gwenaël Regnier (mission communication).

Ont contribué à ce numéro : Joëlle Adda, Marie-Thérèse Alajouanine, Ari Bibas, Hélène Boisson, Didier Chauveau, Michel Feneyrol, Christine Galliard,Rémy Lebrun, Stéphane Lhermitte, Henry-Pierre Melone, André Ricord, Loïc Taillanter, Grégoire Weigel.Crédit photo : ARCEP (pages 25, 27 et 28), Dominique Simon (pages 1, 27 et 28).Maquette: E. Chastel.Impression: Corlet Imprimeur, Condé-sur-Noireau.Abonnement : [email protected].

SUR L’AGENDA DUCOLLÈGEJuillet■ 3 juillet : Paul Champsaur,président, entouré des membresdu Collège de l’Autorité, présenteaux acteurs du secteur le rapportd’activité 2005 de l’ARCEP aumusée Bourdelle.

■ 7 juillet : Gabrielle Gauthey, Paul Champsaur,Jacques Douffiagues et Edouard Bridouxprésentent les résultats de la procédure dedélivrance des autorisations BLR – Wimax àl’ARCEP.

■ 17-18 juillet : Nicolas Curien donne unséminaire à l'Ecole Polytechnique Fédérale deLausanne sur le thème « Théorie des jeux etapplications dans l'économie industrielle ».

Remise du rapport d’activité2005 au Parlement et auPrésident de la RépubliquePaul Champsaur,Gabrielle Gauthey, JoëlleToledano, EdouardBridoux, Nicolas Curien,Jacques Douffiagues etMichel Feneyrol remettentle rapport d’activité 2005de l’ARCEP à ChristianPoncelet, président duSénat, le 15 juillet, puis àPatrick Ollier, président dela Commission desAffaires économiques àl'Assemblée nationale, le20 juillet.Le président et les membres du Collège del’Autorité seront reçus le 25 juillet par lePrésident de la République à l’Elysée pour laremise de ce même rapport annuel au chef del’Etat.

Baisse des tarifs de gros des SMS

28 LA LETTRE DE L’AUTORITÉ DE RÉGULATION DES COMMUNICATIONS ÉLECTRONIQUES ET DES POSTES ● J U I L L E T / A O Û T 2 0 0 6

LLaa CCoommmmiissssiioonn eeuurrooppééeennnnee aa vvaalliiddéé llaa pprrooppoossiittiioonn ddee ll’’AAuuttoorriittééddee bbaaiisssseerr llee ttaarriiff ddee ggrrooss ddee llaa tteerrmmiinnaaiissoonn dd’’aappppeell SSMMSS,, quireprésente aujourd'hui environ la moitié du prix de détail d'un SMS.La France est le premier pays en Europe à réguler ce marché.

(en millions d’unités) 2000 2001 2002 2003 2004 2005

Nombre deSMS émis

1 471 3 508 5523 8188 10355 12712

(Sou

rce

AR

CE

P)