26
Numéro 2013 EDITORIAL La SEE souhaite contribuer à la constitution et au développement de nouvelles filières industrielles Par Jean-Pierre Benqué ENTRETIEN AVEC Gilles Brégant Directeur Général de l’ANFR www.see.asso.fr 1 ISSN 1265-6534 DOSSIERS Les vulnérabilités des grands réseaux de télécommunication Par Patrice Collet L'ARTICLE INVITÉ

Aperçu du numéro 2013-1 de la REE (avril 2013)

Embed Size (px)

DESCRIPTION

Cet aperçu permet de découvrir le sommaire et les principaux articles du numéro REE 2013-1 publié en avril 2013 - Pour s'abonner, merci de vous rendre à la dernière page.

Citation preview

Page 1: Aperçu du numéro 2013-1 de la REE (avril 2013)

ÉNERGIE TELECOMMUNICATIONS SIGNAL COMPOSANTS AUTOMATIQUE INFORMATIQUE

Num

éro

2

013

EDITORIAL La SEE souhaite contribuer à la constitution

et au développement de nouvelles filières industrielles

Par Jean-Pierre Benqué

ENTRETIEN AVEC Gilles Brégant

Directeur Général de l’ANFR

www.see.asso.fr

1

ISSN

126

5-65

34

DOSSIERS

Les vulnérabilités des grands réseaux de télécommunicationPar Patrice Collet

L'ARTICLE INVITÉ

jphauet
Zone de texte
Cette aperçu gratuit permet aux lecteurs ou aux futurs lecteurs de la REE de découvrir le sommaire et les principaux articles du numéro 2013-1 de la revue, publié en avril 2013. Pour acheter le numéro ou s'abonner, se rendre à la dernière page.
Page 2: Aperçu du numéro 2013-1 de la REE (avril 2013)

REE N°1/2013 ◗ 1

D ans ce numéro on trouve un important dossier sur le véhicule électrique. C’est sans aucun doute l'un des domaines où la France doit constituer et

faire vivre une nouvelle filière industrielle.Louis Gallois, dans son rapport, constate qu’en France les fi-lières ne fonctionnent pas comme telles. Le tissu industriel est insuffisamment solidaire. Certes, en économie de marché, les entreprises doivent protéger leur savoir-faire et leurs avantages concurrentiels mais elles peuvent aussi reconnaître des intérêts communs et collaborer.L’Allemagne et l’Italie le font certainement mieux que nous. Il s’agit bien souvent de lever ensemble les freins au développement d’un nouveau marché et de pouvoir parler de façon cohérente pour créer des conditions économiques favorables, soutenues ou non par l’État, et établir la normalisation indispensable ; en un mot de donner de la visibilité aux processus industriels.Le rôle d’une filière industrielle doit être également de se soucier de l’articulation avec la recherche plus fondamentale. Il convient en effet d’adapter cette recherche aux besoins de l’industrie et d’orienter les ressources vers des sujets qui sont propices au dé-veloppement en sachant protéger les innovations par des brevets.Il en va de même avec la formation. Le développement indus-triel ne peut se faire que si ce dernier est compatible avec les compétences disponibles sur le marché de l’emploi. Le dia-logue entre l’industrie et l’enseignement technique et scienti-fique est ici indispensable.

Ce que la SEE souhaite faire en créant le Cercle des Entreprises, c’est d’établir un lieu où les industriels et opérateurs, interve-nant au sein d’une même filière, échangent, collaborent pour, ensemble, en favoriser le développement.

Sur quels sujets ?

Traditionnellement la SEE est une société savante qui s’intéresse aux innovations dans le domaine des courants forts et des cou-rants faibles. Or le secteur de l’électricité est en pleine mutation en particulier sous l’effet du développement des énergies re-nouvelables et de nouveaux usages comme les véhicules élec-triques ou les équipements intelligents chez les clients… Cette mutation est en pleine synergie avec les nouvelles possibilités

offertes par les technologies de l’information et de la commu-nication. Ces évolutions ouvrent des perspectives nouvelles en matière d’insertion des infrastructures et de fourniture des divers services d’intérêt public comme l’électricité, le gaz, l’eau, le transport individuel et collectif. Elles structurent les politiques de développement des territoires, en particulier dans une dyna-mique d’évolution vers des villes durables.

Une première réflexion conduite avec des industriels et opéra-teurs au sein de la SEE nous a permis d’identifier par exemple les sujets suivants :• la mobilité électrique ;

• le stockage de l’énergie électrique ;

• l’intégration dans le réseau électrique des énergies renouvelables ;

• l’interopérabilité "Smart-home Smart building" avec les opéra-teurs du système électrique ;

• l’intermodalité des transports.

Sur chacun de ces sujets, il y aurait matière à constituer un groupe de travail avec des industriels et opérateurs concernés qui collaboreraient au développement du marché correspon-dant. Celui-ci établirait et partagerait une vision dans un contexte d’évolutions structurelles des systèmes électriques vers un mix énergétique dé-carboné aux différentes mailles territoriales. Il proposerait des orientations concernant les compétences à ren-forcer et à développer. Dans ce cadre, chaque groupe de travail proposerait au Comité Scientifique et Technique des orientations que la SEE devrait prendre pour l’organisation sur des sujets précis de manifestations à caractère scientifique.

Le fonctionnement de ce cercle marquerait donc une évolution importante de la SEE en l’orientant encore plus directement sur l’industrie et la vie de nouvelles filières.La SEE est à un tournant de son histoire. Celui ci est conditionné par l’engagement des industriels et opérateurs établis sur le ter-ritoire français...

Jean-Pierre Benqué Vice-président de la SEE

Conseiller Spécial du Président du groupe Gravitation

La SEE souhaite contribuer à la constitution et au développement

de nouvelles filières industrielles

editorial Jean-Pierre Benqué

Page 3: Aperçu du numéro 2013-1 de la REE (avril 2013)

2 Z�REE N°1/2013

sommaireNuméro 1 2013

1 EDITORIAL La SEE souhaite contribuer à la constitution et au développe-

ment de nouvelles filières industrielles Par Jean-Pierre Benqué

2 SOMMAIRE

5 FLASH INFOS Gaz de schiste, gaz de couche, gaz de mine…7 L’électricité sans fil gagne du terrain8 La participation des éoliennes au réglage de la fréquence 9 Une ile artificielle au large d’Ostende pour stocker l’électricité

d’origine éolienne10 Fleur Pellerin souhaite faciliter le financement participatif des PME10 Un laser innovant sur Mars

13 A RETENIR Congrès et manifestations

14 VIENT DE PARAÎTRE La REE vous recommande

17 ARTICLE INVITÉ Les vulnérabilités des grands réseaux de télécommunication Par Patrice Collet

29 LES GRANDS DOSSIERS Le véhicule électrique Introduction : Le véhicule électrique : une grande cause nationale Par Jean-Pierre Hauet

32 Véhicule électrique : enjeux et perspectives technologiques Par Patrick Bastard

40 Le véhicule électrique : un vrai challenge induisant des réels changements d’habitude

Par Bruno Dobrowolski, avec la collaboration de François Blanc, Vincent Diemunsch

49 Les challenges « batteries » et « infrastructures de charge » du véhicule électrique

Par Patrick Coroller, Maxime Pasquier

57 Les perspectives du “smart charging”. Comment approcher la construction d’une infrastructure intelligente pour la recharge de véhicules électriques à grande échelle ?

Par Patrick Clasquin

62 La Furtive-eGT : une Supercar électrisante Par Benoît Bagur

p. 1

p. 29

p. 68

p. 17 p. 117 p. 128

Credits photos de couverture : © viappy - © Sashkin - Fotolia

Page 4: Aperçu du numéro 2013-1 de la REE (avril 2013)

REE N°1/2013 Z 3

68 Radio logicielle, radio cognitive Introduction Par Mérouane Debbah

70 20 ans de radio logicielle, quelles réalités ? Par Christophe Moy, Jacques Palicot

81 Plates-formes matérielles pour la radio logicielle : contraintes et exemples de solutions

Par Dominique Noguet

88 Futures normes : un cadre pour faciliter l’application de la radio cognitive

Par Markus Mueck

93 À propos des applications de la radio cognitive Par Christophe Le Martret

103 Théorie des jeux non-coopératifs et radio cognitive Par Samson Lasaulce

109 RETOUR SUR ... Retour sur Internet, un quadragénaire qui se porte bien Par Marc Leconte

117 ENTRETIEN AVEC... Gilles Brégant Directeur Général de l’ANFR

121 ENSEIGNEMENT & RECHERCHE Les grandes écoles : un atout pour la croissance et une chance

internationale Entretien avec Pierre Tapie

125 Echos de l’enseignement supérieur Par Bernard Ayrault

127 CHRONIQUE Une belle promenade en compagnie de Misha Gromov ! Par Bernard Ayrault

128 LIBRES PROPOS Transition énergétique : clarifier les enjeux environnementaux Par Lucien Chabason

130 SEE EN DIRECT La vie de l'association

]�Registration: [email protected]

]�Exhibition: [email protected]

]�Web site: http://www.ettc2013.org

11-13 June 2013 Toulouse (France)

ETTC’13

EUROPEAN TEST & TELEMETRY CONFERENCE

Page 5: Aperçu du numéro 2013-1 de la REE (avril 2013)

REE N°1/2013 Z 5

FLASHINFOS

Gaz de schiste, gaz de couche, gaz de mine…

Tout récemment l’annonce a été faite, par un membre du Gouvernement, que le sous-sol lorrain recèlerait des quantités importantes de gaz de mine exploitables dans des conditions plus satisfaisantes du point de vue de l’environnement que les gaz de schiste.

Il est exact qu’une société australienne, European Gas Ltd (EGL (devenue en 2012 Fitzroy River Corpora-tion Ltd), qui possède en France différents titres miniers – permis d’exploitation ou de recherche – s’est donnée comme objectif d’exploiter en Europe de l’Ouest les res-sources de « gaz de couche » et de « gaz de mine », parti-culièrement en France et en Belgique. Elle exploite dès à présent au travers de sa filiale Gazonor (issue de Metha-mine), trois petits gisements de gaz de mine, à Avion Divion et Lourches, qui produisent environ 80 millions de m3 par an.

EGL détient en Lorraine des permis de recherche (les permis « Bleue Lorraine ») couvrant une zone assez éten-due dans laquelle elle a commencé des travaux explora-toires en 2006. EGL a fait état de résultats prometteurs sur les premiers forages réalisés (essentiellement à Fol-schwiller) et a annoncé que les réserves de gaz exploi-tables en Lorraine pourraient atteindre 371 Md m3 (soit une fois et demie les réserves initiales du gisement de Lacq), sans qu’il soit systématiquement nécessaire de recourir à la technique de fracturation hydraulique. Un espoir est donc né, relayé par une annonce ministérielle, mais qui a, à nouveau, déclenché contestations et mises au point.

Le but de ce Flash est de rappeler quelques notions.

Gaz de houille, gaz de couche, gaz de mine, gaz de schiste

Le gaz dont nous parlons n’est pas du gaz de houille, appellation qui désigne un gaz manufacturé résultant de la distillation du charbon produisant à la fois du gaz et des résidus dont le plus important est le coke. Le gaz de houille a été progressivement remplacé par le gaz naturel.

Le gaz de couche (“Coal Bed Methane” ou “Coal Seam Methane” en anglais) ainsi que le gaz de mine (“Coal Mine Methane”) sont des gaz composés essen-tiellement de méthane, comme le gaz naturel, mais res-tés prisonniers des couches de charbon qui constituent leur roche mère. Comme les gaz naturels, y compris les gaz de schiste, ces gaz sont nés de la transformation en profondeur de la matière organique sous l’effet de la tem-pérature et de la pression. Ils sont intimement mêlés avec la houille, dans laquelle ils sont « adsorbés » dans des quantités variables selon la nature de la roche et selon les conditions de pression que prévalent dans le sol.

Il est possible d’exploiter le gaz de couche par des techniques adaptées et notamment par des forages depuis la surface. Ces forages, verticaux d’abord mais le cas échéant horizontaux ensuite, permettent de relâcher la pression régnant dans la veine de charbon en auto-risant l’eau, généralement salée, imprégnant la roche à remonter en surface. La baisse de pression entraîne une désorption du gaz qu’il est alors possible de récupérer, si la perméabilité du milieu est suffisante.

Le gaz de mine est celui qui s’échappe lors de l’exploita-tion directe de la veine de charbon par une mine. C’est le « grisou », tant redouté des mineurs, qui génère des explo-sions, les « coups de grisou », fréquemment suivis, comme à Courrières en 1906 (1 099 morts), d’un « coup de pous-sière ». Le gaz de mine fait aujourd’hui l’objet d’une récu-pération organisée lorsque les circonstances s’y prêtent.

Gaz de couche et gaz de schiste ne sont pas fonda-mentalement différents. Tous deux relèvent de la classe des gaz non conventionnels. La différence essentielle porte sur la roche mère : houille dans un cas, schiste dans l’autre. Un schiste est une roche d’aspect feuilleté qui peut être soit une roche sédimentaire argileuse, soit une roche métamorphique provenant d’une argile. La notion de gaz de schiste est générale alors que celle de gaz de couche (et a fortiori de gaz de mine) est plus spécifique.

Le charbon résulte de la décomposition de matières organiques purement végétales, riches en carbone pais pauvres en hydrogène. Le gaz de couche, à la différence du gaz de schiste, n’est pas en général accompagné Figure 1 : Les titres miniers en Lorraine au 1er janvier 2013.

Page 6: Aperçu du numéro 2013-1 de la REE (avril 2013)

6 Z�REE N°1/2013

FLASHINFOS

d’hydrocarbures liquides. On le trouve associé à des gise-ments de houille, à des profondeurs moindres que le gaz de schiste et typiquement de 200 à 1 500 m. Il est for-tement adsorbé par la houille environnante, dans un état proche de l’état fluide compte tenu de la pression. Les espaces laissés libres par la nature de la roche (porosité) ou par ses fractures contiennent également des quantités très importantes de gaz potentiellement récupérables.

L’exploitation des gaz de coucheCes caractéristiques particulières des gaz de couche

permettent d’envisager, lorsque les circonstances sont favorables, une exploitation sans fracturation hydrau-lique. Il faut alors que le forage vertical, relayé par un ou plusieurs drains horizontaux sur des longueurs typi-quement de l’ordre du kilomètre, permette de recueillir sans assistance par fracturation, une quantité suffisante de gaz pour rendre le puits économiquement rentable. Cela dépend de la perméabilité de la roche mère, de sa fracturation naturelle, de son épaisseur et de son contenu en gaz. Dans les gisements de bonne qualité, les inters-tices naturels sont suffisants pour permettre l’évacuation de l’eau et du gaz. Seuls des travaux de recherche per-mettent de déterminer si ces conditions sont remplies. En Australie, où l’exploitation du gaz de couche est très avancée, on estime que la fracturation n’est nécessaire que pour 30 à 40 % des puits.

Les risques environnementauxSi les gaz de couche se présentent plutôt plus favo-

rablement que les gaz de schiste du point de vue de la fracturation hydraulique (pour autant que celle-ci pose

problème), on comprend que de multiples précautions doivent cependant être prises à plusieurs niveaux :

-fères traversés ;

en profondeur, etc.Les professionnels font valoir que ces risques sont

ceux de l’industrie extractive en général et pétrolière en particulier et qu’ils sont maîtrisés. Mais un débat collatéral à celui sur les gaz de schiste semble s’ouvrir en France.

Les gaz de couche dans le mondeL’enjeu économique des gaz de couche est important,

non seulement pour la France, jusqu’à présent fortement démunie en ressources énergétiques fossiles, mais pour beaucoup de pays dans le monde.

L’Inde exploite depuis quelques années ses ressources en gaz de charbon, estimées à 2,6 Tm3 mais avec seule-ment 8,9 Gm3 réellement établies. En Chine, le potentiel total est évalué à 4 Tm3 avec 200 Gm3 de réserves prou-vées. En Australie, la production de gaz de charbon, dé-marrée au milieu des années 90, a doublé entre 2007 et 2010 pour atteindre plus de 6,1 Gm3. En décembre 2010, les réserves australiennes prouvées de gaz de charbon étaient estimées à 415 Gm3. Un grand projet de transport du gaz de couche sur 530 km est en cours de réalisation dans le Queensland, associé à une grande usine de liqué-faction le long de la côte (Australia Pacific LNG Project). En Grande-Bretagne, l’exploitation du gaz de couche a débuté dans les années 80. Une estimation réalisée en 2006 indi-quait des ressources totales équivalant à plus de 2,3 Tm3. Bien d’autres pays s’intéressent au sujet : l’Italie, l’Ukraine, l’Indonésie, le Vietnam, la Nouvelle-Zélande, le Botswana, les Etats-Unis, le Canada… en un mot la plupart des pays qui, comme la France, ont un passé charbonnier.

L’enjeu économique est évident. Du point de vue climatique, le bilan est moins net : les gaz de couche, comme le gaz naturel au demeurant, sont une énergie fossile émettant lors de leur combustion des gaz à effet de serre mais dans un proportion sensiblement égale à la moitié de celle résultant de la combustion du charbon qui fait actuellement un retour en force dans le domaine de production de l’électricité. Le verre est donc à moitié vide ou à moitié plein selon la façon dont on veut bien considérer le problème… !

JPH

Figure 2 : Schéma de principe de récupération des gaz de couche.

Page 7: Aperçu du numéro 2013-1 de la REE (avril 2013)

REE N°1/2013 Z 7

FLASHINFOS

L’électricité sans fil gagne du terrainLa REE a déjà eu l’occasion d’appeler l’attention de ses

lecteurs sur le concept d’électricité sans fil qui avait donné lieu à l’expérience très médiatisée réalisée sous la conduite du professeur Marin Soljacic au MIT (Massachussetts) en 20071. Cette expérience portait sur l’allumage à distance (jusqu’à 2,5 m) d’une ampoule de 60 MW.

Dans cette expérience, une bobine parcourue par un courant variable transférait de l’énergie électrique à une autre bobine, située dans son champ magnétique à une distance telle qu’elle pouvait entrer en résonance avec la première (figure 1).

Après dépôt de plus de cent brevets (dont 11 accordés à ce jour aux USA), cette invention a été commercialisée sous le nom de « Witricity » par une société spin off du MIT qui propose des kits comprenant la tablette émettrice (de 300 mm x 300 mm ou 190 mm x 190 mm) incorpo-rant un oscillateur et des modules de capture intégrant un résonateur et un convertisseur. La fréquence d’oscillation est de 250 kHz. Les modules récepteurs peuvent être posés sur la tablette ou être situés à distance convenable (quelques dizaines de cm maximum). Des résonateurs relais permettent d’accroître la distance de transmission de la puissance (figure 2).

Les applications visées sont en premier lieu celles de l’alimentation sans fil d’appareils électroniques, soit en fonctionnement, soit au repos, à la condition qu’ils se trouvent dans l’aire de desserte de la tablette : télé-phones, souris, commandes, écrans, relais Wi-Fi… La

1 Cette expérience est cependant proche de celle réalisée par Tesla en 1891 mais qui pêchait par un couplage magnétique médiocre.

gamme des applications s’élargira au fur et à mesure que le système parviendra à étendre son rayon d’action et pourra concerner le domaine médical, les équipements difficiles d’accès, la robotique et autres applications in-dustrielles, notamment en accompagnement de commu-nications sans fil.

La société WiTricity, malgré les brevets déposés, n’a pas le monopole de la technologie de couplage induc-tif2. Nokia a lancé en octobre 2012 le Nokia Lumia, non seulement compatible avec Windows 8 et 4G mais aussi doté d’un système de recharge sans fil à partir d’une ta-blette (figure 3) ou de tout autre vecteur énergétique : ustensile, vêtement etc. équipé de l’émetteur approprié.

Ce téléphone est Qi-compatible, c’est-à-dire conforme au standard développé par le Wireless Power Consortium qui permet d’espérer que nous sortirons prochainement du cauchemar des alimentations filaires non compatibles. Toutefois, ce standard ne règle la question du transfert sans fil de l’énergie que jusqu’à une distance inférieure à 40 mm.

Dans le même temps, à des niveaux de puissance bien supérieurs, la technologie de recharge sans fil par

2 Il existe en outre d’autres possibilités de couplage, dans le champ lointain, en utilisant les propriétés des rayonnements micro-ondes ou lasers.

Figure 1 : Schéma de principe de l’expérience de “Witricity” du MIT.

Figure 2 : Expérience de Witricité sur un kit de démonstration.Source : WiTricity.

Figure 3 : Téléphone portable Lumia et son chargeur sans fil.

jphauet
Rectangle
Page 8: Aperçu du numéro 2013-1 de la REE (avril 2013)

17 Z�REE N°1/2013

Introduction

L es systèmes de communication, fixes ou mo-biles, sont devenus partie intégrante de la vie des habitants de la planète : en 2012, il y avait, en service, six milliards d’abonnements à un

service mobile et un peu plus d’un milliard d’abonnements au service téléphonique fixe. La qualité de ces services est généralement très satisfaisante : elle est, en particulier, ca-ractérisée par leur permanence, 24 heures sur 24, 7 jours sur 7. Dans la très grande majorité des réseaux, celle-ci est très bien assurée, mais il arrive parfois que des clients se trouvent privés du service notamment par des incidents. Ces incidents, très peu nombreux, peuvent néanmoins avoir un impact sur l’activité économique de la zone géographique dans laquelle ils se produisent et leur rareté accroît encore leur retentissement sur le public.

Les pannes des équipements constituant les réseaux ne pouvant pas malheureusement être évitées, leurs opérateurs, dans la conception des réseaux, et les fournisseurs d’équipe-ments, dans celle des éléments qui les constituent, s’orga-nisent pour réduire voire annuler leur impact sur le service

offert. Malgré toutes ces précautions de conception, tous les grands réseaux sont frappés, tôt ou tard mais fort heureuse-ment à des fréquences très réduites, par des interruptions de service. Dans cet article nous examinons tout d’abord quels sont les risques dont il faut se protéger et comment s’en pré-munir. Ensuite nous verrons pourquoi et dans quelle mesure des interruptions significatives de service restent malgré tout encore possibles.

Les grands réseaux et leurs évolutions

Avant d’aborder la question des risques auxquels sont soumis les grands réseaux rappelons rapidement comment ils sont constitués et quelles sont les grandes tendances de leur évolution.

Constitution générale des réseaux

Les grands réseaux couvrent généralement des terri-toires très étendus et offrent une connectivité totale entre les différents clients du réseau (au moins pour les réseaux publics) : tout client quelle que soit sa position géographique doit pouvoir communiquer avec tout autre client. Les réseaux

Les vulnérabilités des grands réseaux de télécommunication

L'ARTICLE INVITÉ PATRICE COLLET

Figure 1 : Organisation générale des grands réseaux.

Page 9: Aperçu du numéro 2013-1 de la REE (avril 2013)

18 Z�REE N°1/2013

L'ARTICLE INVITÉ

sont en général organisés selon deux segments, le segment d’accès qui permet de raccorder les terminaux des clients et de regrouper leurs trafics et le cœur de réseau qui permet de connecter entre eux les différents réseaux d’accès (figure 1).

Quels que soient les moyens d’accès au client final, qu’il s’agisse de moyens hertziens, comme dans le cas du service mobile, ou de moyens filaires, le cœur ces réseaux s’appuie, sur une infrastructure fixe composée de :

qui utilisent une infrastructure constituée de fibres optiques, de paires de cuivre et, par-fois, de systèmes hertziens : ils interconnectent diverses familles d’équipements situés dans des sites éloignés les uns des autres ;

qui assurent l’aiguillage des informa-tions soumises au réseau, voix, données, images, vers leur destinataire, fournissant ainsi une connexité temporaire ou permanente entre deux clients d’un réseau. Les données échangées entre deux clients sont de plus en plus majori-tairement transmises sous forme de paquets IP alors que dans le passé la commutation de circuits était le mode le plus couramment utilisé dans les grands réseaux. Le trans-fert sous forme de paquets IP peut être réalisé, soit comme une suite de datagrammes, soit faire l’objet d’une session temporaire de données, le réseau directement ou indirec-tement associant alors entre eux les paquets d’une même session. Dans le mode session de données, au processus de routage classique des paquets IP est associé un échange de données de commande, c’est-à-dire un système de si-

gnalisation, permettant d’établir, rompre ou modifier la ses-sion. Les nœuds d’aiguillage sont des routeurs IP et, dans les grands réseaux, des plates-formes de commande assurent la gestion des sessions de communication de données.

qui sont sollicitées par les terminaux des clients et les sollicitent afin d’assurer la mise en place et la rupture des sessions de communication. Leur rôle minimal est celui du routage des flux de signalisation associés à chaque session. Dans beaucoup de cas, elles supervisent les sessions établies et gèrent des données de contexte qui leur sont associées. Ce sont des machines commandées par logiciel : à l’origine il s’agissait de ma-chines très spécifiques mais, au fil des évolutions techno-logiques, elles s’approchent de plus en plus de machines informatiques standard. Pour accomplir leurs tâches, elles doivent avoir accès à des données, notamment celles décri-vant le service auquel un client a souscrit ou bien dans les réseaux mobiles aux données de localisation de l’abonné. Les données de souscription des clients étaient à l’origine, en téléphonie fixe, réparties entre les différentes instances de plates-formes de commande qui avaient naturellement une zone de desserte géographique. Avec l’arrivée du ser-vice mobile, le concept de zone de desserte n’est plus pertinent et les données de souscription et de localisation sont gérées par des machines spécifiques de gestion de données en temps réel auxquelles accèdent les plates-formes de commande. Cette architecture qui présente de nombreux avantages, a été plus récemment reprise dans le

Figure 2 : Principes de l’architecture fonctionnelle d’un grand réseau.

jphauet
Rectangle
Page 10: Aperçu du numéro 2013-1 de la REE (avril 2013)

REE N°5/2012 Z 29

LES GRANDS DOSSIERSIntroduction

L’économie française souffre de trois fléaux endémiques :

� de -

�.

-

-

Les enjeux du véhicule électrique

-

-

-

-

--

-

.

Les évolutions technologiques

-

-

-

1 Source Renault. Voir l’article de Patrick Bastard.

Le véhicule électrique : une grande cause nationale

Jean-Pierre HauetAssociate Partner KB IntelligenceMembre Emérite

de la SEE

Page 11: Aperçu du numéro 2013-1 de la REE (avril 2013)

30 Z�REE N°5/2012

LES GRANDS DOSSIERS IntroductionIntroduction

-

-

-

--

-

--

--

-

-

Les conditions du succès

-

-

-

-

-

-

-

-

-

-

Jean-Pierre Hauet est ancien élève de l’Ecole Polytechnique et Ingénieur du corps des mines. Il a occupé différentes positions dans l’Administration, en particulier celle de rapporteur général de la Commission de l’Energie du Plan. Il a dirigé le centre de recherches de Marcoussis d’Alcatel avant d’être nom-mé directeur Produits et Techniques de Cegelec, puis Chief Technology Officer d’ALSTOM. Depuis 2003, il est Associate Partner de KB Intelligence, spécialisé dans les questions d’énergie, d’automa-tismes industriels et de développement durable. Il préside l’ISA-France, section française de l’ISA (Instrumentation, Systems & Automation Society). Il est membre Emérite de la SEE, président du Comité éditorial de la REE et Médaille Ampère de la SEE.

jphauet
Rectangle
Page 12: Aperçu du numéro 2013-1 de la REE (avril 2013)

REE N°1/2013 Z 27

LE VÉHICULE ÉLECTRIQUE

Patrick Bastard Renault

IntroductionLa voiture électrique est née avec l’automobile.

En 1899, un prototype électrique baptisé « La Jamais Contente » se payait le luxe de battre ses cousines à moteur thermique en inscrivant le premier record de vitesse au-dessus des 100 km/h. Cet exploit tradui-sait déjà le potentiel technique que portait la techno-logie électrique.

Ensuite, au fil des années, même si le moteur à combustion interne s’est finalement imposé, la voi-ture électrique n’a jamais complètement disparu du panorama automobile. Tous les constructeurs ont mené leurs projets de véhicules électriques, allant du prototype à la petite série (rarement plus de mille voi-tures à la fois).

L’histoire du véhicule électrique est ainsi ponctuée d’initiatives permettant d’expérimenter en grandeur réelle l’usage de flottes électriques, souvent destinées à des utilisateurs institutionnels (EDF, municipalités, etc.).

Ces nombreuses expérimentations prouvent que le véhicule électrique a toujours représenté une alter-native potentielle aux véhicules à moteur thermique. Ces expériences ont permis d’accumuler un savoir-

faire important. C’est particulièrement vrai pour Re-nault, qui a multiplié pendant près de cent ans les expériences, souvent basées sur l’électrification de véhicules de série.

La vraie révolution que s’apprête à vivre le monde de l’automobile dans les années à venir ne réside donc pas dans le fait de concevoir des véhicules électriques, mais bien dans la capacité de l’industrie automobile et, plus généralement de tous les acteurs de la mobilité électrique, de permettre l’émergence à grande échelle de ces véhicules. Même si les véhi-cules électriques ne représentent encore qu’une très petite partie du marché mondial, tous les indicateurs montrent que la dynamique est lancée vers un mar-ché de masse. Si l’émergence du véhicule électrique est aujourd’hui possible, c’est grâce à la convergence,

Véhicule électrique : enjeux et perspectives technologiques

The concept of electric vehicles is as old as the automotive industry itself. However, it is only recently that its true industrial growth has boomed to such an extent. An entire ecosystem has to be invented and not just a new vehicle technology. This is possible today since recently electric vehicles have received more technological, environmental, economic and societal oppor-tunities than they have received ever before. From a technical point of view, there are three main domains that have shown big improvements during the very last years: battery, electric powertrain (machine & inverter) and charging solutions (including intelligent navigation system for autonomy optimization).Even if the technical state of the art in these three domains makes it possible to go to mass production now, technical progress will go on in order to improve more and more performances and economics efficiency of electrical vehicles. Furthermore, in addition to technical progress concerning the car itself, it is important to keep in mind that electrical vehicles have really to be considered in the global context of electricity production and distribution. Communication between car and infrastructure as well as control of EV charge through optimized strategies are also key issues in order to take advantage as much as possible of a large EV fleet, from a technical point of view but also from an environmental one. This is also a big challenge, especially in the context of emerging smart grids.

ABSTRACT

Figure 1 : Prototype de camionnette électrique Renault datant de 1924.

Page 13: Aperçu du numéro 2013-1 de la REE (avril 2013)

28 Z�REE N°1/2013

LE VÉHICULE ÉLECTRIQUE

Figure 2 : Estimation des émissions de CO2 du puits à la roue sur FLUENCE, calculées sur cycle standard européen de type NEDC. Source : Etude “Well-to-Wheels Analysis of Future Automotive Fuels and Powertrains In the European Context”, JRC-EUCAR-CONCAWE,

v3 Nov. 2008 : http://ies.jrc.ec.europa.eu/WTW - Consommations énergétiques et émissions de CO2 homologuées sur cycle européen règlementaire NEDC.

pour la première fois depuis que l’automobile existe, de l’en-semble des critères de réussite : environnementaux, tech-nologiques, économiques et sociologiques. Tous ces critères permettent aujourd’hui à Renault de proposer une gamme complète de véhicules électriques cohérente avec les usages de ses clients.

Si la maturité du véhicule électrique est aujourd’hui suf-fisante pour lancer le marché, les recherches pour encore améliorer les performances et diminuer le coût de la mobilité électrique sont bien sûr au cœur des projets d’innovation de Renault, souvent associé à des partenaires pour étendre le périmètre au-delà du véhicule lui-même et optimiser l’ensemble de l’éco-système : véhicule, infrastructure de recharge électrique, système d’information…

Le véhicule électrique : un enjeu de sociétéRéduire les émissions de CO2 : un challenge pour l’industrie automobile

Globalement, les transports automobiles (véhicules par-ticuliers et utilitaires) sont à l’origine d’environ 12 % des rejets de CO2 à l’échelle mondiale. Si l’automobile ne doit donc pas cristalliser tous les efforts en matière de réduction d’émissions de CO2, il n’en est pas moins vrai qu’elle a sa part de responsabilité dans l’accroissement de ces émissions. L’industrie automobile doit donc aussi apporter des solutions pour contribuer à la réduction globale des émissions de CO2.

C’est précisément ce que visent tous les constructeurs automobiles en faisant progresser leurs moteurs thermiques

(Diesel et essence) et en travaillant l’architecture de leurs véhicules afin de réduire la consommation de carburant, tout en réduisant aussi de façon drastique les rejets de particules polluantes.

Le véhicule électrique : seule solution en rupture

Tous ces efforts sur les véhicules à motorisation Diesel ou essence sont indispensables et aucun constructeur ne saurait aujourd’hui baisser la garde sur ce qui continuera à repré-senter dans les 20 ans à venir une part encore très impor-tante du marché automobile. Mais en parallèle, le véhicule électrique représente la seule véritable rupture qui permet d’annuler les rejets de CO2 lors du roulage. Cependant, pour que cette rupture soit réelle pour l’environnement, encore faut-il que le véhicule électrique ne reste pas marginal mais puisse rapidement représenter une part non négligeable du marché mondial. C’est pour cela que Renault a été dès 2011 le premier constructeur à déployer une stratégie volontariste de production de masse de véhicules électriques, anticipant une part de marché mondial pour le véhicule électrique pou-vant aller jusqu’à 10 % en 2020.

Une approche globale, « du puits à la roue »

Bien sûr, en matière de rejets de CO2, il est important pour un véhicule électrique de considérer le cycle complet dit « du puits à la roue », décomposant les émissions en deux parties : du puits à la prise (production d’électricité) et de la prise à la roue (zéro pour un véhicule électrique). Dès lors, le bilan

jphauet
Rectangle
Page 14: Aperçu du numéro 2013-1 de la REE (avril 2013)

68 Z�REE N°5/2012

LES GRANDS DOSSIERS Introduction

Il y a 20 ans déjà que la radio logicielle a été définie conceptuellement dans l’article fonda-teur de Joe Mitola III de 1995 sur la “software radio architecture” paru dans l’IEEE Communi-cations Magazine. Comme c’est souvent le cas dans les secteurs technologiques, les militaires (DoD, Department of Defense des Etats-Unis) ont été précurseurs dans le domaine de la ra-dio logicielle en voulant anticiper l’avenir des télécommunications dès le début des années 90 par des études futuristes à l’échelle de 20 ans. Sur ces principes de base, la radio logicielle est sans aucun doute une rupture technologique permettant une convergence du monde des télécommunications (radio) et du monde de l’informatique (logicielle). Cette convergence s’est d’ailleurs accélérée ces dernières années à travers la volonté des groupes infor-matiques (Google, Microsoft, Apple, etc.) de devenir équi-pementiers dans le domaine des télécommunications et voire même opérateurs de télécommunications. Nous n’en sommes d’ailleurs qu’au début de ce nouveau paradigme.

D’un point de vue conceptuel et de manière très sché-matique, l’électronique repose sur un ensemble d’éléments de base (capacité, résistance, inductance, diode…) dont l’agencement forme le circuit. Il est donc théoriquement possible de pouvoir implémenter n’importe quel système de télécommunication en fournissant le logiciel permettant de décrire l’agencement des constituants du système et donc de construire le système en question. De ce point de vue, la radio logicielle est une révolution technolo-gique : les circuits radio deviennent dyna-miquement configurables et les systèmes de télécommunications peuvent être mis à jour par des changements logiciels.

La radio logicielle, couplée à une prise de connaissance directe ou indirecte de l’environnement radioélectrique débouche sur un autre concept celui de radio cogni-tive ou radio intelligente. Il ouvre la pers-pective d’une optimisation de l’utilisation du spectre radioélectrique et de la trans-mission radio dans un souci de neutralité technologique : l’utilisation du spectre n’est plus ou est moins liée à la technologie. Ces deux concepts permettent enfin d’accélérer

les cycles d’innovation en ouvrant celle-ci vers le monde des développeurs de logiciels qui foi-sonnent d’idées.

Mais qu’en est-il du passage des concepts à la réalité, quelle utilisation en est faite au-jourd’hui dans l’industrie, les verra-t-on un jour complètement mis en œuvre dans des équi-pements ? Quels sont les obstacles que leur

mise en œuvre rencontre ? Comment la réglementation des radiocommunications évolue-t-elle pour permettre à la radio cognitive de devenir une réalité concrète ?

Ce dossier a pour but de faire le bilan autour de la radio logicielle et de ses évolutions et ses applications (la radio cognitive, en particulier,..) au travers de cinq articles des meilleurs spécialistes du domaine.

Le premier article retrace les évolutions de la radio logi-cielle et de ses applications durant ces dernières années. Il montre les bénéfices et les apports de ce concept aux différentes communautés qui œuvrent dans la recherche sur les communications radioélectriques. Il fait également apparaître les progrès technologiques qui en ont résulté.

Le concept de radio logicielle fait assez naturellement appa-raître le concept de plates-formes sur lesquelles sont exécu-tés les logiciels d’application radio : le second article décrit les plates-formes actuelles de la radio logicielle ainsi que les difficul-

tés à intégrer dans un équipement unique les problématiques de traitements numériques et d’antennes reconfigurables. Il montre notam-ment que pour être mis en œuvre le concept de radio logicielle doit subir un certain nombre de limitations.

Le domaine des radiocommunications est soumis à une réglementation forte : les différents terminaux notamment sont sou-mis à une certification avant de pouvoir être mis sur le marché. La radio cognitive oblige à revoir cette réglementation. Le troisième article donne un panorama des activités de normalisation dans le domaine de la radio cognitive. Il montre, en particulier, comment les instances de réglementation et de nor-

Mérouane Debbah est actuel-luement Professeur à Supélec (Gif-sur-Yvette, France) et directeur de la chaire Alcatel-Lucent en radio flexible. Ses activités de recherche portent principalement sur la théorie de l’information, le traitement du signal et les communications sans fil. Il a écrit plus de 100 papiers de revue, 250 papiers conférences et est l’auteur de 7 brevets. Il est Fellow du WWRF et le récipiendaire de plusieurs prix prestigieux.

Radio logicielle, radio cognitive

Mérouane DebbahSupélec

Page 15: Aperçu du numéro 2013-1 de la REE (avril 2013)

REE N°5/2012 Z 69

LES GRANDS DOSSIERSIntroduction

malisation préparent l’environnement normatif à l’arrivée des « Applications Radio » de la radio cognitive qui personnali-seront les terminaux radio et permettront d’y introduire de nouvelles fonctionnalités.

Après avoir décrit les principes qui président actuelle-ment à la gestion du spectre radioélectrique, le quatrième article décrit les applications de la radio cognitive dans les systèmes de communications militaires et civiles sous le prisme de la gestion dynamique du spectre. Les contraintes des domaines civils et militaires sont comparées et expli-quées. Enfin, le cinquième article montre au travers de la théorie des jeux les outils algorithmiques sophistiqués mis

en œuvre dans la radio cognitive et les principes théoriques de la future radio intelligente.

Tous ces articles démontrent clairement que nous n’en sommes qu’au début de la mise en œuvre pratique de la radio logicielle et que les équipements de la prochaine gé-nération (5G) des télécommunications seront sans aucun doute « radio logiciellement définis ». C’est une occasion unique à saisir pour l’ensemble de l’écosystème des télé-communications et nous espérons que le lecteur trouvera dans ce dossier tous les ingrédients pour appréhender ce domaine en ébullition et pourra y contribuer selon son expertise. Q

20 ans de radio logicielle, quelles réalités ? Par Christophe Moy, Jacques Palicot ..................................................................................................................................... p. 70

Plates-formes matérielles pour la radio logicielle : contraintes et exemples de solutions

Par Dominique Noguet ................................................................................................................................................................ p. 81

Futures normes : un cadre pour faciliter l’application de la radio cognitive Par Markus Mueck ........................................................................................................................................................................ p. 88

À propos des applications de la radio cognitivePar Christophe Le Martret .......................................................................................................................................................... p. 93

Théorie des jeux non-coopératifs et radio cognitivePar Samson Lasaulce ...................................................................................................................................................................... p. 103

LES ARTICLES

jphauet
Rectangle
Page 16: Aperçu du numéro 2013-1 de la REE (avril 2013)

70 Z�REE N°1/2013

RADIO LOGICIELLE, RADIO COGNITIVE

Christophe Moy, Jacques Palicot Supelec/IETR

IntroductionNous venons de fêter ces dernières années le cen-

tenaire de plusieurs grandes étapes de l’histoire des radio-communications : le prix Nobel de Gugliemo Marconi (1909), les premiers événements historiques associés aux transmissions radio (par exemple le SOS qui a permis le sauvetage de 700 passagers du Titanic le 15 avril 1912), l’invention de la triode par Lee De Forest en 1907. C’est pour nous l’occasion de faire le point sur l’une des dernières évolutions technolo-giques qu’a connue la radio : la radio logicielle [1].

En effet, de la même manière que le moteur auto-mobile repose depuis plus de 100 ans sur le même principe (explosion) et les mêmes éléments méca-niques (pistons, soupapes, vilebrequin, etc.), la radio repose sur la même architecture (superhétérodyne) et les mêmes éléments électroniques (amplificateurs, mélangeurs, filtres, etc.). Des évolutions technolo-giques, comme le transistor, ont bien sûr permis de miniaturiser et d’augmenter les performances, mais en restant cependant sur la même base de compo-sants électroniques discrets. C’est sur ce dernier point qu’intervient la rupture de la radio logicielle. En effet, l’évolution phénoménale des technologies numé-riques pendant les années 1980 a permis de remettre en cause ce paradigme bien établi et dès le début des

années 19901 certains traitements en bande de base ont commencé à être exécutés et regroupés dans des circuits intégrés numériques. Cette évolution a mené à la radio logicielle, dont les idées principales sont que le circuit de traitement est un processeur généraliste et qu’une partie des traitements jusque-là assurés en analogique par plusieurs composants discrets de-viennent réalisables par un seul processeur.

Dans cet article, nous allons tout d’abord repla-cer la radio logicielle dans son contexte afin de bien comprendre les intérêts qui ont contribué à son avè-nement, tant à la conception des équipements qu’à leur utilisation. La radio logicielle est une convergence entre différents domaines technologiques. Il en résulte que chaque communauté scientifique concernée s’est approprié le concept et utilise cette dénomination pour illustrer ses travaux. Nous verrons que de cet état de fait résulte autant de points de vue différents que de communautés concernées. Nous essaierons ensuite de dresser un état des lieux de la réalité objective de la radio logicielle, grâce aux progrès technologiques qu’elle a engendrés. La radio logicielle a été notamment pro-posée comme une solution pour la conception d’équi-pements radio multi-standards. Mais une autre réponse possible au défi technologique que cela représente, serait d’intégrer tous les standards possibles de manière séparée (chacun dans des composants dédiés) dans

1 Dès le milieu des années 1970, sous certains aspects, au ni-veau des recherches militaires.

20 ans de radio logicielle, quelles réalités ?

In this article, we emphasize the fact that software radio is an inevitable evolution of radio technologies and is the result from the convergence of several pre-existing domains. Joe Mitola can be recognized as the person who formalized this evolution. New radio equipment includes more and more software radio capabilities, i.e., they are software configurable. Some of the former analogue features have moved to digital ones. We believe that the time window in which the software radio had some benefit compared to a velcro approach for commercial multi-standards radio equipment is probably over. In the military domain however, software radio became reality. We conclude the benefits of software radio will be fully exploited when its technology is actually required in new and complex areas, such as cognitive radio.

ABSTRACT

Page 17: Aperçu du numéro 2013-1 de la REE (avril 2013)

REE N°1/2013 Z 71REE N°1/2013 Z 71

20 ans de radio logicielle, quelles réalités ?

les équipements. Si en 2001, nous écrivions dans [2] que cette dernière solution n’était pas viable économiquement et com-mercialement, cet argument a aujourd’hui perdu de sa perti-nence en raison des progrès constants dans le domaine de la microélectronique. Nous discuterons ce point et nous donne-rons également notre vision de l’avenir de la radio logicielle.

Les fondements de la radio logicielleGenèse de la radio logicielle

L’histoire du microcosme de la radio retiendra que le diffuseur du terme software radio, traduit en français par radio logicielle, est Joe Mitola lors de la conférence IEEE National Telesystems Conference en 19922. Les études qu’il menait alors faisaient écho aux demandes du DoD (Department of Defense des États-Unis) concernant des perspectives à long terme. Le DoD cherchait à anticiper sur l’avenir par des études plus futuristes à l’échelle de dix à vingt ans. C’est l’opportunité de mener de telles réflexions plus conceptuelles, moins soumises aux contraintes et réalités matérielles courantes, qui a mené Joe Mitola à poser les concepts fondateurs de la radio logicielle.

On peut considérer que la radio logicielle, ou tout au moins, la plupart de ses concepts, aurait existé sans Joe Mitola. De fait, dans les années 90, des notions telles que :

-

terminaux, étaient très en vogue.

2 Le terme apparaît en fait dans les années 80 dans la société E-Systems (Raytheon maintenant) où Joe Mitola a travaillé.

Il faut donc souligner l’impact du travail de Joe Mitola pour homogénéiser et formaliser dans un seul concept dénommé radio logicielle toutes ces notions préexistantes [1] [3].

La radio logicielle est une rupture technologique, fruit d’une évolution incontournable et d’une convergence entre différents domaines préexistants. Beaucoup d’entreprises ou d’équipes de recherche font de la radio logicielle sous un aspect ou un autre, sans le savoir. La radio logicielle regroupe en effet un large spectre de domaines techniques qui repré-sentent chacun un sujet en soi, sans être nécessairement intégré à la radio logicielle [2].

Cependant, la communauté scientifique a adhéré rapide-ment à l’idée de radio logicielle comme l’illustre la courbe de la figure 1 sur l’évolution du nombre d’articles traitant de radio logicielle depuis 1995, courbes obtenues à l’aide de Google Scholar. Il est intéressant de constater que l’apparition de publications traitant de Software Defined Radio (SDR) cor-respond à la création du SDR Forum en 19963. Le nombre de publications étiquetées “software defined radio” croise celui des publications étiquetées “software radio” autour de 2003-2004. Cela montre que le domaine devient alors majoritai-rement un problème concret à résoudre quitte à concéder des écarts avec les principes d’origine (software radio) pour trouver des solutions pragmatiques (software defined radio). Depuis 2009, on peut constater un tassement de l’augmen-tation du nombre d’articles. Il ne traduit malheureusement pas le fait que le sujet est résolu. Les études sur les thèmes inhérents à la radio logicielle sont toujours aussi nombreuses, voire en augmentation. Mais de la même manière que la

3 Renommé Wireless Innovation Forum en décembre 2009, http://www.wirelessinnovation.org.

Figure 1 : Évolution du nombre d’articles traitant de radio logicielle depuis 1995 - Source : GoogleScholar.

jphauet
Rectangle
Page 18: Aperçu du numéro 2013-1 de la REE (avril 2013)

REE N°1/2013 Z 109

RETOUR SUR !!!!!!!!!

Marc Leconte Thales Systemes Aeroportes

Même si cer tains lecteurs pourraient trouver quelque peu prématuré de traiter de l’histoire d’Inter-net, la documentation abondante qui existe aujourd’hui sur ce sujet montre que c’est possible, le premier ouvrage datant de 1999. Le T0 que nous adopterons et justifierons plus loin, à savoir la première présenta-tion d’Arpanet au public, date de 40 ans et explique le titre. Cela implique qu’une génération entière a connu le Web (qui a maintenant 22 ans) à sa naissance et que la mémoire d’un monde sans Internet s’estompe pour un nombre croissant de personnes. Internet se situe aussi dans le prolongement des technologies de la communication qui existaient avant lui et qu’il tend aujourd’hui à unifier.

L’origine d’Internet, comme souvent en histoire des techniques, est sujet à débats liés à ses dimensions multiples qui se situent à l’intersection de l’histoire de l’informatique, de la micro-informatique et des réseaux de communications. Plusieurs voies étaient possibles dans cette recherche généalogique, sachant que toutes ont une part de subjectivité et d’arbitraire. Doit-on prendre comme date de référence pour l’ori-gine, l’adoption par ARPANET en janvier 1983 du protocole TCP/IP, ce qui lui donnerait une date de naissance certaine, liée à l’adoption d’une norme technique emblématique ? Probablement pas. Nous aurions pu retenir comme origine la création du Web par Tim Berners-Lee en 1990, mais si l’invention du World Wide Web améliora de manière capitale l’in-terface homme-machine, le réseau lui-même était déjà constitué techniquement et philosophiquement. ARPANET, dévoilé au public en 1972, réunissait dès l’origine, un réseau d’ordinateurs hétérogènes, un protocole, la transmission par paquets, et utilisait le temps partagé et la notion d’informatique répartie. Toutes ces caractéristiques justifient qu’on le prenne comme point de départ. Le terme Internet est d’ail-leurs dérivé du concept “internetting” dont l’utilisa-tion documentée était due à Robert Kahn en 1972

et s’appliquait à l’époque à ARPANET. On peut cepen-dant s’interroger sur la question de savoir si ARPANET est le seul ancêtre de l’Internet actuel et s’il existait à la même époque des tentatives ou expérimenta-tions qui rejoignaient ce qu’a représenté ARPANET. D’autres réseaux se sont développés en parallèle, que ce soit dans le monde universitaire ou commercial, et utilisaient les principes de base qu’avaient posés ARPANET (voir le cas français dans l’encadré sur Cyclade). Il est clair néanmoins que c’est bien au sein de l’ARPA que se sont développés les gènes de l’Inter-net d’aujourd’hui, du point de vue de la philosophie de la communication interactive et distribuée.

Toute histoire est précédée d’une préhistoire et l’ARPA elle-même est l’une des conséquences de ce qui a été appelé après la deuxième guerre mondiale “Big Science” qui montre comment le complexe militaro-universitaire a mobilisé un po-tentiel gigantesque pour répondre à la peur de la guerre atomique. ARPANET/Internet est l’une des conséquences technologiques (et sociales) de la Big Science d’après-guerre qui s’articula autour d’un triptyque bien connu aux Etats-Unis, la défense, l’université et l’industrie ; c’est pour-quoi nous remonterons un instant à l’immédiate après-guerre pour commencer cette histoire.

La préhistoire : le MIT, les ordinateurs et les réseaux

Les origines de l’ordinateur remontent à la deu-xième guerre mondiale mais ce sont les années 50 qui ont vu aux Etats-Unis l’émergence d’une science informatique. Le MIT fut le creuset où dominèrent les recherches et les innovations en informatique. La plupart des initiateurs et des concepteurs d’AR-PANET venaient du MIT et avaient des expériences de l’informatique interactive et du temps partagé (time sharing). La cybernétique inventée par Norbert Wiener dans les années 40 apporta quelques-uns des fondements de l’informatique interactive et com-municationnelle. Norbert Wiener focalisa autour de lui un groupe de chercheurs travaillant dans un cadre interdisciplinaire qui devait devenir le cadre intellec-

Retour sur Internet, un quadragénaire qui se porte bien

Page 19: Aperçu du numéro 2013-1 de la REE (avril 2013)

110 Z�REE N°1/2013110 Z�REE N°1/2013

!!!!!!!!!!! RETOUR SUR !!!!!!!!!!!!!! RETOUR SUR

tuel de référence de l’ARPANET, autour des notions de com-munication, de commande et de contrôle. Cette démarche s’incarna au MIT dans l’un des plus célèbres laboratoires qui s’était déjà illustré au cours de la guerre dans les dévelop-pements radars, le Research Laboratory of Electronics (RLE) et son émanation, spécialisé dans la défense antiaérienne, le Lincoln Laboratory. De grands projets comme l’ordinateur Whirlwind et le réseau SAGE (Semi Automatic Ground Envi-ronment) alimentèrent des recherches et des chercheurs. En août 1949, les soviétiques firent exploser une bombe atomique expérimentale et précipitèrent le monde dans la guerre froide. Les Etats-Unis vécurent dans l’angoisse d’une guerre nucléaire et quand arriva la nouvelle que les sovié-tiques possédaient une flotte de bombardiers à long rayon d’action pouvant venir lâcher des bombes atomiques sur les villes américaines, les autorités confièrent à un comité, l’étude d’un système antiaérien destiné à détecter et inter-cepter les bombardiers soviétiques.

Le rapport d’étude du comité proposa, d’une part de ren-forcer les batteries antiaériennes et d’autre part de développer un réseau de défense automa-tisé, composé de radars et d’ordinateurs reliés entre eux par un réseau de communication qui fut appelé SAGE. Le projet SAGE constitua donc le premier réseau de défense antiaérienne des Etats-Unis. Les deux composantes fondamen-tales de SAGE étaient les radars d’interception et les Whirlwing, ordinateurs qui devaient calculer en temps réel grâce à la technique du temps par-tagé, les trajectoires des cibles détectées par les radars. Les vingt-trois secteurs, disséminés sur le territoire, étaient reliés entre eux par des lignes téléphoniques et le système était conçu pour poursuivre automatiquement les cibles aériennes, reprenant les principes du contrôle auto-matique qu’avaient posés Norbert Wiener dix ans plus tôt. L’US Air Force demanda en 1950 au MIT la création d’un centre de recherche pouvant développer et mettre au point ce réseau. Pour cela le MIT mit à contribution, entre autres, le Lincoln Laboratory, IBM et la Rand Corporation. La science in-formatique devait connaître dès lors un essor rapide d’autant que les crédits furent pratiquement illimités. Beaucoup de compétences et d’expériences des ordinateurs en réseaux, acquises dans ce programme exclusivement militaire se cris-talliseront lors de la conception de l’ARPANET.

Création de l’ARPALe 4 octobre 1957, l’URSS lança Spoutnik, premier satel-

lite artificiel, en pleine guerre froide et déclencha d’emblée le début de la course à l’espace. Le choc aux Etats-Unis fut

énorme et la crainte de se laisser distancer en matière de technologie conduisit à une réflexion à grande échelle sur la recherche militaire très critiquée à l’époque, notamment à cause de la concurrence que se livraient les trois armes de l’armée, la Navy, l’Air Force et l’US Army, de la gestion trop bureaucratique ainsi que des liens trop distendus entre la recherche civile et la défense. Le tout nouveau secrétaire à la Défense McElroy, nommé en octobre 1957, arriva dans un contexte agité par une crise de confiance dans les capacités militaires des Etats-Unis. Un débat fut lancé et au fil des dis-cussions émergea la création d’une agence centrale qui serait responsable de la gestion des projets avancés et supervise-rait les services du Pentagone.

La création le 7 janvier 1958 de l’ARPA, acronyme de “Advanced Research Project Agency” (agence pour les pro-jets de recherche avancés), marqua une évolution essen-tielle dans la recherche militaire. Le directeur de la nouvelle agence pouvait désormais passer directement des marchés, signant là, la fin de l’autonomie dont jouissaient les services

du Pentagone. L’agence bénéficia immédiate-ment d’une capacité de recherche illimitée afin d’encourager la recherche fondamentale. Finan-cée par le gouvernement fédéral, l’ARPA disposa dès ses débuts d’un énorme budget de 520 mil-lions de dollars. L’agence eut par la suite des mo-ments difficiles avec la création peu de temps après, de la NASA, mais l’arrivée au pouvoir de J. F. Kennedy lui redonna un nouveau départ. L’agence posséda au début des années 1960 une direction dynamique et soudée, une équipe

de directeurs de programmes très compétents et mobilisés, des moyens financiers énormes, des soutiens politiques à la Maison Blanche et un pouvoir décisionnaire exceptionnel pour le choix des contrats de recherche.

L’une des directions majeures pour la recherche en infor-matique fut le “Command and Control” et, pour diriger ces recherches, l’ARPA fit appel à un brillant chercheur du MIT J.C. Licklider. Ayant déjà une expérience de l’informatique, il détourna d’une certaine manière les objectifs qui lui étaient assignés au départ, en prônant le développement d’une informatique distribuée à laquelle personne ne croyait, une sorte de service public informatique offrant des accès mul-tiples à de grands ordinateurs. Il se donna les moyens de mettre en œuvre ses idées quand, en 1962, il transforma la division “Command and Control Research” en une nouvelle division au sein de l’agence, l’IPTO (Information Processing Techniques Office) dont il fut nommé directeur. Il devint le premier directeur des recherches en informatique ayant l’objectif de développer l’informatique interactive et le par-

Figure 1 : J.C. Licklider.

jphauet
Rectangle
Page 20: Aperçu du numéro 2013-1 de la REE (avril 2013)

REE N°1/2013 Z 117

Directeur général de l’Agence Nationale des Fréquences (ANFR)

ENTRETIEN AVEC GILLES BRÉGANT

REE : Comment est organisée la gestion des fréquences au niveau mondial ?G. B. : Les ondes radio ne respectant pas les frontières, l’utilisation des bandes de fréquences doit faire l’objet de règles internationales. Elles sont élaborées par le secteur des radiocommunications de l’Union Internationale des Télécommuni-cations (UIT-R ou ITU-R). Des commis-sions préparent les bases techniques des Conférences Mondiales des Radio-communications (CMR) qui tous les trois ou quatre ans examinent et révisent le règlement des radiocommunications (RR). Ce règlement, qui a valeur de traité international, précise pour chaque bande de fréquences la liste des usages qui peuvent en être faits : c’est une sorte de « menu » dans lequel les différents pays peuvent faire leur choix.

REE : Comment s’est mis en place le RR ?G. B. : La réglementation sur l’usage du spectre s’est peu à peu structurée au fil de la croissance des usages. Par exemple, l’harmonisation des fréquences radio-maritimes est la plus ancienne : elle était nécessaire à l’amélioration de la sécurité des transports par mer. Ont suivi l’harmonisation des bandes mili-taires dont l’usage ne devait pas être perturbé par les utilisateurs civils, celles des fréquences de la TSF puis du radar, de la télévision, des communications par satellite et enfin des communications mobiles. Au XXe siècle, la croissance des usages s’est accompagnée de la montée en fréquences dans le spectre. Les bandes de fréquences utilisables n’étant pas extensibles à l’infini, il faut parvenir à réutiliser les fréquences – ce que permettent les technologies de sys-tèmes qui s’appuient de plus en plus sur l’informatique – et densifier l’utilisation du spectre. Avec le temps on est passé d’une utilisation du spectre qu’on peut qualifier de « conquête de l’Ouest » où

l’aptitude à maîtriser une nouvelle bande permettait de la revendiquer, à un usage très intensif du spectre : dans bien des cas, on n’est plus très loin de la limite de Shannon.

REE : Quelles sont les contraintes et les moteurs qui font la vie du RR ?G. B. : Il y a des contraintes de nature physique : en général, plus un émetteur monte en fréquence plus sa portée dimi-nue. Les opérateurs visant une large cou-verture du territoire préfèrent donc se voir allouer des fréquences situées dans la par-tie basse du spectre : tant qu’elles restent compatibles avec services qu’ils offrent, ils ont moins d’émetteurs à installer.

Certains usages imposent naturel-lement une harmonisation préalable du spectre de fréquences utilisé : par exemple, les satellites à défilement imposent d’utiliser des bandes qui sont les mêmes sur l’ensemble du globe ; de même, le développement du service mobile grand public impose que les parcs de terminaux soient suffisamment larges et donc qu’ils opèrent dans des bandes de fréquences communes aux différents pays d’un continent, voire du monde. Et il est essentiel que les bandes utilisées en radioastronomie ou par les systèmes de positionnement par satellite ne soient pas polluées par d’autres usages.

Enfin l’évolution technologique conduit à réexaminer périodiquement l’usage du spectre : avec le temps, les générations de systèmes ont une efficacité spectrale qui va croissant. Par exemple la numéri-sation de la télévision a permis de diviser par six la demande en bandes de fré-

quences à service constant : ainsi ont été dégagées les bandes dites du « dividende numérique » qui ont ensuite fait l’objet d’une réallocation.

L’usage du spectre est donc sujet à des réaménagements permanents, car des bandes de fréquences peuvent être libérées par suite d’évolutions technolo-giques ou de modification des usages ; ce peut être aussi des bandes qui ont été réservées à des services dont le développement n’a pas été conforme aux ambitions initiales. Les gestionnaires du spectre se trouvent ainsi devant des « dents creuses » du spectre comme les urbanistes se trouvent face à des zones

urbaines à réaménager. Par exemple en France dans la bande L, des fréquences ont été allouées pour la diffusion ter-restre de la radio numérique terrestre ; mais les opérateurs ont préféré surseoir à son usage. Désormais, cette ressource est pour partie affectée à un service de radio numérique avec une composante satellitaire, tandis que son emploi pour le haut débit mobile est à l’étude au niveau européen. On a donc un travail quasi permanent de remembrement, de “refarming”, du spectre à effectuer.

REE : Au-delà du RR comment fonc-tionne l’harmonisation des fréquences en Europe ?G. B. : C’est au sein de la CEPT qui re-groupe 48 pays européens dont les 27 pays de l’UE qu’est effectuée l’harmo-nisation européenne en matière de fré-quences. L’Union européenne a défini, récemment, un programme stratégique

Au niveau international, le Règlement

des Radiocommunications (RR) définit les usages

autorisés dans chaque bande de fréquences

L’usage du spectre fait l’objet

de réaménagements permanents

et l’ANFR prépare et défend

les positions françaises

Page 21: Aperçu du numéro 2013-1 de la REE (avril 2013)

118 Z�REE N°1/2013

pluriannuel sur la politique européenne du spectre radioélectrique. Il prévoit notamment des mesures spécifiques visant à identifier des fréquences sup-plémentaires pour les services hertziens à haut débit à l’horizon 2015.

REE : Comment est organisée la gestion des fréquences en France ? Quel y est le rôle de l’ANFR et comment se posi-tionne-t-elle par rapport au CSA et à l’ARCEP ?G. B. : Au niveau international, l’ANFR prépare les positions françaises dans les négociations multilatérales et conduit ces négociations. Au niveau national, l’ANFR tient à jour le tableau national de répartition des bandes de fréquences (TNRBF) et son conseil d’administra-tion propose au Premier ministre des décisions attribuant les bandes de fré-quences à neuf grands affectataires. Ces derniers, qui agissent en quelque sorte comme des grossistes, allouent ensuite selon leurs propres règles les fré-

quences individuelles à des émetteurs, chacun dans leur domaine d’activité. Le TNRBF précise également les conditions d’usage des bandes de fréquences. Parmi les grands affectataires on trouve les autorités indépendantes que sont l’ARCEP et le CSA ainsi que différents départements ministériels : défense, intérieur, transports, outre-mer, espace, radioastronomie, ports et navigation maritime. CSA et ARCEP ont la faculté de concéder des fréquences à des uti-lisateurs privés. L’agence peut assister certains affectataires dans la gestion in-dividuelle des fréquences : par exemple elle assigne les fréquences aux diffé-rents réseaux indépendants pour le compte de l’ARCEP. Elle gère également la délivrance des licences des stations

de bord des bateaux pour le compte du ministère chargé de la mer. Pour certains grands évènements comme le tour de France, l’agence alloue sur place des fréquences temporaires aux différents demandeurs.

L’ANFR assure également la police du spectre : elle dispose d’importants moyens pour mener cette mission avec notamment 24 camions équipés d’instru-ments de mesure de pointe, dont, pour sept d’entre eux, de radiogoniomètres sophistiqués. Ses services interviennent pour inspecter des sites radioélec-triques, pour assurer la protection de la réception de la TNT, pour vérifier que les équipements mis sur le marché sont bien conformes à la réglementation européenne et notamment aux normes d’exposition du public aux rayonnements électromagnétiques et enfin pour ins-truire les cas de brouillage signalés.

L’ANFR tient à jour une base de don-nées géographique d’allocation des fréquences et en particulier le cadastre des éléments rayonnants : ceux dont la puissance dépasse 5 W doivent faire l’objet d’un accord ou d’un avis préalable de l’agence. Cela lui permet éventuel-lement de refuser une installation qui pourrait provoquer des perturbations ou dépasser les seuils d’exposition du

public. La connaissance des émetteurs permet également à l’ANFR d’assurer la coordination aux frontières avec les pays voisins qui constitue aussi une de ses missions centrales.

REE : Quels sont les grands utilisateurs du spectre ?G. B. : En termes de largeur de bande affectée, les deux plus grands affecta-taires sont la Défense et l’ARCEP qui dis-posent chacun de l’ordre de 20 à 40 % des bandes affectées. Suivent le CSA, l’Aviation Civile et l’Espace.

REE : Quelles sont les tendances en matière de besoins en fréquences ?G. B. : A priori, en dehors de domaines aux fréquences quasi stables comme la météorologie et la radioastronomie, tous les autres secteurs demandent des bandes plus larges. C’est le cas des télécommunications où la montée en débit des services mobiles avec la 4e génération requiert des bandes de fré-

quences complémentaires. C’est le cas également de la télévision diffusée qui, après l’augmentation du nombre de chaînes offertes envisage la montée en qualité avec l’extension de l’usage de la Haute Définition et également le format 4K dont l’industrie commence à mon-trer les premiers récepteurs. La défense demande également plus de bande, par exemple pour la transmission des résul-tats d’observation des drones. L’usage de la vidéo temps réel s’étend égale-ment dans la police, et on trouve une tendance comparable dans les trans-ports aériens.

Au niveau national, l’ANFR répartit le spectre entre grands affectataires

et notamment l’Arcep et le CSA

L’ANFR assure la police du spectre et dispose de moyens techniques

importants

Que ce soient les télécommunications, la télévision, la défense,

la police, la santé… le besoin en fréquences

va croissant et exige un remembrement

permanent du fichier national des fréquences

jphauet
Rectangle
Page 22: Aperçu du numéro 2013-1 de la REE (avril 2013)

REE N°1/2013 Z 121

ENSEIGNEMENT & RECHERCHE

Entretien avec Pierre Tapie Directeur général du groupe ESSEC Président de la Conférence des grandes écoles (CGE)

REE : la CGE va bientôt fêter ses 40 ans. Le club modeste et très élitiste des débuts est devenu une organisation importante. Pouvez-vous, pour les lecteurs de la REE, en préciser les contours actuels ?P. T. : La Conférence des Grandes Écoles, créée en 1973 avec 10 écoles fondatrices, regroupe aujourd’hui 220 organisations, dont 143 écoles d’ingénieurs, 38 écoles de management, 20 autres écoles françaises (écoles vétérinaires, écoles normales supérieures, écoles de journalisme etc.) et 14 établissements d’enseignement supérieur étrangers.

L’ensemble de ces écoles, si on y inclut les étudiants des classes préparatoires, représente une filière de formation de 350 000 étu-diants environ, soit 17 % du total des étudiants français. Plus impor-tant encore, cet ensemble représente un poids considérable en flux annuel de diplômés.

Les conditions d’admission à la CGE sont multiples. La déli-vrance d’un diplôme de niveau master est obligatoire mais cette condition n’est pas suffisante et toute décision d’adhésion à la CGE est soumise à un rapport préalable, puis à une visite de trois auditeurs qui ont pour mission de vérifier très précisément que l’école est autonome institutionnellement, qu’elle est pilotée par un conseil d’administration responsable et qu’elle dispose d’un budget suffisant pour remplir sa mission avec une haute exigence de qualité.

REE : les établissements membres de la CGE diplôment donc tous au niveau master, mais aussi pour certains aux niveaux licence et doctorat. Pouvez-vous préciser l’importance des flux annuels ? Le poids des GE est-il, dans certains secteurs, comparable à celui des univer-sités ? Qu’en est-il de la recherche dans les GE ?P. T. : Un petit nombre d’écoles, notamment celles de manage-ment, ont créé des diplômes de bachelor pour être présentes dès le premier cycle de l’enseignement supérieur. D’autres proposent des cursus intégrés en cinq ans, qu’il s’agisse d’écoles d’ingénieurs ou de management, permettant le déploiement progressif, depuis le bac jusqu’au niveau master, de pédagogies intégrées.

La délivrance du doctorat concerne un nombre croissant d’éta-blissements ; souvent d’ailleurs il s’agit de co-délivrance avec une

université, après une préparation intégralement assurée au sein de la grande école, en partenariat éventuel avec une entreprise.

Les flux annuels des diplômés de niveaux master et doctorat représentent 40 % du total des masters formés en France et un tiers des docteurs. Ces pourcentages se rapportent aux nombres globaux de masters et de docteurs diplômés en France mais dans les sec-teurs particuliers que sont les sciences et techniques d’une part, le management d’autre part, le poids des diplômés de niveau master venant des grandes écoles est supérieur à 50 % (56 % en sciences et techniques, 58 % en management).

En ce qui concerne la recherche, on trouve encore régulièrement dans les journaux ou dans les propos de certains hommes politiques, des déclarations péremptoires selon lesquelles il n’y aurait pas assez de recherche dans les grandes écoles, les universités faisant, elles, de la recherche. Cette image est marquée historiquement par la réa-lité d’il y a 25 à 30 ans, à une époque où peu d’écoles faisaient de la recherche, mais où celles qui en faisaient étaient souvent de très haut niveau. Aujourd’hui, si nos écoles préparent un tiers des doc-teurs, c’est parce que la recherche s’y est considérablement dévelop-pée. La recherche des grandes écoles couvre un spectre très large de méthodes allant des travaux les plus cognitifs, dans quelques ins-titutions caractérisées par des études abstraites, jusqu’à des travaux de recherche partenariale, orientés vers des applications et souvent financés par les entreprises.

REE : avez-vous constaté, depuis que vous êtes Pré-sident de la CGE, des évolutions importantes, en particulier des convergences avec le monde de l’uni-versité ?P. T. : Cette question des convergences avec le monde de l’uni-versité est une question très marquée par l’histoire universitaire de notre pays et la dualité de son système de formation.

Si on compare la situation des États-Unis (17 millions d’étudiants pour 4 000 établissements portant le nom d’université) et celle de la France (environ 300 universités ou grandes écoles accueillant 1 500 000 étudiants), on voit que la taille moyenne de l’établis-sement, école ou université, est légèrement supérieure en France à ce que l’on appelle université aux États-Unis. Ceci indique donc que « nos grandes écoles ne sont pas trop petites », tout simplement parce qu’à l’étranger beaucoup de nos écoles seraient appelées des universités !

Le débat, très fréquent en France, sur la taille des universités et des écoles est largement dépassé et les universités les plus en pointe dans le classement de Shanghai ne sont jamais des universi-tés de très grande taille.

Les grandes écoles : un atout pour la croissance

et une chance internationale

Page 23: Aperçu du numéro 2013-1 de la REE (avril 2013)

122 Z�REE N°1/2013

ENSEIGNEMENT & RECHERCHE

Est-ce à dire que la question universités/grandes écoles est obso-lète ? Au cours des dix dernières années, on a vu évoluer les modèles pédagogiques des grandes écoles pour intégrer de plus en plus d’in-ternational. Les modalités d’intégration des expériences alternées entre théorie et pratique sont devenues de plus en plus variées, la pédagogie par l’apprentissage se développant dans un nombre croissant d’écoles. Pendant que les écoles se développaient interna-tionalement et s’engageaient de plus en plus dans la recherche, les universités, quant à elles, ont peu à peu intégré, notamment après la LRU, les fonctions d’insertion professionnelle de leurs étudiants. A cette fin, elles ont accéléré l’offre de stages professionnels intégrés dans les parcours de formation et donc reconnu le lien organique entre expérience professionnelle et formation théorique qui était, jusqu’alors, le plus souvent l’apanage des grandes écoles.

Ainsi, les deux systèmes ont progressivement convergé tant sur le plan pédagogique que sur le plan de la recherche. Il reste cependant de vraies différences car la très haute proximité de l’entreprise est une caractéristique des écoles internationalement enviée.

REE : l’ESSEC que vous dirigez a été pionnière en matière d’apprentissage. Pourriez-vous mentionner les avantages, spécifiques à vos yeux, des formations par apprentissage et indiquer le poids qu’elles ont acquis au sein de la CGE ?P. T. : Depuis une vingtaine d’années, les pédagogies des écoles se sont ouvertes à l’apprentissage à la suite de l’expérience pionnière de l’ESSEC dès 1994. Les établissements qui peu à peu s’orientent vers cette forme de pédagogie, y découvrent tous un intérêt. L’étu-diant/salarié, à mi-temps dans l’entreprise et à mi-temps à l’école, chemine progressivement dans un cadre où la théorie et la pratique se fécondent l’une l’autre.

Ce principe est à la base des pédagogies des écoles, mais dans le cadre de l’apprentissage il atteint une exigence plus élevée : le statut de salarié à temps partiel rend l’étudiant solidaire de l’entreprise, dans laquelle il n’est pas que stagiaire, et des responsabilités signifi-catives lui sont souvent confiées. Les étudiants apprentis de l’ESSEC vivent des périodes de deux ans à mi-temps dans l’entreprise : ils ont donc le temps de voir se dérouler des projets de durée significative et de constater les évolutions organisationnelles de l’entreprise sur cette période, ce qui accélère la maturité.

Aujourd’hui les 2/3 des écoles de management de la CGE et environ 40 % des écoles d’ingénieurs ont ouvert leurs formations à l’apprentissage. Si le total des étudiants sous statut d’apprenti ne représente qu’environ 15 % de ces établissements (soit environ 6 000 étudiants), ces pédagogies ont été sources d’inspiration, pour les écoles, à cause des dispositifs d’ingénierie nécessaires à leur mise en place.

REE : pourriez-vous préciser la position de la CGE à propos des formations qu’elle labellise : mastères spécialisés (MS) et masters of science (MSc), mais aussi BADGE ?

N’y aurait-il pas pléthore de MS, et frilosité en ce qui concerne les BADGE ?P. T. : La question du droit à délivrer des diplômes et des différents labels de la CGE sur les mastères spécialisés, les masters of science etc. est une question technique d’une part, stratégique d’autre part. En effet, les textes du MESR d’avril 2002 sont venus encadrer le mot master, mot courant en langue anglaise, pour créer un mot de langue française dont l’usage est réservé à des processus contrôlés par l’État.

Si ce principe était admissible au nom de la protection du consommateur-étudiant face à d’éventuelles duperies, il n’en a pas moins entraîné une rigidification des processus d’habilitation qui a pesé sur la création de nouvelles formations. Les établissements d’origine associative ou consulaire se sont trouvés systématiquement défavorisés par rapport aux établissements publics, le Ministère de l’Enseignement supérieur et de la Recherche (MESR) interprétant de manière très restrictive les textes qu’il avait lui-même créés et que, dans certains cas, la CGE avait négociés.

Quinze années plus tôt, en 1985 la CGE avait eu l’intuition que le marché des formations post niveau master allait se déployer en France, et créé pour cela le label CGE des mastères spécialisés. Cette intuition allait s’avérer très pertinente ; ensuite la dynamique lan-cée en 2002, a poussé les établissements à créer des masters of science (MSc), label de la CGE qui permet de délivrer à des étu-diants étrangers des certificats et diplômes correspondants à des études pointues spécialisées de niveau post-bachelor. MS et MSc sont donc deux référentiels de formations complémentaires, qui au-torisent l’expression des compétences scientifiques spécialisées des établissements. Bien sûr, quelques établissements peu scrupuleux, en général non membres de la CGE, cherchent à s’arroger le droit de délivrer des masters of science non labellisés. La CGE, très vigilante sur ce point, engage les actions appropriées pour assurer l’intérêt de ses établissements.

Aujourd’hui 6 000 étudiants chaque année rentrent dans les quelque 500 MS/MSC labellisés, qui expriment les compétences pointues des écoles en matière de recherche et d’expertise. Des jeunes déjà titulaires d’un diplôme de niveau master y acquièrent de nouveaux talents et, souvent, un profil de double compétence, fortement valorisé sur le marché du travail.

De leur côté les BADGE, au nombre de 107 (deux BADGE per-mettant d’acquérir un MS), représentent un outil de certification très intéressant dans le contexte de la formation continue, sans que l’ex-cellence d’un diplôme initial à Bac+5 soit obligatoire. Ils représentent un vecteur de promotion sociale significatif et sont sans doute pro-mis à un très bel avenir.

REE : on fait souvent le reproche aux GE d’être plus marquées par la reproduction sociale que par la pro-motion sociale. Les coûts de formation demandés se chiffrent parfois en dizaines de k� pour l’ensemble du cursus, ce qui exclut en pratique tout étudiant boursier, alors que l’objectif ministériel est de 30 %

jphauet
Rectangle
Page 24: Aperçu du numéro 2013-1 de la REE (avril 2013)

REE N°1/2013 Z 127

C eux de nos lecteurs qui ont eu le

bonheur de visiter à la Fondation

Cartier pour l’art contemporain

l’exposition Mathématiques, un

dépaysement soudain (octobre 2011 - mars

2012) retrouveront avec un vif plaisir le récent

petit livre de Misha Gromov ; celui-ci trouve en

effet sa source dans cette initiative culturelle qui

fit quelque bruit. Les auditeurs de France Inter,

qui ont entendu Misha parler de ses convictions,

avec cet accent russe si chaleureux qui le carac-

térise et cette maîtrise du français dont le débit

égale celui de Fabrice Luchini, se souviennent

des émissions qui lui ont été récemment consa-

crées.

Misha Gromov est un mathématicien franco-

russe qui travaille à l'Institut des Hautes Etudes

Scientifiques (IHES) de Bures-sur-Yvette. L’im-

portance de ses travaux lui a valu la célébrité,

attestée par les prix prestigieux qui lui ont été

décernés, parmi lesquels Wolf en 1993, Bolyai

en 2005, Abel en 2009. Mais loin de nous

l'idée de tenter le moindre commentaire sur la

topologie symplectique ou les courbes pseudo-

holomorphes : nous souhaitons simplement

évoquer le plaisir que procure son Introduction

aux mystères, ou plutôt la promenade qu'il

nous propose en compagnie de quelques-uns

des génies consacrés par l’histoire des sciences.

Pour l’exposition rappelée ci-dessus et dont

le passionnant catalogue reste disponible, le

mathématicien avait, avec la complicité de David

Lynch, réalisé la Bibliothèque des Mystères de

Misha Gromov, sélection d'exemples illustrant

les conceptions de quelques grands savants sur

ce qu’il appelle mystères, mais qui sont par es-

sence les thèmes éternels de la philosophie des

sciences. Dans son livre Misha Gromov reprend

et complète ces exemples, en y ajoutant des

commentaires « qui sont en quelque sorte ceux

d'un mathématicien qui joue avec ces idées

comme avec des chiots ».

Le lecteur est donc convié à une belle pro-

menade, pour laquelle il serait malséant de

hâter le pas ; bien au contraire, il est agréable

de butiner, de revenir en arrière et de confron-

ter les opinions des grands anciens, entre

elles mais aussi aux développements histo-

riques des sciences et aux « grains de sel » de

notre guide, toujours enthousiaste, admiratif

et réjoui « de ce qui est chaleureux, beau,

vivant ».

C’est la science et ses lois qui retiennent sur-

tout l’attention de Gromov, dont les « opinions »

complètent les points de vue sélectionnés,

qui vont d'Héraclite à Poincaré, de Newton à

Feynman. Si « l'harmonie cachée vaut mieux

que l'harmonie visible » (Héraclite, vers -500

av. J.C.), alors vingt-cinq siècles plus tard notre

génial mathématicien a bien raison d’affirmer qu’

« il n'y aucun progrès et aucun apprentissage

sans questionnement ». Il y a du Prométhée chez

Gromov, qui tutoie les dieux : on savait déjà

depuis Einstein que « Dieu ne joue pas aux dés »

et on apprend qu' « il ne se soucie pas de nos

difficultés mathématiques ». Il doit y avoir, sous-

jacent à la recherche des harmonies cachées, à

la fois un intense effort d’imagination (« l'imagi-

nation est plus importante que le savoir ») et

un recours conscient à la poésie (« la poésie est

plus philosophique et de plus de sérieux que

l'histoire »).

Descartes est cher au cœur de l'illustre géo-

mètre contemporain, lui qui a su le premier asso-

cier les nombres et les espaces, initiant le courant

fécond qui derrière les nombres s'efforce d’iden-

tifier les espaces, de plus en plus abstraits dans

lesquels s’expriment les propriétés, relations ou

symétries. La physique, comme les mathéma-

tiques, s'inscrit dans ce schéma conceptuel : ce

sont les nombres qui atteignent nos sens et notre

effort créatif qui imagine les espaces que préci-

sément ces nombres « encodent », ainsi que l'ex-

prime Grothendieck, mathématicien atypique s'il

en fut et que Gromov tient en très haute estime.

Pour d'autres raisons, Buffon force l'admiration

tant il a été capable de rénover et de restructu-

rer les sciences de son temps, à l'époque des

Lumières : dommage que sa paresse naturelle

lui ait interdit d'écrire plus de 36 tomes des 50

prévus pour son Histoire naturelle, générale et

particulière !

Les lois relatives à l'évolution, conduisent à de

fécondes réflexions : Gromov rétablit les mérites

de Maupertuis et de Lamarck, qui a eu le tort

historique d’appeler adaptation ce qui, sous le

nom d’évolution, lui aurait assuré une gloire im-

mortelle ! Il se livre à des considérations serrées

sur l'existence d'un ancêtre commun à tous les

organismes vivants comme sur la modélisation

de l'hérédité et de l'évolution. Bien sûr Mendel,

Darwin et Wallace figurent au Panthéon.

Un texte de Turing donne l’occasion de discu-

ter, de polémiquer même, sur la notion d’intelli-

gence, que Gromov estime impossible à définir,

et sur celle d’apprentissage, qui correspond pour

lui à un concept plus riche, mais encore incapable

d'éclairer la façon dont le bébé devient conscient

du monde. Il en appelle à « poser des questions

du type de celles qu’aurait pu formuler Darwin ».

On ne chipotera pas Misha Gromov sur quel-

ques considérations plus spiritualistes que scien-

tifiques, sur l'unité de la vie par exemple, même

s'il est bien conscient du risque de se laisser

déborder par une téléologie inconsciente. Et on

admirera sans réserve le choix des textes, qu'ac-

compagne, dans une bibliographie tout à fait

exceptionnelle, la mention des sources acces-

sibles ; chacun pourra ainsi continuer sa pro-

menade et parfaire son initiation aux lumineux

mystères que constituent la science et ses lois,

la physique et la vie, le temps et l'espace, l'évo-

lution et l'intelligence, l'esprit et la machine. Q

B. Ay.

CHRONIQUE

Une belle promenade en compagnie de Misha Gromov !

Misha GromovIntroduction aux mystèresEditions Actes Sud Beaux Arts

& Fondation Cartier pour l’art contemporaindécembre 2012 - 144 p. - 17,50 B

Mathématiques, un dépaysement soudain

Catalogue de l'exposition à la Fondation Cartier pour l'art contemporain

Diffusé par Actes Sud octobre 2011 - 150 reproductions en couleur

et noir et blanc - 216 p. - 44,70 B

Page 25: Aperçu du numéro 2013-1 de la REE (avril 2013)

128 Z�REE N°1/2013

LIBRES PROPOS

Lucien Chabason, Président du Plan Bleu

U n adage répandu dans le monde de l'envi-ronnement : « penser globalement, agir lo-calement » donnerait à penser qu'il existe-rait une sorte de continuité naturelle entre

le global et le local. Le développement des politiques énergétiques depuis l'émergence de la question clima-tique montre qu’il n’en est rien.

La priorité donnée à l'essor des énergies renouve-lables non émettrices de GES - en particulier l'éolien ter-restre et offshore - avec l'affichage d'objectifs à moyen terme très ambitieux est un acquis du Grenelle. Comme l’hydroélectrique, le développement éolien caractérise bien l'opposition global/local.

Climat global ou paysage local ?On le voit dans la difficulté à

mettre en œuvre sur le terrain les parcs éoliens terrestres du fait d'une législation hésitante et mouvante, mais aussi de fortes oppositions lo-cales en particulier dans les régions où le paysage a une très forte valeur patrimoniale, tels que le littoral, la Provence intérieure, les hauts pla-teaux du Massif Central. L'industrie de l'éolien, agissant comme n'importe quel lobby économique, s'est effor-cée d'obtenir des dérégulations législatives. Mais cela ne peut que renforcer les contestations des tenants du paysage qui peuvent par ailleurs s’appuyer sur le droit international relatif à la biodiversité qui protège en par-ticulier les oiseaux et les chauves-souris. Et si l'ampleur de l'impact sur ces espèces n'est pas établie de façon incontestable, alors il est encore possible d'invoquer le principe de précaution qui recommande prudence voire abstention.

Curieusement, cette valeur paysagère, localement défendue avec ardeur, du Cézallier aux Monts d'Arrée et de la Margeride aux Ardennes, et qui apparaît dans les schémas régionaux climat-air-énergie, est peu por-tée au niveau national par des associations écologistes, qui donnent priorité aux questions globales, et est mal assumée par les ministères compétents.

On a tôt fait de considérer les associations locales comme instrumentées par le secteur nucléaire ou défen-dant des intérêts égoïstes. Mais on a tort de minimiser la valeur paysagère dans les politiques environnementales, ce qui finalement amène aux juges beaucoup d'affaires où le paysage n'a pas été considéré à sa juste valeur.

Ces contradictions enjeux globaux/conséquences locales trouveront également à s'exprimer lorsque viendra le moment de la mise en œuvre du schéma décennal de développement du transport d'électricité qui a récemment fait l’objet d’une consultation publique. Celui-ci prévoit, notamment mais pas seulement, en relation avec le développement des parcs d'énergie renouvelable, la construction d’un millier de km de lignes THT 400 kV et le rehaussement à 400 kV de 2 000 km de lignes existantes. De beaux débats de ter-rain s’annoncent, quand on observe ce qui se passe pour construire la nouvelle ligne 400 kV dans le Cotentin.

Enfin, il va falloir amener à la côte le courant produit par les futurs parcs offshore et, à cette fin, rechercher de l’espace naturel juri-diquement acceptable en dehors des zones urbanisées, des sites protégés par l’article L.146-6 de la loi littoral ou par la loi de 1930, des propriétés du Conservatoire du littoral ou celles que les départements ont acquises grâce à la taxe des espaces naturels

sensibles ! Une lourde tâche en perspective quand on voit ce qu’il est advenu des projets de lignes THT du Val-Louron ou du Verdon qui n'ont pu se réaliser pour des raisons de paysage.

La difficulté que rencontre l'Allemagne pour évacuer l'électricité produite en Mer du Nord et qui suppose la construction de 3 500 km de ligne à haute tension en direction du sud du pays donne également à réfléchir.

Et l’on ne parlera pas ici de la tentation de relancer l'hydroélectrique, petit ou grand, qui ne peut que se heurter aux défenseurs de l'écologie aquatique et aux directives européennes sur l'eau ou sur la biodiversité.

L’efficacité énergétique, parent pauvreCurieusement, alors que les difficultés en vue de

réaliser le programme d'énergies renouvelables se sont accumulées et nous amènent à enregistrer un retard sur les objectifs du paquet énergie-climat, peu est fait ou

Transition énergétique :

clarifier les enjeux environnementaux

Page 26: Aperçu du numéro 2013-1 de la REE (avril 2013)

REE N°1/2013 Z 129

LIBRES PROPOS

même proposé pour mettre en œuvre un autre objectif du paquet, celui qui concerne l'efficacité énergétique, notamment dans le parc de logements anciens, les bâti-ments publics et les immeubles de bureaux. C'est pour-tant là, on le sait, que la réserve d'économie d'énergie est considérable, le logement et les bureaux représen-tant 44 % de la consommation finale d'énergie avec 55 % de logements construits avant toute règlementa-tion thermique.

On touche là aux perversions des politiques pu-bliques qui ne sont pas nécessairement fondées sur des calculs rationnels de rapport coût financier et environ-nemental/efficacité : de fait, contre toute rationalité, le développement des énergies renouvelables a reçu une attention infiniment plus grande que l'efficacité énergé-tique et ce, pour plusieurs raisons.

Tout d’abord, la pression sur les pouvoirs publics est plus forte du côté des industriels et des financiers du secteur des renou-velables, bien organisé, alors que ce qui touche à l'amélioration du parc de logements anciens est beaucoup moins perceptible en termes d’organi-sation professionnelle et de lobbying politique.

Ensuite, d’un point de vue politique qui exige de la visibilité, il est plus valorisant de lancer un parc d'éoliennes offshore (encore à venir) ou des plates-formes portuaires de construction de pales que de financer l’isolation thermique d’un parc HLM ou d'une université.

Et enfin, l’intervention sur le parc de logements anciens suppose des dis-

cussions avec des interlocuteurs multiples, là où l'éolien ou le solaire ne demandent que des permis et des tarifs de rachats généreux. Avec la contribution au service pu-blic de l'électricité (CSPE), on a mis au point au bénéfice des E.R une martingale qui n'existe pas dans le domaine de l'efficacité énergétique, une raison majeure du désé-quilibre entre ces deux approches.

Pourtant, l’isolation thermique du parc ancien, y com-pris les bâtiments publics, présente un grand intérêt : intérêt écologique (pas d'impact négatif) tout d’abord ; intérêt économique dans le secteur de l’artisanat et des matériaux isolants et intérêt social, avec les emplois liés à ces branches, répartis sur l'ensemble du territoire, et avec la maîtrise des consommations énergétiques des ménages ; intérêt scientifique enfin, avec la mise au point de matériaux et de techniques d’isolation de plus en plus performantes. En définitive, une véritable illus-

tration des valeurs du développement durable et une opportunité de trans-cender l'opposition entre préoccupa-tions globales et environnement local. La directive européenne de 2012 sur l'efficacité énergétique est l'occasion de porter cette préoccupation au ni-veau qu'elle mérite, ce que souligne un tout récent rapport du C.E.S.E (2013.1) sur l'efficacité énergétique.

Bref, reconsidérer l'ensemble des enjeux environnementaux quelle qu'en soit l'échelle, les évaluer, discuter leur pertinence respective et en tirer des conclusions nous paraît devoir faire aussi partie du grand débat sur la tran-sition énergétique. Q

Lucien Chabason a été responsable des questions de sites et paysages au ministère de l'environnement, Directeur du cabinet du Ministre de l'Environnement, Brice Lalonde, auteur du Plan National pour l'Environnement qui a abouti à la création de l'ADEME en 1991 puis responsable du Secrétariat de la Convention de Barcelone pour la protection de la mer Méditerranée aux Nations Unies. Il a présidé le Parc National des Cévennes. Il enseigne la politique internationale de développement durable à Sciences-Po.

jphauet
Rectangle
jphauet
Texte tapé à la machine
Vous voulez... Vous abonner à la REE ? Acheter un numéro ? Cliquer ICI Ou bien téléphoner au 01 56 90 37 04