34
Numéro 2015 EDITORIAL Une période de transitions... de transformations ! Guillaume Poupard ENTRETIEN AVEC Jean-Marie Simon Directeur général d’Atos-France www.see.asso.fr 4 ISSN 1265-6534 DOSSIERS Certificats d'économie d'énergie Par Stéphane Signoret, Daniel Cappe L'ARTICLE INVITÉ

Aperçu du numéro 2015-4 de la REE (octobre 2015)

Embed Size (px)

DESCRIPTION

Cet aperçu permet de découvrir le sommaire et les principaux articles du numéro REE 2015-4 publié en octobre 2015 - Pour s'abonner, merci de vous rendre à la dernière page.

Citation preview

Page 1: Aperçu du numéro 2015-4 de la REE (octobre 2015)

ÉNERGIE TELECOMMUNICATIONS SIGNAL COMPOSANTS AUTOMATIQUE INFORMATIQUE

Num

éro

2

015 EDITORIAL

Une période de transitions... de transformations !

Guillaume Poupard

ENTRETIEN AVEC Jean-Marie Simon

Directeur général d’Atos-France

www.see.asso.fr

4

ISSN

126

5-65

34

DOSSIERS

Certificats d'économie d'énergiePar Stéphane Signoret, Daniel Cappe

L'ARTICLE INVITÉ

jphauet
Zone de texte
Cet aperçu gratuit permet aux lecteurs ou aux futurs lecteurs de la REE de découvrir le sommaire et les principaux articles du numéro 2015-4 de la revue, publié en octobre 2015. Pour acheter le numéro ou s'abonner, se rendre à la dernière page.
Page 2: Aperçu du numéro 2015-4 de la REE (octobre 2015)

dĂƌŝĨƐϮϬϭϱ;ĞŶĞƵƌŽƐͿ;DĞƌĐŝĚĞĐŽĐŚĞƌůĂĐĂƐĞĚĞǀŽƚƌĞĐŚŽŝdžͿ

^ƚĂŶĚĂƌĚZĞƚƌĂŝƚĠƐĞŶƐĞŝŐŶĂŶƚƐũĞƵŶĞƐĂĐƚŝĨƐ;фϯϱĂŶƐͿ

ƚƵĚŝĂŶƚƐĞŶƌĞĐŚĞƌĐŚĞĚĞŵƉůŽŝ

AbonnementREE(1) FranceetUE:120,00€TTC HorsUE:140.00€(HT)AbonnementREEͲTarifspécialAdhérentsSEE(1)(2) FranceetUE:60,00€TTC HorsUE:70.00€(HT)

AccèsenligneREE–FormuleSolo(3) 90,00€TTC 50,00€TTC 10,00€TTCAdhésionSEE(y.c.accèsenligneREE)–FormuleDuo 125,00€TTC 81,00€TTC 15,00€TTC(1)Lescinqnuméros2015–Distributionpostale(2)Accès enligneREE incluspourles adhérentsSEEͲAdhésionensus.(3)AccèsauxpublicationsélectroniquesdelaSEE,ouvertpendantunanàcompterdeladatedesouscription.

Nometprénom:………………………………………………………………….N°demembreSEE:……………………………………………………………..Adresse:…………………………………………………………………………………………………………………………………………………………………………………………

Codepostal Ville:……………………………….Pays:…………………………………………………………………………………..eͲmail:………………………………………………………………………………..Date,signatureetcachetdel’entreprise,s’ilyalieu :

Jerèglelasommede:…………………….……€par Chèqueàl’ordredelaSEE Cartebancaire(Visa,Eurocard/Mastercard,AmericanExpress)N°Carte

Datedevalidité Cryptogramme Jedésirerecevoirunefactureaunomsuivantpourpaiementàréception:……………………………………………………………………………………….Adresse:…………………………………………………………………………………………….

Codepostal Ville:……………………………….………….Pays:………………………………………N°TVAintracommunautaire:…………………………………………………………….ObligatoirepourrèglementHTenUEhorsdeFrance

Conformémentàlaloidu06/01/1978,vousdisposezd’undroitd’accèsauxinformationsquivousconcernentetderectification.ContacterleserviceAbonnementsdelaSEE.

BULLETIN D’ABONNEMENT 2015 AretourneràlaSEE–17ruedel’AmiralHamelin–75783Pariscedex16– France–Fax:331 56903719–[email protected]

Abonnement en ligne : www.see.asso.fr/ree

Page 3: Aperçu du numéro 2015-4 de la REE (octobre 2015)

REE N°4/2015 Z 1

L a vague de défigurations de sites Web ayant suivi les événements de ce début d’année, puis l’attaque ciblée contre une chaîne de télévision, ont illustré très concrètement

la « menace cyber », convainquant, à n’en pas douter, nombre de personnes encore sceptiques de la réalité de cette nouvelle forme de menace. Au-delà des polémiques sur l’origine des attaques et sur les motivations des atta-quants, il faut retenir que la menace évolue rapidement, tant quantitativement que qualitativement. Plus personne n’est à l’abri.Le gouvernement engage des moyens conséquents pour protéger et défendre les systèmes d’informations vitaux pour la Nation. En décembre 2013, le vote de la loi de programmation militaire (LPM), a marqué un tournant important et la cybersécurité des systèmes d’information d’importance vitale (SIIV) figure désormais explicitement dans la réglementation nationale. La « menace cyber » figure parmi les trois premières menaces considérées comme majeures par l’État français : il s’agit d’une ques-tion de sécurité et de souveraineté nationale. La France est précurseur dans ce domaine : soyons en fiers.Mais ne nous trompons pas d’objectifs ! Si la loi prévoit des dispositions contraignantes, il ne s’agit pas d’impo-ser des règles immuables, lourdes et insoutenables sur le plan économique ou opérationnel, que l’État lui-même ne serait pas en mesure d’appliquer systématiquement à ses propres systèmes d’information.La menace évolue et rapidement : nous devons donc faire preuve d’agilité et de réactivité afin de nous adapter pour déployer de premières mesures réalistes. La première marche est souvent la plus dure à franchir ! La LPM doit contribuer à ce que tous, Opérateurs d’Importance Vitale (OIV) et grands groupes bien sûr, mais aussi PME/TPE, parties intégrantes de l’écosystème et constituant trop souvent des proies faciles, franchissent cette première marche dans les meilleures conditions.Avançons progressivement mais rapidement, étape par étape, marche après marche pour construire durablement la cybersécurité.L’omniprésence du numérique dans notre quotidien rend la tâche immense mais passionnante – il ne faut pas ou-blier, par exemple, les systèmes traitant des données à

caractère personnel, explosant avec l’apparition des objets connectés. A ce titre, le 18 juin dernier, le gouvernement présentait la stratégie nationale numérique dont l’objectif est de faire de la France une « République numérique ». L’élaboration de la stratégie nationale pour la sécurité du numérique qui en découle, coordonnée par l’ANSSI, sera présentée par le Premier ministre le 16 octobre.Le chantier de la cybersécurité, car il s’agit bien là d’un chantier, est colossal. Il s’agit d’un travail collectif qui exige du pragmatisme de la part de tous. Mais retenons que la cybersécurité est aussi une formidable opportunité de développement économique pour notre pays et nos entreprises. La France dispose de nombreux atouts dans ce domaine et d’un écosystème riche en solutions inno-vantes, même s’il reste encore trop fragmenté.La France accomplit sa transition numérique, opérant des transformations majeures dans nos métiers et nos usages, comme le furent à l’époque ceux liés à l’arrivée de l’éner-gie électrique.La cybersécurité est un facteur-clé de la réussite de cette transition numérique, tout comme elle est un facteur clé de réussite pour les réseaux électriques intelligents, mail-lon essentiel de la transition énergétique.

Guillaume Poupard est ancien élève de l’École polytechnique et ingénieur de l’armement. Il est titulaire d’une thèse de doctorat en cryptographie et est également diplômé de l’ensei-gnement supérieur en psychologie. Après avoir exercé diverses responsabilités au sein du ministère de la Défense, dans les domaines de cryptographie gouverne-mentale et de la cyberdéfense notamment, il a été nom-mé en mars 2014 directeur général de l’Agence nationale de sécurité des systèmes d’information (ANSSI).

N.D.L.R. : la cybersécurité est au cœur des préoccupations de la REE. Le lecteur pourra se reporter au numéro de juillet 2015 (REE 2015-3) pour trouver « le Livre blanc de la cybersécurité des réseaux électriques intelligents » à la rédaction duquel M. Stéphane Meynet de l’ANSSI a contribué. Nous remercions M. Guillaume Poupard d’honorer la revue de son éditorial.

Une période de transitions... de transformations !

EDITORIAL GUILLAUME POUPARD

Page 4: Aperçu du numéro 2015-4 de la REE (octobre 2015)

2 ZREE N°4/2015

sommaireNuméro 4 Āþÿă

1 EDITORIAL Une période de transitions… de transformations !

Par Guillaume Poupard

2 SOMMAIRE

4 FLASH INFOS Une avancée majeure en supraconductivité à haute température ?5 Vers des disques optiques de 30 To grâce à la technologie SPIN :

“Superresolution photoinduction-inhibited nanolithography”8 La plus puissante éolienne flottante bientôt en service au Japon9 L’éclipse du 20 mars 2015 : un succès de la coopération

entre gestionnaires de réseaux électriques10 On peut réduire de 30 % les émissions de méthane du bétail11 Le deuxième satellite « Sentinel » en orbite13 Actualités autour des fermions de Majorana

17 ACTUALITÉS L’année de la lumière en France

18 A RETENIR Congrès et manifestations

20 VIENT DE PARAÎTRE La REE vous recommande

23 ARTICLE INVITÉ Certificats d’économie d’énergie

Par Stéphane Signoret, Daniel Cappe

36 LE GRAND DOSSSIER TIC et énergie Introduction

Par Patrice Collet

39 Technologies numériques et environnement Par Cédric Gossart, René Garello

45 Comprendre les défis énergétiques des technologies de l’information & de la communication Par Philippe Richard

54 Les data centers Par Jean-Pierre Hauet

67 Économies d’énergie et réduction des émissions de CO2 Objectifs et plans d’action du Groupe Orange Par Jean-Claude Bourgoint, Ahmed Zeddam

p. 1

p. 36

p. 23

p. 75

p. 111

p. 135

Photo de couverture : © djahan - Fotolia.com

Page 5: Aperçu du numéro 2015-4 de la REE (octobre 2015)

REE N°4/2015 Z 3

75 DOSSIER URSI 2015 Sonder la matière par les ondes électromagnétiques Introduction : Les ondes électromagnétiques pour sonder la

matière - Des applications à large spectre au service de l’homme Par Cyril Lupi, Alain Priou

78 Mesure de la réfractivité atmosphérique par radar météorologique. Comparaison avec un réseau de capteurs au sol Par Ruben Hallali, Francis Dalaudier, Gilles Guillemin, Alain Moreau, Jacques Parent du Châtelet

87 Astronomie radar et radioastronomie à l’aide du radar transhori-zon Nostradamus - Un fleuron technologique français au service de la science Par Jean-François Degurse, Jean-Philippe Molinié, Véronique Rannou, Sylvie Marcos

99 Imagerie térahertz avec capteurs à ondes de plasma. Application au contrôle non destructif volumique Par Meriam Triki, T. Antonini, C. Archier, B. Moulin, F. Teppe, P. Solignac, N. Dyakonova, W. Knap

104 Capteurs à fibre optique pour la surveillance et l’observation du stockage de déchets radioactifs en couche géologique profonde Par Sylvie Delepine-Lesoille, Stéphanie Leparmentier, Jean-Louis Auguste, Georges Humbert

111 GROS PLAN SUR … Présent et futur de la guerre électronique passive

Par Jean-François Grandin, Jean-Marc Chabroux

125 RETOUR SUR ... Les travaux sous tension – 50 ans d’expérience en France

Par Fabrice Martin

135 ENTRETIEN AVEC... Jean-Marie Simon

Directeur Général d’Atos-France Cloud computing, Big Data, cybersécurité : la troisième révolution digitale vue par Atos

139 ENSEIGNEMENT & RECHERCHE La pédagogie dans l’enseignement supérieur : tendances et enjeux

Par Denis Lemaître, André Thépaut145 Echos de l’enseignement supérieur

Par Bernard Ayrault

147 CHRONIQUE L’idée de dieu n’est plus ce qu’elle était…

Par Bernard Ayrault

148 LIBRES PROPOS Fabriquer de l’estime

Par Michel Berry152 Évolution du secteur des Télécommunications : le cas européen

Par Jean-Philippe Vanot

155 SEE EN DIRECT La vie de l'association

5ÈME CONFÉRENCE EUROPÉENNE

SUR LES MATÉRIELS DE POSTES

HAUTE ET MOYENNE TENSION

24 & 25NOVEMBRE

LYONESPACE TÊTE D’OR

Organisée par :

www.matpost2015.org/

Page 6: Aperçu du numéro 2015-4 de la REE (octobre 2015)

4 ZREE N°4/2015

FLASHINFOS

Une avancée majeure en supracon-ductivité à haute température ?

Cela fait plusieurs décennies que les physiciens sont à la recherche de nouveaux matériaux supraconducteurs dont la température de transition (ou critique) Tc – définie comme la température en dessous de laquelle la résisti-vité chute brutalement vers zéro – serait la plus proche possible de la température ordinaire. En effet on imagine facilement les avancées considérables auxquelles de tels matériaux pourraient conduire : stockage de l’énergie sans perte, moteurs électriques « parfaits », puissants électro-aimants, etc. Or les progrès, certes remarquables, obtenus dans les années 1985-90 en utilisant la supra-conductivité dite « non conventionnelle » de certains cuprates exotiques (dont YBaCuO est le prototype), ont conduit pour l’instant à un Tc record de 164 K seulement. Cette valeur est encore trop éloignée de la température ordinaire pour permettre une utilisation pratique géné-ralisée de ces matériaux pour de telles applications. En outre ces matériaux font généralement appel dans leur composition à des terres rares dont on sait la rareté sur terre (d’où leur nom) et donc leur coût élevé.

Un évènement nouveau qui a provoqué récemment une certaine excitation au sein de la communauté des spé-cialistes des supraconducteurs, est la découverte par une équipe de physiciens de l’Institut Max Planck de chimie de Mayence1 du fait que la molécule, très courante, d’hydro-gène sulfuré H2S présente une supraconductivité record, mesurée à 190 K (soit -83 °C) lorsqu’elle est soumise à de très fortes pressions (2 millions d’atmosphères). Ces pres-sions sont appliquées à un échantillon de H2S de 10 µm de large comprimé entre deux enclumes. Ces auteurs ont en effet observé qu’aux alentours de 190 K, la résistance de l’échantillon chutait d’un facteur 1 000 environ (figure 1).

Dans leurs premiers travaux publiés en décembre 2014, Eremets et Al. n’avaient pas encore démontré la seconde condition nécessaire pour prouver l’existence d’un état supraconducteur, à savoir la mise en évidence d’un effet Meissner2. C’est chose faite depuis une toute récente pu-

1 Conventional superconductivity at 190 K at high pressures - Drozdov, A. P., Eremets, M. I. & Troyan, I. A. http://arxiv.org/abs/1412.0460 (2014).

2 L’effet Meissner fait référence au phénomène d’exclusion totale de toute induction magnétique de l’intérieur d’un supraconducteur quand il est porté à une température inférieure à sa température critique. L’effet Meissner est l’une des propriétés définissant la su-praconductivité et sa découverte a permis d’établir que l’apparition de la supraconductivité est une transition de phase.

blication des mêmes auteurs qui avec l’aide de l’université de Mayence ont pu procéder à des mesures magnétiques dans un magnétomètre ultra-sensible de type SQUID3. Le comportement en température indique en effet une brusque variation du signal magnétique de l’échantillon, caractéristique de l’effet Meissner, jusqu’à une tempéra-ture de 203 K. Ce comportement est illustré par la figure 2.

L’ensemble de ces résultats, d’abord mis en question par certains, semble avoir été reproduit et confirmé par d’autres groupes de recherche en Chine et au Japon, y compris la mise en évidence de l’effet Meissner4. Il reste toutefois que les experts du domaine ne sont pas encore tous totalement convaincus que ces expériences ne puissent être entachées d’artefacts d’origines diverses. En effet, sans mettre en doute la bonne foi et la compétence de l’équipe allemande, on sait que ces mesures sous ultra haute pression sont ex-trêmement délicates et il convient donc de rester prudent à ce stade quant à la réalité physique du phénomène.

3 Conventional superconductivity at 203 K at high pressures – Drozdov A.P., Eremets M.I., Troyan I.A., Ksenofontov V., Shylin S.I. http://arxiv.org/abs/1506.08190 (2015) ou http://www.nature.com/nature/ journal/vaop/ncurrent/full/nature14964.htm

4 Cf. communications à la conférence Superstripes 2015, Ischia, juin 2015.

Figure 1 : Variation en température de la résistance d’un échantillon d’hydrogène sulfuré sous différentes pressions. On note une forte variation de Tc avec la pression. La partie basse du graphe, dont

l’échelle d’ordonnées a été dilatée, montre que la résistance s’annule bien pour toutes les pressions utilisées.

Page 7: Aperçu du numéro 2015-4 de la REE (octobre 2015)

REE N°4/2015 Z 5

FLASHINFOS

En attendant que cette avancée soit confirmée, Ere-mets et ses collègues ont déjà proposé une interprétation pour expliquer la température critique observée dans ce matériau, bien supérieure à celle qu’on pouvait attendre. Ils l’attribuent à une modification interne de la structure du matériau donnant lieu à la création de molécules contenant un plus grand nombre d’atomes d’hydrogène. Ils imputent le Tc anormalement élevé aux phonons, c’est-à-dire aux vibrations du réseau cristallin de H2S créées du fait de la très forte pression appliquée. Ces vibrations favoriseraient la création de paires d’électrons circulant sans résistance à l’intérieur du réseau comme le décrit la théorie BCS qui s’applique aux supraconducteurs conven-tionnels, lesquels présentaient jusqu’à présent de très bas Tc. La supraconductivité ici serait essentiellement impu-table à l’hydrogène ce qui permet d’anticiper la possibilité, selon le groupe de Mayence, que d’autres composés de l’hydrogène puissent présenter une supraconductivité à des températures encore supérieures, voire proches de la température ordinaire, car la théorie BCS ne prévoit aucune limitation de la température de transition.

Toutefois cette hypothèse sur le mécanisme à l’ori-gine de la supraconductivité observée reste controversée par certains auteurs et l’explication définitive nécessitera

probablement une meilleure compréhension du phéno-mène au moyen de travaux expérimentaux et surtout théoriques complémentaires.

Dans le cas où la supraconductivité d’H2S sous très forte pression au voisinage de 200 K serait définitivement avérée, ceci constituerait une avancée considérable, voire une petite révolution aux dires des spécialistes du sujet, comparable à celle de la découverte des cuprates à haute Tc en 1986. Ce qui semble le plus intéressant dans cette découverte n’est pas tant la température atteinte même si on se rapproche désormais des températures les plus basses existant sur Terre, mais le fait qu’on puisse obte-nir avec des éléments aussi courants et abondants que le soufre et l’hydrogène, une telle supraconductivité dite conventionnelle, c’est à dire basée sur les interactions des électrons avec les atomes constituant le réseau cristallin.

Si ces résultats ouvrent un champ passionnant pour les théoriciens, il est clair qu’ils n’auront pas d’applica-tions immédiates sur le plan technologique. Mais c’est peut-être un premier pas vers l’utilisation de nouveaux matériaux supraconducteurs dont on peut rêver qu’ils fonctionnent un jour prochain à la température ordinaire. Si ces matériaux se prêtaient de surcroit à une exploita-tion technologique simple (fabrication aisée de fils supra-conducteurs à résistance quasi nulle), ceci constituerait à l’évidence une « révolution » considérable pour l’industrie électrique des prochaines décennies.

AB

Vers des disques optiques de 30 To grâce à la technologie SPIN : “Superresolution photoinduction- inhibited nanolithography“

Le développement des techniques de traitement des données massives impose de disposer de moyens de stockage de très grande capacité capables d’absorber à grande vitesse les flux de données générées par le “Big Data”. La technologie actuelle repose sur des arrange-ments de disques durs magnétiques, d’une capacité uni-taire de l’ordre du téraoctet (To) et dotés d’une vitesse d’accès typiquement de 100 Mbit/s. L’assemblage de ces disques permet de réaliser des stockages compatibles avec la problématique du pétaoctet (Po) de capacité avec un débit d’accès de l’ordre du Tbit/s.

Cependant, en raison de la consommation d’énergie qu’elle implique, cette solution n’est pas soutenable face à l’explosion du Big Data. Avec 91 TWh consommés, les “data centers” auraient été dès 2013 à l’origine de plus de

Figure 2 : Mesures de magnétisation d’un échantillon d’hydrogène sulfuré soumis à une pression de 155 GPa à différentes

températures. On distingue bien, pour T<< Tc, un comportement d’hystérésis caractéristique de l’effet Meissner, preuve du caractère

supraconducteur de l’échantillon.

Page 8: Aperçu du numéro 2015-4 de la REE (octobre 2015)

6 ZREE N°4/2015

FLASHINFOS

2 % de la consommation d’électricité aux Etats-Unis5 et cette évolution semble devoir se poursuivre.

Le stockage optique des données est évidemment une solution vers laquelle on se tourne naturellement. Cependant, la capacité des moyens actuels de stockage, qui opèrent en microscopie optique à partir d’un seul faisceau laser, est limitée par la diffraction de la lumière et se situe bien en dessous du To par disque6. En outre, le mécanisme d’écriture séquentiel, bit par bit, limite la capacité de transfert à quelques dizaines de Mbit/s.

Une équipe de chercheurs de l’université de technolo-gie de Swinburne en Australie et de l’université de science et technologie de Wuhan en Chien, a publié en juin 2015 un article décrivant une technique de stockage optique permettant de s’affranchir de ces limites et susceptible de permettre la réalisation de stockages de très haute capaci-té (30 To) avec des vitesses d’accès allant jusqu’au Gbit/s7.

5 America’s Data Centers Consuming and Wasting Growing Amounts of Energy – Natural Resources Defense Council – http://www.nrdc.org/energy/data-center-ef ficiency-assessment.asp ( juin 2015).

6 Le disque Blu-ray offre dans sa version la plus performante, une capacité de 128 GB. Des disques optiques de 300 GB sont annon-cés pour la fin 2015.

7 Multifocal optical nanoscopy for big data recording at 30 TB capa-city and gigabits/second data rate – Xiangping Li, Yaoyu Cao, Nian Tian, Ling Fu et Min Gu – Vol. 2, No. 6 / June 2015 / Optica.

Cette technologie repose sur la combinaison de la technique dite SPIN : (Superresolution Photoinduction- Inhibited Nanolithography) avec une technique de conver-gence multifocale. La figure 1 en illustre le principe.

La technologie SPIN utilise non pas un mais deux fais-ceaux lasers qui vont avoir au moment de la gravure des effets antinomiques. L’un de ces lasers, un laser à impul-sions femtosecondes fonctionnant à 800 nm, est chargé de déclencher la polymérisation d’un composant mono-mère de la famille SR 444 en agissant sur un photoinitia-teur qui est de l’isopropylthioxanthone. C’est la fonction « induction ». Le deuxième laser, opérant à 532 nm, a pour fonction d’inhiber la polymérisation par un mécanisme d’états triples. C’est la fonction « inhibition ».

Ces deux lasers sont dotés de modulateurs spatiaux de lumière (SLM) qui remplacent le miroir arrière des cavités laser. Ces SLM permettent de moduler très fine-ment en phase chacun des faisceaux et d’obtenir une section transverse de configuration donnée. Dans le cas de la technique SPIN, l’une des figures de faisceau sera de type gaussien, cependant que l’autre aura la forme d’un beignet (doughnut). Les deux spots laser vont venir se superposer et, même si chacun d’eux est limité par la diffraction, leur superposition permet de réaliser un spot en super-résolution qui, après nettoyage du substrat, donne naissance à un bit optique polymérisé d’environ

Figure 1 : Schéma de principe de la méthode de gravure par nanoscopie optique proposée par Xiangping Li & Al. – Source : Optica (juin 2015).

jphauet
Rectangle
Page 9: Aperçu du numéro 2015-4 de la REE (octobre 2015)

REE N°4/2015 Z 23

'IVXMÁGEXWH qGSRSQMIWH qRIVKMI9RHMWTSWMXMJHIPSRKXIVQIIJÁGEGI

TSYVPETSPMXMUYIqRIVKqXMUYIHIPE*VERGI

L'ARTICLE INVITÉ

The French scheme of energy efficiency obligations has started in 2006. The targets are usually set for a three-year period and are expressed in kWh cumac, lifetime cumulated-discounted final energy savings. The targets were 54 TWh cumac for the first period and 345 TWh cumac for the second period. The current target is 700 TWh cumac for 2015-2017. 90 % of this target count for the objective of the Energy Efficiency Directive (article 7).A key output of the scheme is the catalogue of about 300 standardized operations defined since 2004 within working groups supervised by ATEE in partnership with ADEME. The obligated parties are the energy suppliers of electricity, natural gas, oil, heat (district heating) in the residential and service sectors and in transports. They can achieve their targets by directly gain-ing energy savings certificates (CEE) or by buying CEE on the market (trading scheme). The priority policy objective is the refurbishment of the building stock. The rules of the scheme also favors the development of energy services through special bonuses. Special accounting rules are also applied to specific programs selected by the Ministry of Ecology, Sustainable Devel-opment and Energy based on given policy objectives (e.g., alleviating fuel poverty).

ABSTRACT

STÉPHANE SIGNORET1, DANIEL CAPPE2

Rédacteur en chef d’ENERGIE PLUS1, Vice-président de l’ATEE2

U ne isolation des combles de votre maison pour un euro symbolique, un bon de réduction dans votre magasin Leclerc proportionnel à vos tra-vaux de rénovation énergétique, une remise

commerciale sur l’achat de votre prochaine chaudière perfor-mante… Tous ces outils de promotion de l’efficacité énergé-tique viennent d’un seul et unique dispositif : celui des certi-ficats d’économies d’énergie (CEE). Relativement peu connus du grand public, les CEE sont pourtant au cœur des activités des professionnels du secteur de l’énergie depuis 2005. En effet, par tranches de trois ans, les pouvoirs publics utilisent ce dispositif réglementaire pour obliger les fournisseurs d’énergie à faire réaliser des actions d’économies d’énergie chez leurs clients ou plus largement générer des actions d’efficacité éner-gétique chez tous les utilisateurs finaux.

A ce jour, le dispositif des CEE est l’un des principaux moyens de l’État français pour remplir l’objectif européen de baisse de la consommation d’énergie, tel que défini par la directive Efficacité énergétique de 2012. Il est de fait inté-gré dans la loi de transition énergétique pour la croissance verte qui a été votée cet été 2015 et qui fait de la maîtrise de la demande d’énergie un pilier de la politique nationale. En impliquant tous les fournisseurs d’énergie, en visant le marché diffus des particuliers comme celui des entreprises et des collectivités, les certificats d’économies d’énergie sont innovants et mettent la France à la pointe de ce genre de mécanisme dans le monde.

Principes et histoire du dispositif des CEEUn élément de politique nationaleUne réflexion démarrée en 2003

Au début des années 2000, la France sort d’une longue période où l’énergie n’a pas été chère. Les prix des énergies fossiles, depuis le contre-choc pétrolier du milieu des années 1980, sont restés relativement bas et stables. Les prix de l’électricité, portés par un parc nucléaire jeune, majoritaire dans la production, sont également bas et stables. En 2003, la ministre de l’énergie de l’époque, Nicole Fontaine, lance néanmoins un débat sur la politique énergétique que le pays devrait conduire. Sans remettre en cause l’option nucléaire, les discussions ouvrent un espace pour le développement de la production d’électricité et de chaleur à partir de sources renouvelables. La maîtrise de la demande d’énergie (MDE) est aussi mise en avant, entre autres à travers un nouvel outil réglementaire que l’ATEE (Association Technique Énergie Environnement, voir le chapitre suivant), notamment, avait proposé dans son Livre blanc : les certificats d’économies d’énergie (CEE). Inspirés d’une démarche déjà lancée au Royaume-Uni quelques années auparavant, ce dispositif repose sur le principe d’une obligation faite aux fournisseurs d’énergie de promouvoir les économies d’énergie et inciter à la réalisation de travaux. À l’issue du débat de 2003, le travail parlementaire aboutit à la loi de programmation des orienta-tions de la politique énergétique (dite loi POPE) du 13 juillet 2005. Le dispositif des CEE y est introduit pour une période

Page 10: Aperçu du numéro 2015-4 de la REE (octobre 2015)

24 ZREE N°4/2015

L'ARTICLE INVITÉ

de trois ans renouvelable trois fois et devient ainsi un des piliers de la politique de MDE de la France.

Conformité avec le droit européenBien entendu, les CEE ne sont pas seuls à inciter aux tra-

vaux d’économies d’énergie. Les pouvoirs publics s’appuient aussi depuis longtemps sur le crédit d’impôt, relayé par des campagnes d’informations de l’ADEME, ou encore sur les sou-tiens aux entreprises pour réaliser des audits énergétiques. Sans compter des réglementations tant nationales, comme la réglementation thermique des bâtiments, qu’européennes comme l’interdiction des lampes les plus énergivores. Toutes ces mesures visent à améliorer l’efficacité énergétique, c’est-à-dire obtenir le même service avec une consommation moindre d’énergie que la situation précédente. Au niveau européen, un objectif d’amélioration de 20 % de l’efficacité énergétique d’ici 2020 est pris par le Conseil européen en 2007, avec ceux de réduire de 20 % les émissions de gaz à effet de serre et de porter la part des sources d’énergies renouvelables à 20 %. Confortés en 2010, ces objectifs se sont traduits par des directives. Ainsi, la directive Efficacité énergétique n°2012/27/EU du 25 octobre 2012 fixe tout un ensemble de mesures que les États membres doivent prendre, dont une spécifiquement dans son article 7 sur les systèmes d’obligation d’efficacité énergétique. Chaque pays avait jusqu’à juin 2014 pour transposer cette directive et la France a fait le choix d’utiliser majoritairement son dispositif des CEE pour répondre aux demandes de l’article 7, son ob-jectif principal étant de réaliser chaque année jusqu’en 2020 des économies d’énergie équivalentes à 1,5 % des volumes d’énergie vendus sur 2010-2012. Selon la DGEC1, cela équi-

1 DGEC : Direction générale de l’énergie et du climat.

vaut à économiser 30,57 Mtep d’énergie finale en France sur 2014-2020, soit 355 TWh.

Une montée en puissance progressive qui a porté ses fruits

Première période de rodageLa première période des CEE a donc été lancée après

l’adoption de la loi POPE. Elle a démarré le 1e juillet 2006 et s’est terminé le 30 juin 2009. Afin de permettre aux acteurs du dispositif de se roder à cette nouvelle contrainte, l’obliga-tion d’économies d’énergie a été fixée seulement à 54 TWh cumac (voir l’encadré 1 pour la définition) pour ces trois ans. Elle a été répartie entre les fournisseurs d’énergie (électricité, gaz, froid, chaleur, fioul) qu’on appelle alors les obligés. Par principe, un CEE vaut un kWh cumac et en fin de période, les obligés doivent justifier de l’accomplissement de leurs obli-gations par la détention d’un nombre de CEE équivalents à ces obligations. Pour obtenir des certificats, les fournisseurs d’énergie ne sont pas restreints à leur clientèle : ils ont le choix des actions qu’ils souhaitent mettre en œuvre, dans tous les secteurs d’activité (bâtiment résidentiel, bâtiment tertiaire, industrie, agriculture, transports, réseaux) et auprès des différents types de clients (ménages, entreprises, collec-tivités publiques, etc.) même si ce ne sont pas les leurs. Sont exclues du dispositif les installations soumises à quota de CO2 ou les opérations bénéficiant déjà de certaines subven-tions (Fonds Chaleur par exemple).

La montée en puissance du dispositif a été très lente en début de première période, le temps que les fournisseurs d’énergie adaptent leurs stratégies marketing, notamment pour que les deux grands obligés d’alors, EDF et GDF-Suez, mobilisent leurs réseaux respectifs de partenaires

Encadré 1 : Qu’est-ce qu’un kWh cumac ?

Qu’est-ce qu’un kWh cumac ?Le kWh cumac (kilowattheure cumulé actualisé) est l’unité de compte des CEE. Par principe, il permet d’exprimer

la quantité d’énergie économisée sur la durée de vie théorique de l’opération considérée (cumulé), en prenant en compte une actualisation annuelle des économies futures (actualisé).

On a ainsi :CEE (kWh cumac) = gain annuel (kWh) x durée de vie (an) x coefficient d’actualisationLe coefficient d’actualisation (Ca) est calculé par la formule suivante, où “a” est le taux d’actualisation fixé officiel-

lement à 4 % et “n” la durée de vie de l’investissement en nombre d’années :

Par exemple, une action permettant d’économiser un million de kWh par an pendant 10 ans se verra attribuer 8,43 millions de kWh cumac.

Dans les fiches d’opérations standardisées, les forfaits de CEE sont directement indiqués en kWh cumac et varient selon les paramètres dimensionnant de l’action (type d’énergie utilisée, secteur d’activité, surface chauffée, puissance installée, coefficient de performance de l’équipement, etc.) et la zone climatique.

jphauet
Rectangle
Page 11: Aperçu du numéro 2015-4 de la REE (octobre 2015)

36 ZREE N°4/2015

Les techniques de l’informa-tion et de la communication (TIC) sont en train de modifier profondément le fonctionne-ment de nos sociétés et de leur économie : le courrier élec-tronique supplante le courrier postal, la presse est de plus en plus consultée via Internet, le commerce électronique a pris une place importante dans les achats des particu-liers comme des entreprises... Elles ont très largement pénétré la sphère du grand public : en 2014, 81 % des ménages dis-posaient en France d’un accès à Internet fixe ou mobile qu’ils utilisent 12 heures par semaine en moyenne. Les ménages sont abondamment dotés de terminaux de plus en plus sophistiqués : 89 % des français de plus de 12 ans disposent d’un télé-phone mobile et pour 46 % de ces mêmes français ce mobile est un smartphone, 61 % ont un ordinateur portable et 29 % une tablette. Enfin, 78 % des français dé-clarent se connecter chaque jour à Internet1.

Les conséquences de cette évolution sur l’environnement sont multiples, favorables et défavorables. Dans nombre de secteurs elles sont favorables au plan environne-mental en réduisant les gaz à effet de serre ou en permettant de mesurer leurs effets sur la planète. On estime qu’elles per-mettraient de réduire de l’ordre de 15 % les émissions mondiales de gaz à effet de serre. Mais leur développement n’est pas sans conséquence sur l’environnement : les terminaux, smartphones, tablettes PC et portables dont le nombre croît et les durées de vie sont courtes, ont un impact fort sur l’environnement dans toutes les phases de leur cycle de vie – production,

1 Selon l’étude réalisée par le Credoc pour le CGE et l’ARCEP (9/12/2014).

fin de vie et également la phase d’usage – au moins pour certains d’entre eux.

Parallèlement à la multiplica-tion des utilisateurs, les volumes de données échangées par uti- lisateur croissent : en particu- lier, la télévision de plus en plus

regardée par Internet et le passage de la télévision diffusée à la télévision à la de-mande accroissent fortement les volumes de données à transporter. Pour faire face à la croissance des volumes de données, les capacités des réseaux et des data centers doivent être augmentées continûment : à technologie et architecture constantes, il en résulte une croissance de l’énergie dépensée.

Les terminaux se multiplient et se di-versifient : les ordinateurs de bureau for-tement consommateurs d’énergie perdent du terrain en faveur des ordinateurs por-tables, des tablettes et aussi des smart-phones. La diversification des terminaux rend la croissance de leur consommation d’énergie moins rapide que celle de leur nombre mais ces consommations rest-ent importantes : selon EPRI2 et Green IT, chaque année, en moyenne, un smart-phone consomme de l’ordre de 2 à 7 kWh, une tablette environ 12 kWh, un ordinateur portable 20 à 75 kWh et un ordinateur de bureau de 150 à 200 kWh. Pour les équi-pements connectés via les réseaux fixes, il faut ajouter la consommation moyenne annuelle en veille de la box ADSL qui, selon les versions, varie de 70 à 100 kWh sans compter celle d’un éventuel décodeur pour les services de télévision : en effet, avec la généralisation de la téléphonie sur IP, la

2 Electric Power Research Institute.

LES GRANDS DOSSIERS Introduction

TIC et énergie

Patrice Collet Membre émérite

de la SEE

Page 12: Aperçu du numéro 2015-4 de la REE (octobre 2015)

Introduction LES GRANDS DOSSIERS

box ADSL doit être maintenue sous tension 24 h sur 24.

Si aucune action n’est entreprise, la croissance de la consommation d’énergie des TIC va se poursuivre : ces dernières années elle aurait atteint 10 % par an. Les gains énergétiques potentiels des TIC ne seraient-ils pas déjà sérieusement mis en cause par ce phénomène ? Les parties prenantes du domaine, opérateurs, équi-pementiers, fournisseurs d’équipements et prestations informatiques ont, depuis plusieurs années, engagé des travaux pour maîtriser la consommation des TIC. Le premier élément de la démarche consiste à identifier les consommations énergé-tiques des différents éléments qui consti-tuent l’Internet : de nombreux travaux ont permis de mieux connaître celles-ci. Par exemple Green Code Lab3, avec le soutien de l’ADEME a déterminé que la surconsom-mation moyenne d’un PC lors de la consul-tation d’une page Web française était de 60 mWh. De même, l’ADEME4 signale que l’accès à un site par un moteur de recherche plutôt que par son URL multiplie par quatre l’émission de gaz à effet de serre. La réduction de la consommation implique une pratique plus économe de la part de l’utilisateur et l’utilisation d’équipements moins gourmands en énergie, l’optimisa-tion de l’usage des réseaux et systèmes en revoyant leur architecture et également en faisant appel, quand les circonstances le permettent, à des énergies renouvelables de la part des opérateurs.

Le présent dossier vise à faire le point sur la situation actuelle des TICs en termes

3 Résultats accessibles sur http://webenergyarchive.com/en/

4 https://www.ademe.fr/sites/default/f i l e s / a s se t s /documen t s /gu ide - pratique-internet-courriels-reduire-impacts.pdf

de consommation d’énergie et sur les perspectives d’évolution de celles-ci.

Dépassant les seuls aspects énergétiques, Cédric Gossart et René Garello dans le pre-mier article présentent les impacts positifs et négatifs sur l’environnement du déve-loppement des technologies numériques et attirent l’attention sur les « effets rebond » qui limitent souvent les effets de mesures qui a priori diminuent l’impact sur l’environ-nement. Au-delà des mesures techniques ou technologiques, ils plaident en faveur d’un accompagnement des utilisateurs vers la transition écologique.

Philippe Richard présente une ana-lyse de la consommation d’énergie par les différents composants de l’Internet et les résultats des travaux menés par le consor-tium GreenTouch lancé par Alcatel-Lucent qui a rendu ses conclusions en juin 2015. Il en résulte qu’en 2020 la consommation d’énergie des réseaux pourrait, grâce à l’évolution technologique et des améliora-tions de conception, être significativement inférieure à celle de 2010 malgré une forte augmentation du trafic à transporter sur la période. Évidemment, la mise en œuvre de ces améliorations impose des inves-tissements importants et notamment le renouvellement d’équipements existants probablement avant qu’ils soient amortis.

Les data centers sont les plus gros consomma-teurs d’énergie des enti-tés de l’Internet, y compris les terminaux. Jean-Pierre Hauet, dans le troisième article, montre les efforts déjà accomplis dans le monde pour réduire l’éner-gie consommée par les équipements auxiliaires des centres de calcul, notam-ment les systèmes de refroi-dissement. La virtualisation, en banalisant les différents serveurs, permet également

Patrice Collet est ancien élève de l’École polytechnique et ingé-nieur des télécommunications. Sa carrière l’a conduit de la recherche et développement au CNET qui était alors le centre de recherches de la Direction Géné-rale des Télécommunications à la Direction Générale de France Télécom où il a eu la responsabi-lité de l’architecture du réseau fixe et son évolution. Il est membre émérite de la SEE et membre du comité de rédaction de la REE.

REE N°4/2015 Z 37

Page 13: Aperçu du numéro 2015-4 de la REE (octobre 2015)

38 ZREE N°4/2015

Technologies numériques et environnementPar Cédric Gossart, René Garello ......................................................................................................... p. 39Comprendre les défis énergétiques des technologies de l’information et de la communicationPar Philippe Richard .......................................................................................................................................p. 45Les data centersPar Jean-Pierre Hauet ....................................................................................................................................p. 54Économies d’énergie et réduction des émissions de CO2 Objectifs et plans d’action du Groupe OrangePar Jean-Claude Bourgoint, Ahmed Zeddam ....................................................................................... p. 67

LES ARTICLES

LES GRANDS DOSSIERS Introduction

de les utiliser plus efficacement et donc de réduire aussi la consommation d’énergie. Reste à améliorer l’efficacité énergétique du stockage des données et de leur traite-ment proprement dit, ce qui demeure une perspective de long terme.

Enfin l’article de Jean-Claude Bourgoint et Ahmed Zeddam, présente les actions que développe le groupe Orange pour maîtriser sa consommation d’énergie dans ses réseaux et son système d’information. Les actions menées sont nombreuses et doivent être adaptées aux différents pays où le groupe opère. En particulier, lorsque l’environnement climatique le permet, le recours à l’énergie solaire est largement

entamé pour alimenter les stations radio-mobiles. La normalisation, vise à établir des méthodes d’évaluation de l’empreinte éner-gétique des réseaux, et permettra d’obtenir du marché des équipements plus sobres en énergie. L’objectif est de tendre vers une situation théorique où les équipements de réseau et du SI ne consommeraient de l’énergie que lorsqu’ils ont des données à transporter ou à traiter.

La durée de vie des équipements de réseau étant, en général, longue, les meilleures performances énergétiques d’équipements de nouvelle génération de-manderont certainement des années pour se faire sentir au niveau de la consomma-tion globale des réseaux. Q

Page 14: Aperçu du numéro 2015-4 de la REE (octobre 2015)

REE N°4/2015 Z39

TIC ET ÉNERGIE DOSSIER 1

Technologies numériques et environnementPar Cédric Gossart1, René Garello2

Maître de conférences, docteur en sciences de gestion, Télécom École de Management1 Professeur, docteur en sciences du signal, Télécom Bretagne2

This paper discusses the relationship between digital technologies and environment. The aim is to better unders-tand to which extent these technologies can help us to reduce our negative ecological impacts, what are their own ecological impacts and how they can be overcome. To do so, we suggest a taxonomy of the relationship between

digital technologies and environment, give examples about how these technologies can help to preserve this environment, and discuss the limits of green digital technologies to save the planet.

ABSTRACT

IntroductionAfin de mieux comprendre sous

quelles conditions les technologies numériques pourraient contribuer à améliorer la qualité de vie des habitants de notre planète, cet article examine les liens (positifs et négatifs) entre ces technologies et l’environnement. Il four-nit des exemples concrets d’applications des technologies numériques contri-

buant à réduire les impacts écologiques négatifs des sociétés humaines, mais aborde aussi la question des limites à ces contributions.

Quels liens entre technologies numériques et environnement ?

Les technologies numériques com-prennent à la fois des matériels (hard-

ware) et des logiciels et bases de données (software)1. Nous explorons dans cet article les liens entre ces tech-nologies et l’environnement, c’est-à-

1 Voir la définition des TIC (technologies de l’information et de la communication) propo-sée par l’OCDE sur http://www.oecd.org/sti/ieconomy/2771153.pdf. Dans cet article, à la place de « TIC » nous avons préféré le terme de « technologies numériques ».

Figure 1 : Représentation des liens entre environnement et technologies numériques.

Page 15: Aperçu du numéro 2015-4 de la REE (octobre 2015)

40 ZREE N°4/2015

TIC ET ÉNERGIEDOSSIER 1

dire les écosystèmes naturels au sein desquels évolue l’espèce humaine. Deux questions principales nous préoc-cupent : les technologies numériques peuvent-elles contribuer à réduire nos impacts écologiques négatifs ? Quels sont les impacts propres à ces techno-logies et comment peut-on les limiter ?

Les interventions des sociétés hu-maines sur leur environnement se produisent à travers cinq milieux ou envi-ronnements différents : l’environnement spatial, l’environnement terrestre, l’envi-ronnement atmosphérique, l’environne-ment côtier et l’environnement marin. Sur la base de ces définitions, nous pro-posons ci-dessous une taxonomie des relations entre technologies numériques et environnement qui permet de mieux répondre aux deux questions posées.

Les relations entre technologies nu-mériques et environnement sont sur-tout connues par les données que les premières permettent de collecter sur le second, par les résultats des exercices de modélisation informatique et par les multiples canaux de diffusion d’informa-tions sur notre environnement offerts par le numérique. Toutefois, comme nous le verrons plus loin, ces technolo-gies ont aussi une face cachée qui nuit aux écosystèmes naturels.

La taxonomie que nous proposons ici s’inspire de celle proposée par le Système mondial des systèmes d’obser-vation de la Terre (GEOSS : Global Earth Observation System of Systems)2. Elle propose une représentation des liens entre environnement et technologies numériques, synthétisée dans la figure 1.

Le premier niveau de la figure 1 dé-cline les différents milieux écologiques de notre planète, avec lesquels les humains sont susceptibles d’interagir, notamment par l’intermédiaire des tech-nologies numériques. Au deuxième

2 Voir http://www.earthobservations.org/geoss.php

niveau, on trouve les technologies numériques qui permettent d’observer cet environnement mais qui ne sont pas inertes à son égard. Le troisième niveau, est celui des parties prenantes susceptibles d’être impliquées par les retombées positives ou négatives des technologies numériques.

Dans la figure 1, la composante n° 3 montre les secteurs dans lesquels opèrent les parties prenantes utilisant les techno-logies numériques pour l’environnement. Ces acteurs, aussi appelés « utilisa-teurs finaux » ou “end users” en anglais, peuvent par exemple utiliser les données produites à l’aide de ces technologies pour diminuer les risques d’inondation ou pour réduire les consommations énergétiques des utilisateurs.

En fin de compte, les technologies numériques peuvent être mises « au ser-vice de l’environnement » de plusieurs manières3. Elles peuvent tout d’abord être utilisées pour mieux connaître cet environnement (monitoring), notam-ment à travers les activités suivantes :

plates-formes… ;

par réseaux…) ;

géophysiques et écologiques décrits par des modèles ;

-tion de paramètres pertinents, con-struction de modèles, simulations…

Les résultats de ces analyses pour-ront ensuite contribuer à sensibiliser les parties prenantes aux enjeux écolo-giques, qu’elles soient ministres, patrons d’entreprises ou simples citoyens. Elles vont permettre de mieux protéger les écosystèmes naturels, de prévenir diffé-rents types de risques ou de concevoir de nouveaux produits et services. La production de données environnemen-

3 https://www.earthobservations.org/documents/ministerial/geneva/MS3_GEO%20Report_on_Progress_2011_2013.pdf

tales est telle que l’on parle désormais de « données environnementales mas-sives ». Les technologies numériques peuvent aussi fournir des moyens de diffusion de ces informations afin de toucher le plus grand public possible pour in fine influencer les modes de production et de consommation. Elles peuvent également permettre de ré-duire les impacts écologiques d’autres secteurs que le leur (secteur énergé-tique, transport…).

Mais les technologies numériques n’étant pas neutres pour l’environne-ment, elles doivent réduire leurs propres impacts écologiques (consommation de ressources épuisables, émissions de gaz à effet de serre, consommation d’éner-gie, utilisation de produits toxiques…). Cela passe par une stratégie d’écoinno-vation, visant par exemple à réduire les consommations énergétiques des équi-pements matériels et logiciels, ainsi que la quantité de déchets électroniques. Cette stratégie commence par une ana-lyse des impacts, à savoir dans le meil-leur des cas par une analyse du cycle de vie (ACV). Cette méthode très coûteuse permet d’évaluer une large palette d’im-pacts négatifs pour chacune des phases du cycle de vie d’un produit ou service (conception, production, distribution, uti-lisation, fin de vie).

Les impacts écologiques des technologies numériques

On parle peu de cette face cachée de « l’immatériel », mais les technologies numériques génèrent quantité d’im-pacts écologiques négatifs à chaque phase de leur cycle de vie. Ceci est valable pour les produits numériques comme les composants et les cartes électroniques, les ordinateurs, télé-phones et réseaux associés, les produits électroniques grand public, écrans, ou li-seuses, et pour les services numériques comme la programmation informatique ou le traitement de données [1].

jphauet
Rectangle
Page 16: Aperçu du numéro 2015-4 de la REE (octobre 2015)

Introduction URSI 2015

L’homme a pu éveiller sa curiosité scientifique par l’observation de phéno-mènes physiques rencontrés dans la nature tels que la décomposition de la lumière du soleil par une averse : c’est le phénomène de l’arc en ciel. Pline l’Ancien avait observé cette décomposi-tion à travers un prisme il y a maintenant deux mille ans. C’étaient les balbutiements scientifiques des études de l’interaction ondes/matière. L’analyse du comportement des ondes électromagnétiques (interférences, diffraction), la mise en équation des phénomènes par Maxwell et l’ensemble des tra-vaux de la communauté scientifique ont permis par la suite d’exploiter ces ondes et d’en faire des outils incontournables de notre société.

L’utilisation la plus courante et qui vient rapi-dement à l’esprit concerne les télécommunica-tions. Mais les ondes électromagnétiques sont couramment mises en œuvre pour analyser les inhomogénéités, les discontinuités... de la matière traversée ; c’est notamment le cas des applications radar. Dans certains cas, l’émission-absorption de certaines ondes électromagnétiques par la ma-tière peut aussi être utilisée pour mieux connaître sa composition, ce principe est couramment uti-lisé en radioastronomie ou en spectroscopie...

Les applications de types radar sont générale-ment réalisées dans la partie « basse fréquence » du spectre couvert par les ondes électromagné-tiques, ce qui a tout d’abord permis de développer des moyens de détection et localisation ayant des résolutions nécessaires et suffisantes pour locali-ser et identifier divers objets (avions, nuages...).

Dans notre société, le radar est ainsi souvent perçu comme l’outil privilégié du monde militaire, voire de l’aviation civile, mais ses ap-plications météorologiques sont bien souvent ignorées du grand public.

Cependant les radars météorologiques peuvent mesurer les changements

de l’indice de réfraction de l’air dans les basses couches de l’atmosphère. Il est possible, par mé-thode inverse, de réaliser une mesure de la réfrac-tivité atmosphérique. Pour ce faire, les échos de cibles fixes (pylônes électriques, tours, châteaux d’eau…) sont utilisés, l’analyse des sauts de phase de l’onde associés aux réflexions sur ces cibles permet de remonter aux fluctuations des pro-priétés de réfraction du milieu dans lequel elle se propage. Plusieurs campagnes de mesures dans la bande S du réseau de Météo-France en ont dé-montré la faisabilité. Plus récemment, une analyse de données provenant d’une année de mesures sur un radar en bande C de Trappes, a permis d’établir la possibilité de mesurer les variabilités de la réfractivité liées à la turbulence atmosphérique des basses couches. L’article « Mesure de la réfrac-tivité atmosphérique par radar météorologique : comparaison avec un réseau de capteurs au sol » relate ces travaux et met en évidence la perti-nence de l’emploi du radar pour analyser l’effet des turbulences sur la réfractivité atmosphérique. Son auteur principal, Ruben Hallali est doctorant au Laboratoire de l’atmosphère des milieux et de l’observation spatiale.

Certains radars, sont quant à eux conçus de manière à pouvoir sonder l’ionosphère. Mais ils

REE N°4/2015 Z 75

Les ondes électromagnétiques pour sonder la matière

Des applications à large spectre au service de l’homme

Cyril Lupi Maître

de conférences Université de Nantes

Alain PriouProfesseur émérite

de l’université Paris Ouest

Nanterre La Défense

Page 17: Aperçu du numéro 2015-4 de la REE (octobre 2015)

URSI 2015

sont parfois également utilisés pour mener des recherches en océanologie et en sismologie. Ils peuvent être exploités de manière active pour faire de l’astronomie radar, voire de manière pas-sive pour faire ce que l’on nomme plus communé-ment de la radioastronomie. L’article « Astronomie radar et radioastronomie à l’aide du radar trans-horizon Nostradamus » présente le radar Nostra-damus, son exploitation en astronomie radar, ainsi que des observations passives du Soleil et de Jupi-ter en bande HF. L’auteur principal de cet article, Jean-François Degurse, est docteur de l’université Paris 11 Paris-Sud.

Il est bien évident que, compte tenu du large domaine de longueur d’onde couvert par les ondes électromagnétiques, il est impossible de couvrir l’ensemble du spectre des applications. Celles décrites précédemment concernaient la partie basse fréquence du spectre. En se transposant à plus haute fréquence, la longueur d’onde devient de l’ordre de grandeur des dimensions de certains objets dont on veut pouvoir contrôler la qualité. Le contrôle non destructif est aujourd’hui l’un des domaines technologiques en pleine expansion face aux besoins de l’industrie aéronautique et tend à se vulgariser dans l’industrie automobile.

Parmi les technologies de contrôle non des-tructif, on peut distinguer deux grandes catégo-ries : les techniques surfaciques et les techniques volumiques. Pour cette dernière, les technologies les plus répandues dans les domaines électromagnétique et acoustique sont les rayons X, les ultrasons et l’infra-rouge. Les ondes électroma-gnétiques térahertz ont des fréquences et des longueurs d’onde comprises respective-ment entre 0,1 THz et 30 THz et 0,01 mm et 3 mm. La bande térahertz représente ainsi la frontière entre deux domaines physiques : l’électronique pour les microondes d’un côté et l’optique pour l’infrarouge de l’autre. Une telle frontière

résulte de la nature des systèmes de détection de l’onde employés dans chaque cas : les plus basses fréquences sont détectables en champ alors que les plus hautes fréquences sont quant à elles détectables en intensité. Ces ondes ont été longtemps cantonnées aux secteurs de l’observa-tion astronomique et de la physique de la matière condensée. Mais au fur et à mesure du temps cer-tains paliers technologiques ont été franchis pour les deux composants de base que constituent les sources et capteurs. Ainsi la montée en perfor-mances des détecteurs et émetteurs térahertz per-met de réaliser aujourd’hui de l’imagerie térahertz ailleurs que dans un laboratoire. Meriam Triki, auteur de l’article « Imagerie térahertz avec cap-teurs à ondes de plasma – Application au contrôle non destructif volumique », docteur et chef de pro-jet chez T-Waves à Montpellier, présente les avan-cées technologiques de ces composants utiles à la mise en œuvre de l’imagerie térahertz, ainsi qu’un certain nombre d’applications dans un contexte industriel.

Dès que l’on passe les limites de détection en champ et que l’on aborde le domaine de l’optique, il est clair qu’outre les exploitations en laboratoire, les applications les plus courantes se trouvent dans le domaine de l’imagerie médicale. Mais la forte demande en composants optoélectroniques pour les besoins de montée en débit des télécom-munications par fibre optique ont permis d’envi-sager de nouvelles applications de ces outils. Les

capteurs à fibre optique et les systèmes de mesures associés sont aujourd’hui des outils pertinents pour la surveillance des structures et pour assu-rer ainsi le contrôle de leur « santé ». Leur insensibilité aux perturbations électromagné-tiques et à la corrosion font d’eux, par exemple, des outils pertinents pour le « monito-ring » des structures offshore des énergies marines renou-velables. Ils sont également de très bons outils pour le suivi des structures de génie

Introduction

76 ZREE N°4/2015

Cyril Lupi est maître de conférences de l’université de Nantes depuis 2003 et vice-président de la commission A de l’URSI France.Alain Priou est professeur émérite de l’université Paris Ouest Nanterre La Défense depuis 2012. Il est Fellow Senior Member IEEE-MTT/APS et Fellow Member de l’Electromagnetic Academy. Il est membre du bureau du Pôle aéronau-tique Astech Paris Région et président de la commission B de l’URSI France. Conférencier invité et professeur invité du NUAA et d’autres universités de Chine, Malaisie et d’Amérique.

Page 18: Aperçu du numéro 2015-4 de la REE (octobre 2015)

Introduction URSI 2015

civil. Quand ces dernières sont en environnement irradié, comme c’est le cas pour les lieux de stoc-kage des déchets radioactifs, il devient difficile d’employer des composants de télécommunica-tions standards car ceux-ci ne sont pas « durcis » et se dégradent rapidement. Il est alors nécessaire d’employer des stratégies adaptées et c’est l’objet du quatrième article intitulé « Capteurs à fibre op-tique pour la surveillance et l’observation du stoc-kage de déchets radioactifs en couche géologique profonde ». L’auteur principal de cet article est Sylvie Delepine-Lesoille, docteur Telecom Pa-risTech. Elle occupe les fonctions d’ingénieur recherche et développement en instrumentation

à l’Agence nationale pour la gestion des déchets radioactifs (Andra).

Nous espérons que ces quatre articles donne-ront un aperçu de l’actualité et des applications industrielles qui concernent l’exploitation des ondes électromagnétique pour sonder la matière. Ce dossier a été préparé à partir d’une sélection de communications présentées lors des Journées scientifiques d’URSI-France qui se sont tenues à Paris les 24 et 25 mars 2015 et qui ont eu pour thème « Sonder la matière par les ondes électro-magnétiques ». Le lecteur est invité à se rendre sur le site Web de la manifestation pour plus d’infor-mations (http://ursi-france.mines-telecom.fr). Q

Mesure de la réfractivité atmosphérique par radar météorologique Comparaison avec un réseau de capteurs au solPar Ruben Hallali, Francis Dalaudier, Gilles Guillemin, Alain Moreau, Jacques Parent du Châtelet .............................................................................................................. p. 78Astronomie radar et radioastronomie à l’aide du radar transhorizon NostradamusUn fleuron technologique français au service de la sciencePar Jean-François Degurse, Jean-Philippe Molinié, Véronique Rannou, Sylvie Marcos .......................... p. 87Imagerie térahertz avec capteurs à ondes de plasma Application au contrôle non destructif volumique Par Meriam Triki, T. Antonini, C. Archier, B. Moulin, F. Teppe, P. Solignac, N. Dyakonova, W. Knap ............................................................................................................................. p. 99Capteurs à fibre optique pour la surveillance et l’observation du stockage de déchets radioactifs en couche géologique profondePar Sylvie Delepine-Lesoille, Stéphanie Leparmentier, Jean-Louis Auguste, Georges Humbert ...................................................................................................................... p. 104

LES ARTICLES

REE N°4/2015 Z 77

Page 19: Aperçu du numéro 2015-4 de la REE (octobre 2015)

SONDER LA MATIÈRE PAR LES ONDES ÉLECTROMAGNÉTIQUESURSI 2015

78 ZREE N°4/2015

Introduction La vapeur d’eau joue un rôle important dans de nombreux

processus atmosphériques, et une meilleure connaissance de la structure spatiale et de la variabilité du champ d’humi-dité dans les basses couches est essentielle pour améliorer la compréhension de phénomènes tels que la turbulence, la convection ou l’évaporation. A l’interface entre les surfaces et l’atmosphère, la vapeur d’eau intervient dans les échanges de chaleur et de quantité de mouvement, qui doivent être mieux pris en compte dans le cadre des études sur le changement climatique.

Les modèles à méso-échelle ne représentent pas encore parfaitement les structures dynamiques et les proces-sus microphysiques intervenant en début de convection, ce qui entraîne un manque de précision dans les prévisions. Là encore, une des conditions d’amélioration réside dans une meilleure connaissance du champ d’humidité de basse couche. Les études de sensibilité montrent qu’une erreur de 2 % sur la mesure d’humidité relative peut être cruciale dans la prévision d’évènements convectifs par les modèles numériques. De plus, les quantités de précipitations prévues numériquement pourraient être considérablement amélio-rées par l’assimilation d’un champ d’humidité de haute résolu-tion. Comme le réseau de stations sol ne peut pas fournir de

telles résolutions, la mesure de réfractivité atmosphérique par radar semble être une bonne voie pour approcher, et à terme atteindre cet objectif.

Les radars météorologiques, conçus pour localiser et suivre les zones précipitantes, peuvent être utilisés pour des mesures de réfractivité atmosphérique. Pour cela, il est nécessaire d’analyser le changement de la phase du signal radar rétro-diffusé par des cibles fixes pour de faibles élévations du fais-ceau entre deux observations successives. La mesure a été implémentée sur les radars de Météo-France et les résultats ont été fructueux durant la campagne HyMeX avec les radars en bande S. Plusieurs produits ont été développés pour cette bande de fréquence, comme par exemple une cartographie des variations de réfractivité avec une échelle horizontale de 5 km et temporelle de 15 min. L’évolution temporelle des phé-nomènes météorologiques peut ainsi être suivie et des études sur l’assimilation de la réfractivité dans les modèles de prévi-sion numérique du temps sont en cours pour évaluer l’impact de la mesure sur la prévision du déclenchement de la convec-tion (Besson et al., 2013).

Malgré ces résultats positifs, certains problèmes connexes subsistent, en particulier pour la bande C (5 GHz) couramment utilisée dans le réseau européen, et ces problèmes doivent être surmontés avant une exploitation opérationnelle. On note

Mesure de la réfractivité atmosphérique par radar météorologique

Comparaison avec un réseau de capteurs au solPar Ruben Hallali1,3, Francis Dalaudier1, Gilles Guillemin2, Alain Moreau2, Jacques Parent du Châtelet3

Université Versailles St-Quentin, Sorbonne Universités, UPMC Université Paris 06 CNRS-INSU LATMOS-IPSL1

Météo-France2, Météo-France, UMR 3589, CNRS-CNRM-GAME, Centre National de Recherches Météorologiques3

Weather radar could measure change in the refractive index of air in the boundary layers of the atmos-phere. This technic uses the signal phase from ground targets located around radar. This measure pro-

vides information on atmospheric refractivity which depends on meteorological parameters such as temperature, pressure and humidity. During the HyMeX campaign, refractivity measurements were implemented with success on several S-band radars of ARAMIS French network. In order to better characterize origins of errors, recent work has led to temporal variations simulations of refractivity based on Automatic Weather Station (AWS) measurements. These simulations have shown a stronger variability of the signal during the summer and the afternoon, when refractivity is most sensitive to humidity. One may argue that this is caused by turbulence in the lower layers of the atmosphere. This has raised the question about whether or not observed variability of refractivity can lead to information on turbu-lent state of the atmosphere. In order to sample temporal and spatial phase variability, an analysis based on 1-year dataset from C-band ARAMIS radars and AWS measurements is presented. It has highlighted the possibility of setting quantitative and qualitative link between radar refractivity variability and AWS refractivity variability.

ABSTRACT

Page 20: Aperçu du numéro 2015-4 de la REE (octobre 2015)

REE N°4/2015 Z 79

Mesure de la réfractivité atmosphérique par radar météorologique

principalement le bruit associé au champ de phase mesuré par le radar ; les effets de différence d’altitude entre cibles radars utilisées (terrain non plat) ; les changements du gradient verti-cal de réfractivité ; et les incertitudes sur la position exacte de la cible. Comme proposé par Fabry (2004), un lissage spatial et temporel du champ de phase est efficace pour limiter l’im-pact de ces problèmes. Cela suggère que l’erreur est principa-lement due à des variations stochastiques de petite échelle autour d’une valeur moyenne stable. Depuis lors, des procé-dures de calcul de moyennes ont été utilisées dans presque tous les produits opérationnels et expérimentaux de la réfracti-vité : mesures radar à McGill, IHOP (International H2O Project), REFRACTT (Refractivity Experiment for H2O Research and Collaborative Operational Technology Transfer) et campagne HyMeX (Hydrological cycle in Mediterranean eXperiment).

Lors d’un récent travail portant sur les sources d’erreurs liées à la mesure, une simulation à partir de données de sta-tions in situ a permis d’établir que la variabilité de la réfracti-vité durant l’été et l’après-midi est nettement plus importante que durant la nuit, et plus encore que durant l’hiver. Sur cette base nous avons voulu approfondir la relation entre les fluctua-tions atmosphériques mesurées in situ par les stations auto-matiques et la variabilité de la réfractivité mesurée par radar. L’objectif est d’établir si la mesure par radar de la variabilité de la réfractivité peut donner une information sur le caractère tur-bulent de l’atmosphère.

Dans cet article, nous comparons deux jeux de données issus des réseaux d’observation opérationnels. Le premier ensemble est constitué d’un an de mesures (2013) par le radar en bande C de Trappes (Ile-de-France) et le second de mesures faites par 13 stations sol dans le voisinage du radar. On indique en particulier comment choisir les cibles perti-nentes pour ce type d’observation par radar : une première sélection globale est effectuée à l’aide d’un indice statistique, suivie d’une sélection plus fine d’un petit nombre de cibles de référence. Nous définissons ensuite un indicateur de varia-bilité : l’écart-type glissant sur 2 h du taux de variation de la réfractivité (ETOR). De tels indicateurs sont calculés pour le radar et pour l’in situ, et comparés qualitativement et quantita-tivement. Cette comparaison est faite dans un premier temps pour une sélection de cibles radar de référence, puis géné-ralisée en utilisant une sélection de cibles plus large, et pour les saisons estivale et hivernale. Pour expliquer la dépendance avec la distance clairement observée, on utilise l’hypothèse d’une turbulence figée propagée par le flux. La partie 3 pré-sente le modèle utilisé et les résultats obtenus pour différentes cibles de référence : l’été, les résultats sont très probants et la mesure de vent peut conduire à une estimation de la variabi-lité sur différentes distances, jusqu’à environ 5 km. Quelques

limitations sont observées l’hiver, liées au bruit de quantifica-tion sur les données in situ. Enfin, les conclusions et perspec-tives sont exprimées dans la dernière partie.

Les données et les outilsMesures de réfractivité……avec les stations automatiques :

La réfractivité N est définie comme N = 106 x (n – 1) où n est l’indice de réfraction de l’air. Pour relier N aux mesu-rables atmosphériques, la relation1 empirique est couramment utilisée pour les applications radar :

(1)

où P est la pression atmosphérique [hPa], T la température [K] et e la pression partielle de vapeur d’eau [hPa].

Nous avons utilisé les données de treize stations auto-matiques situées aux alentours du radar de Trappes. Toutes mesurent la température, l’humidité relative, les quantités de précipitations à 2 m ainsi que la force et la direction du vent à 10 m. Seules cinq d’entre elles mesurent la pression atmos-phérique et pour les autres, on utilise la pression mesurée à Trappes (altitude 167 m). Les données présentées sont toutes issues de la station de Trappes ; des résultats similaires, non présentés ici, ont été obtenus avec les autres stations.

… avec les radars météorologiques :L’utilisation des changements de la phase du signal rétrodif-

fusé par les cibles fixes présentes dans le voisinage des radars permet de mesurer une réfractivité Nm(r, az, t), moyennée entre le radar et la cible, à une date t pour un pixel radar à une distance r et à un azimut az :

(2)

Dans la suite de l’étude, nous utiliserons le taux de variation de réfractivité entre mesures successives séparées par 6t noté :

(3)

Ce taux de variation est destiné à rendre compte de la varia-bilité de la réfractivité, particulièrement pour les fréquences élevées (quelques minutes). La même méthode de traitement sera appliquée aux données in situ.

1 Pour le travail présenté, l’équation peut-être simplifiée (1). Pour une plage de température de - 50 °C à 40 °C l’erreur est inférieure à 0,02 % sur la mesure de réfractivité.

jphauet
Rectangle
Page 21: Aperçu du numéro 2015-4 de la REE (octobre 2015)

REE N°4/2015 Z111

GROS PLAN SUR

Typologie de la guerre électronique

L a guerre électronique (GE) ou Electronic Warfare (EW) est un vaste domaine re-groupant les radars (RADAR :

RAdio Detection And Ranging), le renseignement d’origine électroma-gnétique (ROEM), les contre-me-sures électroniques (CME) passives et actives, les contre-contre-mesures électroniques.

Pour réaliser la localisation d’une cible en pistage actif, on utilise un radar qui diffuse une onde électromagnétique vers la cible. Cette onde est rétrodiffu-sée par la cible puis captée par l’antenne radar sur le trajet retour. En analysant les caractéristiques de cette onde reçue, on obtient des informations sur la position et la vitesse de la cible. Le traitement est essentiellement une corrélation spatio-fréquentielle entre l’onde émise et l’onde reçue après réflexion. La difficulté provient de la perte très importante d’énergie liée à la distance radar-cible. Au premier ordre le radar émet et donc disperse son énergie dans un cône, qui à une distance d intercepte une surface qui augmente comme le carré de la distance. Cette énergie est rétrodiffusée par la cible qui disperse également son énergie sur une surface qui augmente également comme le carré de la distance. Au total, pour une cible à la distance d du radar, cette perte est donc en d à la puissance 4.

En pistage passif, il n’y a pas d’émission d’onde par le sys-tème d’écoute. Celui-ci reçoit et analyse l’onde provenant du

radar pour déterminer sa position et ses caractéristiques. La difficulté est de ne pas connaître précisément la forme de l’onde émise par le radar. Cette forme d’onde (FO) est carac-térisée par des paramètres décrits plus loin. Par contre la perte d’éner-gie est beaucoup plus faible car elle ne dépend que du trajet aller. Pour une cible à la distance d du radar, cette perte est en d au carré.

Le Rafale, l’avion de combat multi-missions le plus avancé de sa géné-

ration, regroupe les différents systèmes de guerre électronique tant actifs que passifs. La description sous cet angle du Rafale est au cœur de la référence [1]. Notre propos sera limité aux CME passives anti-radar.

Les CME passives interceptent, analysent, localisent ou pistent, et identifient les émissions des radars de surface et aéroportés. Elles sont confrontées à des environnements électromagnétiques de plus en plus denses et complexes en raison de l’évolution des missions, des radars et de l’utilisa-tion toujours plus grande du spectre radioélectrique, avec, en particulier, une présence croissante de signaux perturbateurs comme les signaux de télécommunication. Un ouvrage fon-dateur est la référence [2].

La détection passive des ondes électromagnétiques émises par des plates-formes ou installations militaires et civiles (stations ou véhicules terrestres, bateaux, avions, drones, satellites…) est une source importante d’information pour la surveillance du champ de bataille et les activités qui s’y rattachent : localisation,

Présent et futur de la guerre électronique passive

Jean-François Grandin Ingénieur expert

Traitement guerre électronique

Direction technique THALES Systèmes

Aéroportés

Jean-Marc Chabroux Directeur technique

THALES Systèmes Aéroportés

Electronic self-protection on fighter aircrafts is required for detection, emission measurement, characterisation, identification, location, alert and jamming. Electronic intelligence is complementary required. Due to high measu-

rement accuracies, full analysis and very precise location, it offers information for efficient self-protection preparation. Principles of main functions like deinterleaving, location and identification are described.Concerning defense area, emergence of multiplatform techniques achieves huge performance rise. Positioning sensors on dis-tant platforms increases instrumental resolutions, segregation capacities, location and identification accuracies. The potential benefit is about 2 or 3 orders of magnitude. But hard points have to be treated: efficient communications, space-time tight synchronization. Moreover, sensitivity improvement is required which implies detection of numerous signals of interest or not. These signals have to be segregated in real time with high fidelity.

ABSTRACT

Page 22: Aperçu du numéro 2015-4 de la REE (octobre 2015)

112 ZREE N°4/2015

GROS PLAN SUR

identification et état d’engagement des plates-formes, interpré-tation et évaluation de la menace, riposte adaptée et réduction des capacités adverses (destruction ou brouillage).Dans la taxonomie des systèmes d’écoute passive on distingue :

-gés de la détection des menaces environnantes et qui infor-ment un pilote de l’activité des systèmes d’armes ennemis ;

de remonter en temps réel une situation tactique ;

produire une analyse fine et une interprétation des signaux radars interceptés ;

réalisent des fonctions identiques dans le domaine des liaisons (phonique, données...), des moyens de navigation

œuvre par une plate-forme pour accroître sa survie ;

forme pour empêcher les radars ennemis de traiter d’autres plates-formes.

Ainsi la plupart des plates-formes militaires sont équipées au minimum d’un système de détection permettant d’alerter en cas de présence d’émissions menaçantes participant ainsi à l’auto-protection de la plate-forme.

D’un intérêt majeur pour l’auto-protection, la détection passive des émissions contribue plus généralement à l’éva-luation de la situation militaire. D’autres fonctions tout aussi importantes apparaissent comme : la gestion/planification des interceptions, la remontée de l’ordre de bataille élec-tronique (Electronic Order of Battle), l’interprétation de la situation, l’évaluation de la menace, voire l’anticipation sur la situation future et les intentions de l’ennemi.

Les bénéfices tirés par la tenue de situation des informa-

liés à la qualité du recueil et des traitements permettant d’élaborer des interprétations des données élémentaires à la fois précises, au sens ou la localisation à 100 m près est meilleure qu’une localisation à 1 km près, fiables c’est-à-dire sans fausses informations, en temps réel, c’est-à-dire suffi-samment rapidement pour que la connaissance apportée permette de réagir. Les traitements d’information mis en œuvre peuvent exploiter, outre les mesures, de nombreuses sources d’information comme des librairies techniques dé-crivant les caractéristiques des émissions par paramètres et séquences de fonctionnement, une bibliothèque des plates-formes connues avec description de la configuration radar, un fichier tactique mis à jour régulièrement et parfois en temps réel, décrivant les positions connues des émetteurs fixes voire mobiles, et les capacités adverses.

Par exemple, les caractéristiques d’une émission inter-ceptée peuvent être utilisées pour interroger la bibliothèque technique qui délivre une liste d’émetteurs candidats ca-pables de produire le type de signal intercepté. Cette liste de candidats permet alors d’interroger la base des plates-formes pour déterminer quelles plates-formes sont porteuses de ces émetteurs. Les plates-formes candidates peuvent alors être comparées à la situation tactique courante pour déterminer quelle plate-forme de l’environnement est susceptible d’avoir émis ce signal. Le rôle de cette plate-forme, par exemple surveillance lointaine, patrouille maritime, attaque au sol… et sa position permettent d’interpréter l’état d’engagement.

Principes généraux de traitementIntroduction

Les algorithmes de classification, localisation, pistage et identification utilisés par les moyens de reconnaissance élec-tronique (MRE) ont pour objectifs, à partir des interceptions effectuées par un ou plusieurs récepteurs de contre-mesures :

menace pour orienter les moyens de contre-mesures ap-propriés. Ces fonctions doivent être conduites avec une probabilité de fausse alarme (PFA) très faible et une pro-babilité de détection (PD), au sens détection et prise en compte de la menace, très élevée ;

très élevée, suffisamment précise pour permettre une ges-tion tactique de la mission, par exemple contrôler un évi-tement, et suffisamment certaine, soit une PFA très faible ;

-sément que possible la menace connue, d’extraire, de loca-liser de caractériser et d’identifier la fonction, de la menace inconnue.

Nous n’aborderons pas ici les aspects concernant la conception des récepteurs. Les récepteurs présents et futurs sont de plus en plus numériques. Le signal est échantillonné le plus proche possible de l’antenne de réception et le trai-tement des échantillons est réalisé numériquement. La réfé-rence [3] est l’ouvrage de base concernant les différentes méthodes utilisées dans les récepteurs digitaux.

L’interception

Comme sa sensibilité est limitée, seuls les lobes principaux et éventuellement secondaires sont observés. Les figures 1 et 2 schématisent l’interception d’une unique émission radar

-porté. La figure 2 nous indique que le lobe est constitué de

jphauet
Rectangle
Page 23: Aperçu du numéro 2015-4 de la REE (octobre 2015)

REE N°4/2015 Z 125

RETOUR SUR ❱❱❱❱❱❱❱❱❱

Fabrice Martin RTE-SERECT Directeur adjoint et rapporteur du Comité des Travaux Sous Tension

Cet article retrace les 50 ans d’histoire des « Travaux Sous tension » (TST) en France, les orga-nisations mises en place, les différentes méthodes imaginées et les gains apportés pour la qualité de l’ali-mentation des clients.

L’équilibre entre la production et la consommation, la fourniture d’une énergie fiable et de qualité, ainsi que l’alimentation des clients sur l’ensemble du ter-ritoire sont de la responsabilité des gestionnaires de réseau qui ont la charge d’amener l’énergie électrique

depuis les producteurs jusqu’aux consommateurs. L’architecture des réseaux se décompose ainsi : les réseaux de transport et les réseaux de distribution.

Les réseaux de transport acheminent l’énergie produite par les centrales électriques vers les clients industriels de forte puissance et vers les postes sources (qui alimentent les réseaux de distribution). Les réseaux de transport sont en Haute Tension HTB (400 kV, 225 kV, 90 kV et 63 kV).

Les réseaux de distribution acheminent l’énergie depuis les postes sources vers les clients domes-tiques et industriels. Les réseaux de distribution sont en Haute Tension HTA (20 kV) et Basse Tension (BT 400 V). Ces réseaux partent d’un poste source et des-servent de façon arborescente les clients.

Les travaux sous tension 50 ans d’expérience en France

Figure 1 : Chemins de l’électricité.

In the late 50s, a significant portion of outages was in France due to network maintenance. In order to improve the quality of supply to its customers, EDF decided to explore the live working methods already used in other countries such as the USA, Sweden and Russia. In the early 70s, an organization was in place for the implementation of these methods:

Unlike other methods that require the application of a standardized process, which would have been difficult to adapt to all

and define the procedures accordingly. With this new approach, France has been able to develop new live working practices in many areas: work in HV substations, cleaning of insulators, work from helicopters etc.

ABSTRACT

Page 24: Aperçu du numéro 2015-4 de la REE (octobre 2015)

126 ZREE N°4/2015

❱❱❱❱❱❱❱❱❱❱❱❱❱❱ RETOUR SUR

Les TST dans le monde De nombreux pays utilisent la technique des TST. Il existe plusieurs conférences internationales qui réunissent

périodiquement les acteurs des TST dans le monde : ICOLIM en Europe, CITTES en Amérique du Sud ou ESMO aux Etats-Unis. C’est l’occasion d’échanger sur les techniques d’intervention, les matériels utilisés et les chantiers réalisés.

La France accueille à Strasbourg en avril 2017, la prochaine conférence européenne des Travaux Sous Tension : ICOLIM (www.icolim2017.org). Cette conférence réunit notamment les pays européens qui pratiquent les TST : Alle-magne, Croatie, Espagne, Italie, France, Hongrie, Pologne, Portugal, Roumanie et République tchèque.

Cette conférence est organisée par ERDF, Electricité de Strasbourg et RTE en collaboration avec la SEE sous la direc-tion de la "Live Working Association" (LWA) qui regroupe ces pays.

La RussieEn Russie, les premiers Travaux Sous Tension ont été réalisés au cours de la deuxième guerre mondiale, dans le

but de maintenir en activité les usines, en assurant les travaux de maintenance nécessaires sur les lignes d’alimen-tation de ces usines.

Grâce à un règlement très strict, élaboré par le ministère des centrales électriques en concertation avec les syn-dicats, les Travaux Sous Tension ont eu un essor important à la fin des années 1950 (la moitié environ des travaux d’entretien est exécutée sous tension).

Afin de mettre au point des modes opératoires applicables à des ouvrages très hétérogènes, la solution retenue consiste à porter un opérateur isolé du sol au potentiel du conducteur, ce qui lui permet de travailler directement sur les parties sous tension avec des outils standards. Les opérations de maintenance sont ainsi considérablement facilitées par rapport aux techniques d’intervention à distance, moins ergonomiques.

Les Etats-UnisLes premiers Travaux Sous Tension débutent dès les années 1910. À partir de 1918, la société TIP Tool, basée

dans l’Illinois, propose une gamme d’outils permettant l’intervention à distance sur des réseaux électriques Basse Tension. En 1937, la société AB Chance rachète la compagnie Tip Tool, et continue le développement des perches isolantes en bois pour les hautes tensions : 110 kV en 1938, 287 kV en 1948.

A partir des années 1950, AB Chance propose de nouvelles perches isolantes constituées de tubes de résine creux renforcés de fibres de verre époxy unicellulaires et remplies de mousse de polyuréthane Cette nouvelle tech-nologie permet de travailler sur des réseaux très haute tension : 345 kV en 1955, 765 kV en 1964 (au Canada). Cette évolution sera décisive et marquera une étape importante dans le développement et la fiabilisation des matériels TST.

Figure 2 : Opération TST aux USA dans les années 50.

Encadré 1 : Les TST dans le monde.

jphauet
Rectangle
Page 25: Aperçu du numéro 2015-4 de la REE (octobre 2015)

REE N°4/2015 Z 135

Directeur général d’Atos-FranceENTRETIEN AVEC JEAN-MARIE SIMON

REE : Votre groupe est l’un des leaders mondiaux des services numériques. Pouvez-vous nous en rappeler les chiffres-clés ?Jean-Marie Simon : Après l’acquisi-tion de Bull en 2014 ainsi que celle de Xerox ITO aux Etats-Unis, le groupe Atos est devenu l’un des cinq leaders mon-diaux, et le premier en Europe, dans la fourniture de services numériques, avec un chiffre d’affaires annuel proforma de près de 11 milliards d’euros et 93 000 collaborateurs dans 72 pays. En France, Atos compte 18 000 collaborateurs et réalise quelque deux milliards d’euros de chiffre d’affaires.

Sous l’impulsion de Thierry Breton, le groupe a connu une croissance très rapide au cours des six dernières années, notre chiffre d’affaires passant de 5,6 milliards d’euros aux 11 milliards d’aujourd’hui, avec des effectifs totaux qui ont crû de 45 000 à 93 000.

REE : Comment s’est passée cette croissance ?J.-M. S. : C’est une longue histoire qui a débuté dans les années 1960 : SLIGOS et AXIME, deux SSII françaises, ont déci-dé en 1996 de faire cause commune, ce qui, par contraction, a donné naissance au nom Atos. Vous noterez que l’objectif du rapprochement était déjà à l’époque d’aborder, avec de meilleurs atouts, le marché international.

Entre 2000 et 2004, Atos a poursuivi sa croissance par l’acquisition d’Origin, la filiale informatique de Philips, devenant

Atos Origin, puis de KPMG Consulting et celle de SEMA Group, qui faisait partie depuis 2001 du groupe Schlumberger.

En 2011, Atos Origin a conclu un accord avec Siemens pour acquérir sa division Siemens IT Solutions & Services. Avec plus de 32 000 salariés, SIS a ap-porté à l’ensemble ainsi créé un chiffre d’affaires de 3,7 milliards d’euros, dont 75 % en dehors du réseau Siemens. Atos Origin est devenu Atos, le « S » de notre logo marquant le lien avec Siemens AG qui détient 12,5 % du capital d’Atos SE.

REE : Quelles sont aujourd’hui vos lignes d’activités ?J.-M. S. : Elles sont au nombre de cinq :

conseil et intégration de systèmes, avec Atos Consulting, son pôle conseil, Atos accompagne ses clients dans leur transformation digitale : de la défini-tion de la stratégie jusqu’à la mise en œuvre des solutions et la fourniture de systèmes complexes parfaitement intégrés ;l’infogérance, qui est historiquement un métier prépondérant et qui évolue fortement avec les technologies de “cloud computing” ; Atos vient d’être classé par ISG parmi les 10 premiers fournisseurs de services d’infogérance (Amérique & EMEA) ;

concernent le cycle de vie des données au cœur de la transformation digitale des entre-prises et plus généralement de la so-ciété. Atos apporte la capacité à traiter à moindre coût et en temps réel des informations contextuelles massives ; grâce aux technologies Bull, Atos crée des plates-formes de calcul de haute performance, des solutions de sécurité, et des services pour aider ses clients à protéger leurs informations ;le « Cloud », qui autorise un accès à des ressources mutualisées optimisées pour répondre aux besoins des entreprises et des gouvernements en matière de sou-plesse, de convivialité et d’innovation ; les services numériques transac-tionnels, via Worldline qui offrent une capacité de traitement industrielle permettant de traiter des milliards de transactions électroniques à travers le monde sur ses principaux centres de données hautement sécurisés.

dans le domaine de l’informatique. Pouvez-vous donner un sens concret à tous ces termes ? Transformation digitale, intégration de systèmes, etc.J.-M. S. : L’explosion du volume de don-nées disponibles et le développement des technologies numériques Social-Mobile-Analytics-Cloud-Sécurité sont au cœur de ce qu’Atos considère comme « la troisième révolution digitale » (la 1e

étant l’informatique et la 2e Internet). Nous sommes face à une transforma-

Atos : leader européen de la fourniture

de systèmes numériques

Cloud computing, Big Data, cybersécurité :

la troisième révolution digitale vue par Atos

Page 26: Aperçu du numéro 2015-4 de la REE (octobre 2015)

136 ZREE N°4/2015

tion en profondeur de l’économie qui implique de nouveaux modèles écono-miques et de nouveaux usages. Atos, historiquement présent sur le traitement des grands volumes de données (avec Wordline) et l’Internet des objets, a anti-cipé cette révolution en se renforçant grâce à sa stratégie d’acquisitions et de partenariats, sur ces éléments-clés de la transformation digitale : Big Data et sécu-rité avec Bull, social avec Bluekiwi, digital marketing avec Cambridge Technologies, et Cloud avec Canopy en partenariat avec EMC et VMware. Notre objectif est d’être le partenaire de référence. L’intégration de systèmes peut avoir diverses finalités. Ce peut être la gestion de procédés com-plexes, dans la conduite des centrales et des réseaux électriques par exemple. Mais ce peut être également l’optimi-sation de l’utilisation des ressources de l’entreprise, intégrant la conception des produits, la planification et l’organisation des productions et, plus près du ter-rain, la gestion des processus industriels (ordonnancement, suivi de production, maintenance, etc.). Nos clients sont sou-vent de grands acteurs de la vie indus-trielle, nous leur apportons des solutions « métiers » reposant soit sur des logiciels que nous avons développés, soit sur les grands produits du commerce.

REE : Comment ont évolué vos services d’infogérance ?J.-M. S. : Traditionnellement, l’infogérance c’est la gestion pour compte de tiers des espaces de travail et des infrastructures de communication et de traitement. Cette activité s’accompagne d’une responsabilité de conseil qui est aujourd’hui essentielle compte tenu de la rapidité d’évolution des technologies et des composants, matériels et logiciels.

L’un des facteurs majeurs est la généralisation des “data centers” qui ont rendu possible, avec le développe-ment des réseaux et des moyens de traitement, le “cloud computing”. Nous sommes en mesure de spécifier, réaliser et administrer des data centers chez nos

clients – pour ceux qui souhaitent pour diverses raisons les détenir en propre – mais nous disposons également de nos propres data centers. C’est un secteur qui connaît aujourd’hui des taux de crois-sance extrêmement rapides, autour de + 50 % par an. En infogérance, Atos est pionnier grâce à une nouvelle gamme complète de data centers virtuels, s’ap-puyant sur une plate-forme logicielle, qui permettent d’améliorer la performance des systèmes de nos clients. Les data centers numériques révolutionnent la gestion d’infrastructures et complètent nos solutions Cloud. Atos gère des cen-taines de milliers de serveurs dans le monde grâce à ses data centers répartis sur différents continents tout en offrant un support local à ses clients. Enfin, Atos et Siemens ont conçu des solutions uniques de gestion de l’infrastructure des data centers (DCIM) permettant une plus grande efficacité énergétique.

Le développement de l’infogérance s’appuie sur ces “data centers” pour pro-mouvoir des services en “cloud”. Histori-quement, on a commencé par proposer, il y a 20 ans, des équipements en ser-veurs et le développement d’applications supportées par chacun de ces serveurs.

Puis est venu le temps des serveurs sup-portant plusieurs applications. Plus récem-ment, se sont développées les techniques de virtualisation permettant de banaliser les moyens de calcul et de stockage, mais toujours en environnement privé. Au-jourd’hui, l’approche par “cloud” permet d’offrir, dans le cadre d’une infrastructure privée ou publique, et dans ce dernier cas sur des espaces mutualisés ou non, des services de stockage ou de traitement des données, avec des applications stan-dardisées ou non. On peut aujourd’hui pratiquement tout faire en cloud, le seul élément limitatif reste le temps de latence, c’est-à-dire le délai séparant l’envoi d’une donnée et son arrivée dans le buffer du destinataire.

REE : Atos a participé activement

des réseaux électriques intelligents de la SEE. La sécurité est-elle pour vous une contrainte ou une opportunité ?J.-M. S. : La sécurité est d’abord un de-voir : nous nous devons de proposer à nos clients des solutions auxquelles ils puissent porter un niveau de confiance justifié et à la hauteur de leur attente. La sécurité se construit et se démontre : elle ne résulte pas de recettes miracles qui ne traiteraient qu’un aspect des choses. Si l’on renforce la protection dans une direction en négligeant une autre, on sait que c’est par ce canal qu’une menace pourra se développer.

L’atout d’Atos est de pouvoir offrir des solutions de sécurité au sens large, associant aussi bien des protections phy-siques, de contrôle d’accès et d’identifi-cation par exemple, que des protections logiques. Ces protections peuvent être périmétriques, par la surveillance et le

L’infogérance a été révolutionnée

par le développement des data centers

et des services cloud

On peut aujourd’hui pratiquement tout faire en cloud. Seul le temps

de latence reste un élément limitatif

jphauet
Rectangle
Page 27: Aperçu du numéro 2015-4 de la REE (octobre 2015)

REE N°4/2015 Z 139

ENSEIGNEMENT & RECHERCHE

Denis Lemaître Professeur à l’ENSTA Bretagne André Thépaut Directeur d’études à Télécom Bretagne

D epuis quelques décennies déjà, la pédagogie occupe une place grandissante dans l’enseignement supé-rieur, comme en attestent différents indices :

-

Questions de pédagogies dans l’enseignement supérieur

2015 pour sa huitième édition, après s’être tenu notamment en

Ce colloque international francophone réunit des ensei--

n’a cessé d’augmenter au fil des ans, pour atteindre 300 en juin

-sant le décloisonnement des disciplines, l’échange des pratiques

millier de communications produites depuis 2001, lors des huit

de l’enseignement supérieur et les tendances actuelles dans

-gnement supérieur et constitue un enjeu central pour répondre

-

en tant que telles, il est donc important de rappeler en quoi

Pourquoi se préoccupe-t-on de pédagogie dans l’enseignement supérieur ?

-

-ternationalisation et, de manière liée, par une mise en concur-

-

L’internationalisation du marché de l’enseignement supérieur

-

du Problem based learning

-

Mas-sive open online courses

La pédagogie dans l’enseignement supérieur : tendances et enjeux

The 8th QPES (Questions de pédagogie dans l’enseignement supérieur) symposium brought together 300 par-ticipants. QPES focuses on the increasingly significant role of educational methods in higher education systems.

In this article, we show that new educational methods are well adapted for their new objectives in higher education systems: increase in number of students, increase in digital technology, professionalization of educational courses, etc.In particular, we show that active learning is essential nowadays. But has the incredible development of digital technology in educational systems made it possible to reduce the failure rate?Teachers practising active learning have to take care not to be distracted by digital technologies and new evolutions in the educational domain. Indeed, one of the main challenges is to train students able to answer multidimensional problems, obviously technical, but also economical, societal, ethical, environmental, etc.

ABSTRACT

Page 28: Aperçu du numéro 2015-4 de la REE (octobre 2015)

140 ZREE N°4/2015

ENSEIGNEMENT & RECHERCHE

-

--

défendre leur image de marque sur le marché de l’enseigne-ment supérieur, toutes les institutions sont aujourd’hui amenées à montrer comment elles répondent à ces défis, par leurs poli-

La standardisation des curricula

-nales poussent à un alignement des curricula, principalement

supérieur à respecter des recommandations ou des critères

European Network for Accredi-tation of Engineering Education

Cette agence accrédite notamment les agences nationales comme la Commission des titres d’ingénieurs en France, pour

un document (Framework Standards and Guidelines -

Teaching and Learning Process -

the methodo-logy of teaching and learning

adopter des modes de pédagogie différenciés, centrés sur les The learning process should be sufficiently flexible

to accommodate different entry qualifications of students and different learning styles

learning outcomes, content, typologies of teaching activities

méthodes pédagogiques et sur les formes d’apprentissage des étudiants, dans le cadre d’une ingénierie pédagogique orien-

-

La professionnalisation des filières de formation

ces derniers à rechercher une meilleure adaptation de leurs for-

-

-

-

en mesure de garantir les compétences professionnelles recon-

--

-

massification de l’enseignement supérieur s’accompagne de la -

ment de formations supérieures professionnelles, centrées sur l’apprentissage de métiers plus que sur l’acquisition d’une culture

-

fortement les pratiques pédagogiques, dans la mesure où il incite les communautés enseignantes à délaisser les pédagogies les

du XXe siècle les cases studies --

e siècle pour

-

de l’entreprise ou dans l’atelier, au contact des ingénieurs et tech-

jphauet
Rectangle
Page 29: Aperçu du numéro 2015-4 de la REE (octobre 2015)

REE N°4/2015 Z 147

L’univers m’embarrasse, et je ne puis songer Que cette horloge existe et n’ait point d’horloger

Ala suite de Voltaire, beaucoup face à l’univers et au cosmos s’interrogent sur les mécanismes qui président à tant d’harmonie ! Les deux ou-

vrages qui inspirent aujourd’hui notre chronique relèvent de ce questionnement, mais dans des styles et à partir de positions fort diverses. D’un côté un astrophysicien, très connu pour ses brillants ouvrages de vulgarisation comme pour ses convictions bouddhiques, convie ses éminents amis à s’interroger avec lui sur leurs sentiments Face à l’univers. De l’autre c’est un théologien, historien et philosophe des sciences, qui remarque qu’après un 19e siècle scientiste, le nom de Dieu n’est plus tabou dans la bouche et sous la plume des scientifiques… Cette donnée indiscutable est, comme tant de révolutions de la physique du 20e siècle, dou-blement imputable au génie d’Einstein : d’une part la relativité générale est le cadre théorique reconnu du Big Bang qui pose de façon inédite la question de l’infini comme celle de l’origine du temps ; d’autre part par ses célèbres bouta-des, il ne manquait pas de citer celui que, mali-cieusement et orgueilleusement, il considérait comme son seul rival : Je veux connaître la pensée de Dieu ; le reste n’est que détail ou encore Dieu ne joue pas aux dés.

Voltaire encore nous interpelle, qui para-phrasant et complétant la Genèse affirmait que Si Dieu nous a fait à son image, nous le lui avons bien rendu. Mais le Dieu de l’art chrétien des siècles passés est bien éloigné de ce que les intellectuels contemporains, en particulier les scientifiques, imaginent. Il y a fort loin entre le vieillard chenu des siècles passés, dont nous admirons tant de splendides représentations, et le principe anthropique qui donne un sens à la façon dont notre univers, du moins celui qui nous est accessible, a évolué depuis 13,6 milliards d’années.

Jacques Arnould recense et analyse, dans leur contexte tant scientifique que religieux, les propositions que de grands scientifiques chrétiens ont formulées : une place toute par-ticulière est réservée à l’abbé Lemaître en lien avec son double référentiel, assumé avec brio, si ce n’est sans difficulté. L’un des théoriciens de l’atome primitif devait en quelque sorte concilier

Einstein et Pie XII, siéger à l’Académie ponti- ficale et contribuer au rayonnement intellec-tuel de l’université de Louvain… c’est peu dire que l’abbé fut chagriné qu’on contestât l’évolu-tion un siècle après Darwin (et à l’époque de Teilhard de Chardin !) et qu’on donnât l’im-pression que le Big Bang avait quelque chose à voir avec le Fiat Lux de la Genèse ! Les divers chapitres de Jacques Arnould constituent des récits captivants, constamment documentés et argumentés, se lisant avec plaisir. L'ouvrage commence par l'évocation de Giordano Bruno,

l’un des premiers à remettre en cause, au prix de sa vie, l’idée que l’Homme et la Terre sont au centre de l’Univers : depuis, la place de l’hom-me dans le cosmos, a d’ailleurs été de plus en plus excentrée et relativisée. Les religions du Livre ont été amenées soient à paraître sectaires en s’arcboutant sur la lettre des textes saints, soit à évoluer vers une conception plus globale : le pénultième chapitre de Jacques Arnould s’intitule Vers une religion cosmique et sa conclusion finale est que Jamais Dieu n’a

été si proche du voile du cosmos ; jamais aussi il ne paraît s’y être aussi bien dissimulé.

Une question essentielle s’est également introduite avec les derniers développements de l’astrophysique : celle de la pluralité des mondes. D’une part l’existence avérée de multiples exoplanètes pose la question de l’unicité de l’Homme dans l’Univers ; d’autre part la possibilité des multivers, certes toute théorique, crée pour les relations entre phy-sique et métaphysique une situation inédite. Pour Aurélien Barreau qui en est le chantre convaincu, les multivers sont même la seule possibilité logique et scientifique d’échapper au stérile débat entre la probabilité négligeable de notre présence dans l’univers et le principe anthropique suivant lequel nous aurions déjà été programmés dès le Big Bang, dans les lois qui gouvernent l’évolution de l’Univers.

Tout concourt à une forme de panthéisme, vers lequel convergent bien des intellectuels, en particulier ceux qu’a invités Trinh Xuan Thuan ; c’est aisé, voire naturel, pour ceux qui comme lui baignent dans la tradition boud-dhique, spontanément holistique face au dualisme traditionnel de la pensée occiden-tale. Et nous avons, avec les beaux textes de tous ceux qui précisent leur vision de l’Univers, une idée des formes variées de cette conver-gence où souvent l’émotion ou l’esthétique se mêlent à la réflexion scientifique : les splen-dides photos de Matthieu Ricard complètent, illuminent même, un ouvrage de grande richesse littéraire.

Evoquons pour conclure deux éminents scientifiques qui posent autrement la question de Dieu : Stephen Hawking pense qu’il faut à la fois travailler sur les lois de l’Univers (comment évolue-t-il ?) mais aussi sur le pourquoi de son existence, afin de donner enfin une réponse physique à l’interrogation de Leibnitz : Pour-quoi y-a-t-il quelque chose plutôt que rien ? Et auparavant, Laplace, avec la superbe inso-lence de sa réponse à Bonaparte le questionnant sur l’absence de Dieu dans sa Cosmogonie : Citoyen premier Consul, je n’ai pas eu besoin de cette hypothèse. Laplace expliquera plus tard que Dieu étant une hypothèse qui ex- plique tout mais ne prédit rien, il n’est pas uti- lisable dans le cadre de la science... Q

B. Ay.

CHRONIQUE

L’idée de Dieu n’est plus ce qu’elle était…

Trinh Xuan Thuan (avec J. d’Ormesson, M. Ricard, J.-M. Pelt, Ph. Desbrossses,

E. Morin, J. de Rosnay, F. Verdier & J.-C. Guillebaud)

Face à L’universÉditions Autrement - Collection Manifeste

mars 2015 - 160 p. - 19 F

Jacques Arnould Sous le voile du cosmos

Quand les scientifiques parlent de Dieu Éditions Albin Michel

janvier 2015 - 313 p. - 20 F

Page 30: Aperçu du numéro 2015-4 de la REE (octobre 2015)

148 ZREE N°4/2015

LIBRES PROPOS

Michel Berry École de Paris du management

U n propriétaire terrien se lamente de ne plus trouver de personnel pour ramasser les fraises. Il en parle à un proche : « Avec toutes ces aides aux sans-travail, on entretient la

paresse ». Celui-ci répond : « Des milliers de personnes vont participer au raid cycliste Paris-Brest-Paris. La paresse n’est pas la seule explication1 ». Voyons les différences entre les fraises et le vélo. Elles sont considérables.

Faire Paris-Brest-Paris suscite l’admiration autour de soi. Pas ramasser des fraises, on peut même s’entendre dire : « Tu n’as rien trouvé d’autre ? » Pour faire de grandes distances à vélo, il faut s’entraîner. On s’inscrit souvent en club et la sortie en peloton suscite une vie collective intense où chacun est recon-nu pour ses talents : le grimpeur, le blagueur, le génie de la technique, etc. En revanche, le ramassage des fraises se fait dans un quasi-anonymat et il est rare que des talents de chacun y soient honorés. Si l’on vit dans la grandeur et la convivialité en pratiquant le vélo, on vit petitement en ramassant des fraises. Il y a d’autres moyens de survivre dans un pays riche.

Des candidats se pressent en revanche pour partici-per aux vendanges de crus réputés. C’est que le vin joue un rôle central dans la convivialité française : savoir le déguster, le commenter, repérer de bons producteurs, etc., sont des savoir-faire très valorisés.

Dans l’entreprise, le salarié se sent-il comme un membre de la glorieuse tribu des héros de la petite reine,

1 Je remercie Béatrice Vacher de m’avoir aidé, par ses exigences, à mettre au point cet essai. Cette anecdote est due à Loïc Vieillard-Baron, qui a étudié la façon dont on valorise des savoir-faire « ordinaires », par des concours allant de la championne des mamies au roi des menteurs. Retour à la fête, ce que la multiplication des concours locaux dit de notre société, Editions Autrement, février 2002.

de la distinguée Confrérie des Chevaliers du Tastevin ou de la masse anonyme des ramasseurs de fraise ? La ques-tion est importante : quand les produits, les méthodes et les prix bougent si vite qu’il faut s’en remettre à la vigilance des acteurs, comment faire en sorte qu’ils aient vraiment envie de donner le meilleur d’eux-mêmes ?

Cet exemple met en relief trois leviers de fabrication de l’estime : le sentiment de participer à une belle his-toire ; une communauté où valoriser sa singularité ; des gestes partagés permettant d’entretenir des liens avec les siens et de nourrir la belle histoire. On peut donc l’analyser à l’aide du trépied « mythes-rites-tribus » pro-

posé par Claude Riveline : si un pied lâche, un déséquilibre s’établit2. Illustrons ce mode de lecture à l’aide d’exemples de l’École de Paris du management (voir encadré).

Créer une fierté

pour des emplois mal considérés

Le manque de personnel qualifié est pour 64 % des entreprises industrielles le premier frein à l’augmenta-tion de leur production3. On sait que l’Éducation natio-nale valorise le travail intellectuel au détriment du travail manuel mais cela n’explique pas tout : les jeunes – et leurs parents – sont souvent rebutés par l’idée même de s’orienter vers des métiers manuels. Ces facteurs variant lentement, les entreprises ont intérêt à trouver des dis-positifs appropriés pour attirer le personnel dont elles ont besoin. Voici des exemples d’initiatives menées par des entreprenants imaginatifs.

De l’exclusion à l’estime

Une fille d’immigré italien, ouvrière métallurgiste à 14 ans, est recrutée comme animatrice pour la réinsertion

2 Claude Riveline, « La gestion et les rites », Gérer et comprendre n°33, décembre 1993.

3 Thibaut Bidet-Mayer, Émilie Bourdu, Louisa Toubal, Thierry Weil, « Recherche soudeur désespérément », La Gazette de la société et des techniques n° 76, mars 2014.

Fabriquer de l’estime

L’École de Paris du management

L’École de Paris traite de management en favorisant les observations de terrain et le débat. Elle invite des entrepreneurs et des chercheurs de domaines variés à témoigner devant un auditoire attentif et courtois, qui leur impose un effort de dialogue dont ils gardent un fort souvenir. Se révèlent ainsi des expériences passionnées, insolites, intraduisibles dans la langue économique, mais puissamment explicatives du cours des événements relatés. 1 100 comptes rendus de réunions sont accessibles sur son site www.ecole.org.

Page 31: Aperçu du numéro 2015-4 de la REE (octobre 2015)

REE N°4/2015 Z 149

LIBRES PROPOS

de migrantes en difficulté. Elle a l’idée de créer une acti-vité autour du tricot, rite ancestral dans tous les pays d’où viennent ces réfugiées. Mais, plutôt que de se contenter de leur proposer des activités occupationnelles banales, elle les tire vers le haut en leur faisant découvrir le métier de la maille de haute couture, qu’elles portent au plus haut niveau de l’excellence. Elle cherche à leur procurer pour cela toutes les formations qu’elle peut trouver et favorise un travail d’équipe, dans lequel elle s’implique elle-même fortement. En outre, dans une région tou-chée par la ruine de l’industrie textile, cela suscite des aides bénévoles d’anciennes ouvrières et d’anciens in-génieurs heureux de transmettre leurs savoir-faire. Ces réfugiées en difficulté se sentent ainsi progressivement membres d’un collectif soucieux d’excellence et cela crée un afflux de demandes de femmes ayant une volonté farouche de s’en sortir.

L’association créée pour employer une dizaine de per-sonnes est devenue une SARL employant plus de 100 personnes de quatorze nationalités. Elle réussit à avoir comme clientes toutes les grandes maisons françaises et étrangères de la haute couture, jouant donc un rôle dans une activité prestigieuse. Il en a résulté une fierté collec-tive qui a résisté à des séismes considérables4.

Réenchanter des métiers traditionnels

On pourra objecter que si le tricot pouvait attirer, au début de cette aventure, des personnes en situation d’exclusion, cette histoire n’aurait probablement pas pu démarrer avec des personnes déjà intégrées dans la so-ciété française. Qu’il en aurait été du tricot comme des fraises. Voici un exemple où un entrepreneur imaginatif revalorise un savoir-faire en déshérence.

Après avoir travaillé dans cinq multinationales‚ un ancien du pays de l’Aubrac a un coup de cœur pour l’entreprise Forge de Laguiole. Elle est au bord du dépôt de bilan, tellement les Laguiole sont copiés, et peine à attirer de bons ouvriers dans une petite ville sur le pla-teau de Millevaches pour réaliser un travail standardisé, avec un emploi précaire. Il la reprend cependant pour miser sur la tradition et le métier, au lieu de se lancer dans une course vaine à la baisse des coûts.

Il fait un grand feu pour détruire les plans de fabri-cation et se débarrasse des machines automatiques,

4 Carmen Colle, « L’épopée de World Tricot : ne jamais courber l’échine », séminaire Économie et sens, mai 2013.

facteurs de standardisation. Cela force à revenir au mé-tier de coutelier. Pour valoriser la singularité des objets produits, il crée des modèles conçus par des designers connus et parrainés par une vedette. Produire un cou-teau Ora-ïto parrainé par Alain Delon n’est plus banal pour l’ouvrier qui a pu discuter avec eux de la manière de le fabriquer. Le nouveau patron sillonne le monde en approchant de riches clients pour leur expliquer en quoi les couteaux produits sont uniques : tel manche est sculpté en corne de vache d’Aubrac qu’on ne trouve nulle part ailleurs. Il régénère ainsi l’image – le mythe – des Laguiole. Cinq ans plus tard‚ les commandes af-fluent et l’excellence des artisans est reconnue : deux ont même acquis le titre de meilleur ouvrier de France5.

Aider l’Éducation nationale à évoluer

Il faudrait faire en sorte, dit-on, que les filières de for-mation professionnelle deviennent attractives, comme en Allemagne ou en Suisse. Mais on sait l’inertie des rites de l’Éducation nationale qui régissent les disciplines, les pro-grammes ou le recrutement des enseignants. Quelques entreprises, plutôt que de se contenter de vitupérer, cherchent à aider l’Éducation nationale à évoluer.

L’entreprise Axon’, leader mondial des câbles et des systèmes de connexion pour l’électronique de pointe, ne trouvant plus les formations dont elle a besoin, crée son centre de formation, tout en restant à l’affût de partenariats avec l’Éducation nationale. Apprenant par exemple que le CAP de couture du collège voisin d’Épernay n’a plus de débouchés, le PDG convainc un professeur que la dextérité manuelle des élèves et leur aptitude à lire des plans sont des compétences très adaptées à l’électronique. Une formation post CAP est ainsi créée. Plus tard, quand le CAP de couture est aban-donné, un CAP d’électronique est créé et les ouvrières issues de cette formation peuvent être recrutées chez Axon’. Elles peuvent même devenir chefs de groupe ou chefs d’équipe6. Il n’aurait sans doute guère été possible de créer par les voies normales une telle formation dans une spécialité aussi différente que celles enseignées dans ce collège, mais une opportunité a été saisie sur fond de crise pour lover une filière d’avenir.

5 Thierry Moysset, « La relance de la Forge de Laguiole, ou une stratégie du territoire et des métiers », École de Paris, séminaire Entrepreneurs, villes et territoires, mai 2012.

6 Elisabeth Bourguinat, Réinventer l’industrie, les aventures de Joseph Puzo, Les ateliers Henry Dougier, juin 2015.

jphauet
Rectangle
Page 32: Aperçu du numéro 2015-4 de la REE (octobre 2015)

152 ZREE N°4/2015

LIBRES PROPOS

Jean-Philippe Vanot Président de ParisTech Président du comité du MEDEF sur les relations avec les consommateurs

D epuis quelques années, notamment depuis l’apparition en 2007 de l’iPhone, premier smartphone intelligent, le déve-loppement du numérique transforme

en profondeur nos modes de vie. Ce développement massif de nouveaux usages que nous constatons par-tout dans le monde n’a bien sûr été possible que grâce à la généralisation de l’usage du protocole IP comme langage unique entre le réseau et les objets de tous types, serveurs, smartphones, tablettes, PC, montres connectées, voitures, compteurs… et au déploiement massif par les opérateurs de télécommunications, les « telcos », d’accès à haut débit, majoritairement mobiles. On pourrait donc penser que l’évo-lution de ces telcos, qui sont parmi les acteurs majeurs de ce dévelop-pement en cours, est orientée à la croissance. Paradoxalement cela est loin d’être sûr, tout particulièrement en Europe.

Regardons pour commencer quelques chiffres : sur ces six dernières années le chiffre d’affaires des telcos dans le monde a crû d’environ 3 % par an, sauf en Europe où il a décru de 1 à 2 % par an. Et pourtant partout, y compris en Europe, les usages haut débit ont crû de façon très importante, à la fois en nombre d’accès et en consommation de données par accès, ce qui veut dire que tous les opérateurs de télé-communications, y compris les européens, ont investi massivement dans les infrastructures, principalement en déployant des réseaux mobiles 4G et des raccordements optiques FTTX, et aussi, pour les câblo-opérateurs, des accès en technologie DOCSIS, ceci afin de faire face aux croissances exponentielles des trafics associés.

Et voilà donc le paradoxe européen, dans un marché en croissance forte des usages, les telcos voient leurs revenus baisser, mais doivent continuer à investir, et ils ont du mal, par ailleurs, à accéder à de nouveaux relais de croissance ; ils n’ont alors d’autre alternative que de poursuivre des pro-grammes de réduction de coûts dont la conception et la mise en œuvre sont de plus en plus difficiles, afin de pré-server leurs taux de marge et de rassurer les investisseurs.

Comment en est-on arrivé là ?

Je vois trois raisons fondamentales :

Séduits par la simplicité marketing du concept et sans doute également inquiets de la lenteur du démarrage des usages des données mobiles – cela paraît loin main-tenant mais les telcos se sont longtemps demandé s’ils avaient bien fait d’investir dans les réseaux mobiles 3G car les usages ne décollaient pas – les telcos ont tous adopté, il y a près de 10 ans, des formules tarifaires dites « illimitées » pour la voix puis pour les données, ce qui les a conduits par la suite à devoir investir massivement pour faire face à la croissance des usages mais sans avoir de revenu complémentaire. Les opérateurs (mobiles princi-palement) n’ont ensuite pas su afficher ces tarifs de façon compréhensible par les clients, notamment pour tout ce

qui n’est pas incorporé dans l’illimité, s’attirant ainsi une méfiance certaine des clients.

Les opérateurs n’ont donc pas réussi à monétiser convenable-ment les services de données mobiles alors que ces dernières re-présentent depuis déjà longtemps

dans les pays développés la majorité des volumes de trafic écoulés : dans les résultats financiers des opéra-teurs, le chiffre d’affaires associé aux données est très minoritaire et surtout leur profitabilité insuffisante.

Par ailleurs face à la menace prévisible des OTT, comme on le verra plus loin, ils ont été incapables de s’entendre sur les moyens de contrôler ensemble les

-ploitation qui, on le verra, sont clés pour la maîtrise de l’expérience client. En tant que vice-président de l’ini-tiative WAC (Wholesale Application Community) – qui a tenté sans succès de fédérer les actions des opéra-teurs mobiles sur le sujet – nous avons pu avec le pré-sident de WAC de l’époque, un autre français puisque c’était Michel Combes alors directeur général adjoint de Vodafone, constater à quel point il était difficile de bâtir des positions communes entre Européens, Américains et Asiatiques.

Sur ces dernières années le moteur principal de la règlementation européenne a été de nature consu-mériste, car les régulateurs voulaient avant tout faire

Évolution du secteur des

Télécommunications : le cas européen

Page 33: Aperçu du numéro 2015-4 de la REE (octobre 2015)

REE N°4/2015 Z 153

LIBRES PROPOS

baisser les prix pour les consommateurs finaux : cela a été efficace car, comme l’ont démontré quelques études produites par la Fédération française des télécommuni-cations, les tarifs français, notamment ceux des hauts débits fixes et mobiles, sont les plus bas au monde.

On peut également noter que cette politique a par-fois conduit à des dogmes, abondamment commentés dans les médias, comme celui du nombre minimum d’opérateurs par pays (pourquoi quatre et pas trois ?) pour préserver le degré de compétition ceci sans se soucier de la nature de ces opérateurs. J’aurais person-nellement applaudi au fait d’avoir quatre opérateurs par pays en Europe si ces quatre opérateurs avaient été présents dans chaque pays d’Europe, donnant par là naissance à quatre opérateurs pan-européens capables de concurrencer les plus gros opérateurs non européens tels que ATT, Verizon, China Mobile, NTT…

L’arrivée des OTTs – Apple et Google principalement et à un moindre degré Microsoft – et leur contrôle total ou progressif des OS du terminal mobile (IOS et Android voire Windows X pour ne citer que les plus répandus) ont créé une réelle désintermédiation des telcos.

En effet, grâce à la qualité de leur interface client, basée sur la simplicité et l’intuition d’usage et permet-tant en sus au client d’avoir accès très facilement à un gigantesque magasin d’applications ces acteurs ont su se faire désirer des clients finaux, qui sont bien souvent plus attachés à leur constructeur de smartphone qu’à leur opérateur, car le smartphone, enrichi par le client lui-même de multiples applications correspondant à ses besoins, est devenu un objet personnel de grande valeur.

De fait ces nouveaux acteurs semblent aujourd’hui les mieux positionnés pour capter une partie de la valeur des relais de croissance que l’on pressent et qui relèvent pour la plupart de ce que l’on appelle l’Internet des objets : paiement en ligne, santé, véhicules connectés, domotique…

carte SIM logicielle permettant de facto un passage sans couture d’un telco à un autre, va affaiblir encore plus la solidité du cordon ombilical entre le client final et le telco et ne fera qu’amplifier le risque de désintermédiation. Ces embedded SIM ont été spécifiées par les opéra-teurs mobiles eux-mêmes via des spécifications de la GSMA adoptées il y a plus d’un an, afin de développer le marché des objets mobiles connectés (on voit bien par exemple la nécessité de passer sans couture d’un opéra-

teur à un autre pour développer un service européen de voitures connectées). Le revers de la médaille pour les opérateurs est que le client qui achète un matériel pré-équipé d’une telle carte SIM n’a plus tellement de raison de se rendre chez un opérateur pour choisir un abonnement si le distributeur du matériel lui propose de s’en charger à sa place. C’est bien sûr Apple qui s’est le premier engouffré dans la brèche en proposant aux États-Unis et en Grande Bretagne des iPads avec carte SIM intégrée ; le risque pour les telcos est pour l’instant limité mais que se passera- t-il lorsque Apple décidera d’intégrer ces cartes SIM dans les iPhones ?

Face à ce constat un peu morose quelles sont les pistes pour l’avenir des opérateurs européens ?

Le stratège de l’IDATE, D. Pouillot, voit trois scénarios possibles pour les telcos (européens ou non) :

sont progressivement réduits au rôle de fournisseurs de tuyaux sans développer au-dessus des services à valeur ajoutée : elle résulterait en une baisse de CA d’environ 2 % par an ;

qualité perçue par le client, l’opérateur développe des services d’accès étendus et parvient à une croissance de l’ordre de 2 % par an de son CA ;

complémentaire en distribuant les services des sec-teurs verticaux évoqués précédemment, paiement, santé, domotique…

Cela me semble assez bien analysé. Quels sont les moyens d’échapper au premier scénario ? Comme je crois fondamentalement que « les solutions du futur ne seront probablement pas celles qui sont à l’origine des problèmes du présent » il va bien falloir envisager quelques points différemment :

Un bon nombre d’opérateurs ont déclaré s’être enga-gés sur cette voie : force est de constater que la route est pentue et glissante et que les telcos n’ont pas encore su monétiser une qualité différenciante notamment pour les services de données. Pourtant un déploiement mas-sif et rapide de technologies de type Big Data (basé sur une plate-forme de Customer Experience Mobile, sur le déploiement de sondes mais aussi sur le déploiement massif de logiciels embarqués dans les smartphones

jphauet
Rectangle
Page 34: Aperçu du numéro 2015-4 de la REE (octobre 2015)

160 ZREE N°4/2015

Impression : Jouve - 53100 Mayenne Dépôt légal : octobre 2015

Edition/Administration : SEE - 17, rue de l’Amiral Hamelin - 75783 Paris cedex 16 Tél. : 01 5690 3709 - Fax : 01 5690 3719 Site Web : www.see.asso.fr

Directeur de la publication : François Gerin

Comité de rédaction : Bernard Ayrault, Alain Brenac, Patrice Collet, André Deschamps, Jean-Pierre Hauet, Jacques Horvilleur, Marc Leconte

Rédaction : Catherine Vannier - Tél. 01 5690 3704

Promotion : Mellyha Bahous - Tél. 01 5690 3711

Régie publicitaire : FFE - Tél. 01 5336 3787

Abonnements : Tél. : 01 5690 3704 - www.see.asso.fr/ree Prix de l’abonnement 2015 : France & UE : 120 F - Etranger (hors UE) : 140 F Tarif spécial adhérent SEE : France & UE : 60 F - Etranger : 70 F Vente au numéro : France & UE : 28 F - Etranger : 30 F

Conception & réalisation graphique JC. Malaterre - Tél. : 01 7946 1470

Impression : Jouve - 53100 Mayenne. Siège social : 11 Bd de Sébastopol - 75027 Paris cedex 1 Tél. : 01 4476 5440

CPPAP : en cours de renouvellement

Copyright : Toute reproduction ou représentation intégrale ou partielle, par quelque procédé que ce soit, des présentes pages publiées faite sans l’autori-sation de l’éditeur, est illicite et constitue une contrefaçon. Toutefois les copies peuvent être utilisées après autorisation obtenue auprès du CFC - 20 rue des Grands Augustins, 75006 Paris (Tél. : 01 4404 4770) auquel la SEE a donné mandat pour la représenter auprès des utilisateurs (loi du 11 mars 1957, art. 40 & 41 et Code Pénal art. 425)

La revue REE est lue par plus de 10 000 ingénieurs et cadres de l’industrie, dirigeants d’entreprises, directeurs des ressources humaines, formateurs… profitez de ce lectorat ciblé et de qualité pour publier vos annonces (em-plois, stages, manifestations…)

Répertoire des annonceurs REE Abonnement 2015 ...................................................................... C2 MATPOST ’2015 ................................................................................ p. 3 3EI Abonnement 2015 .................................................................... p. 16 LEM INTERNATIONAL SA ............................................................. p. 19 GENERAL CABLE ...................................................................... p. 34,35 Monographies ..........................................................................p. 74-124 REE Archives ...................................................................................... C3 OMICRON ELECTRONICS ................................................................. C4

Prochains Grands Dossiers Dossier 1 : La nanoélectronique ou Le démantèlement des centrales Dossier 2 : Les antennes actives radar

Une publication de la

Entre science et vie sociétale,les éléments du futur

6 CLUBS TECHNIQUES Q Automatique, Informatique et Systèmes Q Ingénierie des Systèmes d’Information et de Communication Q Électronique Q Radar, Sonar et Systèmes Radioélectriques Q Électrotechnique Q Systèmes électriques

12 GROUPES RÉGIONAUX

Conférences nationales et internationales Journées d’études thématiques Conférences-Débat Congrès internationaux, en partenariat ou non, avec d’autres sociétés scientifiques

La SEE contribue à l’organisation KLJVUMtYLUJLZZJPLU[PÄX\LZLU-YHUJL LUZ»HWW\`HU[Z\YZLZ*S\IZ[LJOUPX\LZ et ses Groupes régionaux

Grades Senior et Émerite SEE Prix : Brillouin-Glavieux, Général Ferrié, André Blanc-Lapierre... Médailles : Ampère, Blondel...

La SEE récompense les contributeurs éminents au progrès des sciences et technologies dans ses domaines

Revue de l’Électricité et de l’Électronique (REE) Revue 3EI Monographies Publications électroniques : SEE Actualités

La SEE favorise le partage du savoir, et contribue aux débats sur des problèmes de société en éditant des revues ZJPLU[PÄX\LZL[V\]YHNLZ[OtTH[PX\LZ

La SEE fédère un vaste réseau d’experts universitaires et industriels en faveur des H]HUJtLZZJPLU[PÄX\LZL[[LJOUVSVNPX\LZ

La SEE, société savante française fondée en 1883, forte de 3 000 membres, couvre les secteurs de l’Électricité, de l’Électronique et des Technologies de l’Information et de la Communication. Elle a pour vocation

de favoriser et de promouvoir le progrès dans les do-maines : Énergie, Télécom, Signal, Composants, Auto-matique, Informatique.

SOCIÉTÉ DE L’ÉLECTRICITÉ, DE L’ÉLECTRONIQUE ET DES TECHNOLOGIES DE L’INFORMATION ET DE LA COMMUNICATION

17, rue de l’Amiral Hamelin - 75783 Paris cedex 16 Tél. : 01 56 90 37 09/11 - Fax : 01 56 90 37 19

www.see.asso.fr

jphauet
Rectangle
jphauet
Texte tapé à la machine
Vous voulez... Vous abonner à la REE ? Acheter un numéro ? Cliquer ICI Ou bien téléphoner au 01 56 90 37 04