38
Numéro 2015 EDITORIAL Pour une approche pragmatique de la transition énergétique Olivier Appert ENTRETIEN AVEC Serge Lepeltier Regard sur la transition énergétique www.see.asso.fr 2 ISSN 1265-6534 L'ARTICLE INVITÉ DOSSIER Retour sur… Le radar MIMO Par Jean-Paul Guyvarch

Aperçu du numéro 2015-2 de la REE (mai 2015)

Embed Size (px)

DESCRIPTION

Cet aperçu permet de découvrir le sommaire et les principaux articles du numéro REE 2015-2 publié en mai 2015 - Pour s'abonner, merci de vous rendre à la dernière page.

Citation preview

Page 1: Aperçu du numéro 2015-2 de la REE (mai 2015)

ÉNERGIE TELECOMMUNICATIONS SIGNAL COMPOSANTS AUTOMATIQUE INFORMATIQUE

Num

éro

2

015 EDITORIAL

Pour une approche pragmatique de la transition énergétique

Olivier Appert

ENTRETIEN AVEC Serge Lepeltier

Regard sur la transition énergétique

www.see.asso.fr

2

ISSN

126

5-65

34

L'ARTICLE INVITÉ

DOSSIER

Retour sur… Le radar MIMOPar Jean-Paul Guyvarch

jphauet
Zone de texte
Cet aperçu gratuit permet aux lecteurs ou aux futurs lecteurs de la REE de découvrir le sommaire et les principaux articles du numéro 2015-2 de la revue, publié en mai 2015. Pour acheter le numéro ou s'abonner, se rendre à la dernière page.
Page 2: Aperçu du numéro 2015-2 de la REE (mai 2015)

REE N°2/2015 Z 1

L a nécessité de s’engager dans la transi-tion énergétique fait consensus. Mais que recouvre le terme de transition qui est à la mode et est souvent utilisé à tort et à tra-

vers ? Ainsi, on parle de transition démographique, numé-rique, démocratique, etc. Il est indispensable de préciser les enjeux de la transition énergétique et d’examiner com-ment elle se décline dans les différents pays.

Il faut d’abord rappeler que le secteur énergétique est en perpétuelle transition comme tout secteur industriel. Le bois et le vent ont été les sources d’énergie dominantes jusqu’au XVIIIe siècle. L’invention de la machine à vapeur a permis l’émergence du charbon au XIXe siècle. Ultérieu-rement, le gaz et le nucléaire ont pris une part croissante dans le mix énergétique.

Aujourd’hui, le secteur énergétique est confronté à un triple défi : fournir une énergie fiable, à un coût maîtrisé et respectueuse de l’environnement. Les trois dimensions de ce « trilemme énergétique » sont essentielles pour le développement économique et social d’un pays. Mais comment résoudre cette équation ? La transition énergé-tique est une réponse mais elle impose un compromis entre ces trois dimensions qui varie selon les pays.

Il n’y a pas de panacée et il faut adopter une approche pragmatique. L’efficacité énergétique est un moyen puis-sant mais c’est seulement un moyen. Elle passe par des changements de comportement des consommateurs, mais aussi et surtout par le renouvellement des équi-pements. Or les changements de comportement des consommateurs ne sont pas immédiats. Et la durée de vie des équipements de production ou de consommation d’énergie est élevée.

Confrontés aux mêmes défis énergétiques et environne-mentaux, tous les pays se sont engagés dans une tran-sition vers un système énergétique durable. Mais les réponses concrètes qui sont apportées varient beaucoup d’un pays à l’autre suivant son niveau de développement économique ou ses ressources énergétiques. L’analyse des politiques énergétiques des pays leaders mondiaux

est indispensable pour appréhender le nouvel ordre éco-nomique mondial qui se dessine.

Les politiques mises en œuvre pour assurer la transition énergétiques sont donc très diverses car adaptées au contexte économique, énergétique et social de chaque pays. On peut cependant en tirer des enseignements généraux.

-tionale et internationale, forte avec la recherche d’un consensus aux niveaux nationaux, régionaux et locaux.

-teur (temps longs de construction et déploiement, du-rées de vie longue des équipements, évolution lente des comportements, etc.).

-tiques et priorités nationales (notamment la sortie de crise, les grands équilibres macroéconomiques natio-naux). L’énergie doit être au service de la croissance économique.

-plets pour envoyer le bon signal prix aux investisseurs et aux consommateurs, tout en protégeant spécifiquement les plus vulnérables.

-ment de ces politiques de transition est un défi majeur. Il faut imaginer des solutions innovantes basées sur les ressources locales, nationales, internationales.

Les défis pour assurer un système énergétique durable dans ses trois dimensions économique, sociale et environ-nementale sont considérables. Cela prendra du temps et il n’y a pas de panacée. Les politiques adaptées aux contextes nationaux doivent être mises en place dès maintenant avec pragmatisme en tirant les enseignements des succès et des échecs des démarches adoptées de par le monde.

Olivier Appert Président d’IFP Energies nouvelles

Président du Conseil Français de l’Energie

Pour une approche pragmatique de la transition énergétique

EDITORIAL OLIVIER APPERT

Page 3: Aperçu du numéro 2015-2 de la REE (mai 2015)

2 ZREE N°2/2015

sommaireNuméro 2 Āþÿă

1 EDITORIAL Pour une approche pragmatique de la transition énergétique

Par Olivier Appert

2 SOMMAIRE

4 FLASH INFOS Vers la 5e génération de téléphonie mobile7 La technologie LoRa dans la voie du succès 9 Le méthane : un gaz à effet de serre dont on parle trop peu12 Intégration de sources à photon unique

dans une nanofibre optique 13 Le centre coloré azote-lacune du diamant :

un candidat à la fabrication des qbits15 Les réseaux à courant continu étendent leur toile

en mer du Nord 16 Les pneus pourraient contribuer à la recharge des batteries 16 Les déinocoques ouvrent la voie aux carburants

de 2e génération

18 A RETENIR Congrès et manifestations

20 VIENT DE PARAÎTRE La REE vous recommande

23 ARTICLE INVITÉ Retour sur... Le radar MIMO

Par Jean-Paul Guyvarch

29 LES GRANDS DOSSIERS L’hydrogène

Introduction : L’hydrogène : le grand débat Par Jean-Pierre Hauet

32 Le “Power to Gas” - Comment relever le défi du stockage de l’électricité ? Par Philippe Boucly

39 L’hydrogène dans la transition énergétique : quels défis à relever ? Par Etienne Beeker

46 L’hydrogène, essentiel aujourd’hui, indispensable demain Par Pascal Mauberger, Philippe Boucly, Aliette Quint, Hélène Pierre, Paul Lucchese, Valérie Bouillon-Delporte, Bertrand Chauvet

p. 1

p. 29

p. 23

p. 101

Crédit photo de couverture : Haver - Fotolia.com

p. 85

Page 4: Aperçu du numéro 2015-2 de la REE (mai 2015)

REE N°2/2015 Z 3

ETTC

’20

15

ETTC’2015

EUROPEAN TEST

& TELEMETRY

CONFERENCE

9-11 June 2015

Toulouse - France

Organized by:

www.see.asso.fr/ettc2015

53 L’hydrogène électrolytique, une solution de la transition énergétique ? Par Annabelle Brisse, Ludmila Gautier, Sylvain Hercberg

58 Développement de systèmes d’électrolyse de forte puissance : nécessité et approche Par Marc De Volder

67 L’hydrogène vecteur énergétique. Potentiel et enjeux : une mise en perspective Par Jean-François Gruson, Pierre Marion

72 Toyota Fuel Cell System : une nouvelle ère pour l’automobile Par Sébastien Grellier

76 L’hydrogène dans la transition énergétique. Trois facteurs clés : la production, les applications à la mobilité et l’acceptation par le public Par Jean-Guy Devezeaux, Christine Mansilla, Elisabeth Le Net, Alain Le Duigou

81 L’hydrogène, fée bienveillante ou démon tentateur Par Jacques Maire

85 GROS PLAN SUR … La redéfinition du kilogramme et des unités électriques Par Pierre Cladé, Lucile Julien

92 RETOUR SUR ... Les étalons de mesure - Du mètre méridien au mètre lumière

Par Marc Leconte

101 ENTRETIEN AVEC... Serge Lepeltier,

Ancien ministre de l’Écologie et du Développement durable, Président de l’association Equilibre des Energies Regard sur la transition énergétique

105 ENSEIGNEMENT & RECHERCHE Grenoble INP : ancrage dauphinois et grand rayonnement !

Par Brigitte Plateau

111 Echos de l’enseignement supérieur Par Bernard Ayrault

113 CHRONIQUE Sur le rôle des chroniqueurs et journalistes scientifiques…

Par Bernard Ayrault

115 LIBRES PROPOS Pour un développement numérique durable

Par Nicolas Curien

119 SEE EN DIRECT La vie de l'association

Page 5: Aperçu du numéro 2015-2 de la REE (mai 2015)

4 ZREE N°2/2015

FLASHINFOS

Vers la 5e génération de téléphonie mobile

La mise en place de nouvelles techniques de ré-seau mobile implique une très forte coordination entre de nombreux acteurs : l’industrie des équipements de réseau, celle des terminaux mobiles et aussi les orga-nismes de normalisation. Leurs actions doivent être mises en phase pour assurer une disponibilité synchro-nisée des éléments de réseau, des terminaux mobiles et des bandes de fréquences nécessaires à une nouvelle génération de système mobile. Les systèmes de 4e gé-nération ont commencé à être déployés en 2009-2010 au Japon et aux États-Unis. A la fin de l’année 2014, il y avait dans le monde environ 500 millions d’abon-nés mobiles ayant un abonnement aux services de la 4e génération (LTE) c’est-à-dire 7 % des cartes SIM (source Idate). Des améliorations de cette technologie ont été normalisées sous le nom de LTE-Advanced : grâce en particulier à l’agrégation de porteuses, elles per-mettent d’atteindre des débits de l’ordre de 300 Mbit/s et commencent à être déployées en France bien que les terminaux compatibles soient encore peu nombreux. Des évolutions des performances de LTE-Advanced sont programmées et au dire des experts les marges de pro-grès sont significatives.

Néanmoins l’industrie des télécommunications a com-mencé très activement les travaux de définition de la génération suivante de systèmes mobiles, la « 5 G », et a esquissé publiquement ce qu’elle devrait être. L’Union européenne, dès 2013, avait appelé les acteurs européens à se grouper dans un partenariat public-privé pour « re-prendre le leadership technologique ». C’est ainsi qu’à la fin 2013 a été créé le 5G-PPP (5G Infrastructure Public Private Partnership), association liée contractuellement à la Commission européenne qui la soutient dans ses projets de recherche-développement. Le 5G-PPP réunit la plupart des acteurs des télécommunications d’Europe, industriels et opérateurs, ainsi que des laboratoires de recherche ; il associe aussi des acteurs non européens actifs en Europe.

A l’occasion de la conférence mondiale mobile de Bar-celone en mars, le 5G-PPP a publié sa vision de ce que devrait être la 5e génération de réseaux mobiles. De son côté, l’alliance NGMN1 qui associe 24 des principaux opé-rateurs de réseaux mobiles d’Europe, d’Asie et d’Amérique du nord a publié un livre blanc présentant sa vision sur les

1 Next Generation Mobile Network.

réseaux 5G. D’autres accords ont été annoncés autour de la 5G : on peut citer l’alliance 5G World Alliance et l’accord entre Ericsson, Nokia et Korea Telekom.

Les documents publiés donnent une première image des besoins que l’on entend couvrir par les systèmes 5G et présentent un certain nombre de pistes sur les techno-logies qui pourraient être utilisées. En termes de calen-drier, l’objectif affiché est d’installer des systèmes 5G à partir de 2020. D’ores et déjà, le Japon a annoncé son intention d’installer des équipements de 5e génération pour les jeux olympiques d’été de Tokyo.

Les évolutions identifiées pour la 5e génération sont nombreuses. Un certain nombre d’entre elles relèvent de l’amélioration des performances. On vise, par exemple, à garantir un débit de 50 Mbit/s sur 95 % de la surface de la cellule pendant 95 % du temps, les débits-crête pou-vant dépasser le Gbit/s, notamment à l’intérieur de cer-tains immeubles. La fourniture d’un service satisfaisant dans des zones à très forte densité d’utilisateurs, jusqu’à 100 000 connexions actives par km², comme les stades voire dans des zones momentanément surchargées par un évènement inattendu est également un objectif. Cette nouvelle génération de systèmes mobiles devrait pouvoir fournir à très bas coût des accès radio à large bande pour pouvoir équiper les pays en développement d’accès à haut débit. Les accès fixes y sont en effet rarement dis-ponibles sur l’ensemble de leur territoire. La possibilité d’offrir des temps de latence2 très bas (moins de 1 ms) à certaines applications très critiques fait également partie des objectifs. Enfin, il devrait être possible de fournir un service de communication à des mobiles terrestres ayant une vitesse atteignant 500 km/h.

La 5e génération devrait permettre de connecter des capteurs, des systèmes de télésurveillance et d’autres objets dans le cadre du développement de l’Internet des Objets (IoT3) : le réseau leur fournirait aussi bien des connexions à très bas débit, longue distance et basse consommation que des connexions à large bande.

L’extension du service de communication mobile vers les mobiles aériens est aussi évoquée : la prise en compte de la 3e dimension aura certainement un impact important sur le système. Des services de communica-tion à très haute fiabilité utilisables par des applications liées à la gestion du trafic automobile ou certaines appli-cations de télémédecine sont aussi envisagés.

2 Temps de transfert des données en boucle.3 Internet of Things.

Page 6: Aperçu du numéro 2015-2 de la REE (mai 2015)

REE N°2/2015 Z 5

FLASHINFOS

Au plan technique, la réduction de l’énergie consom-mée par les réseaux et les terminaux est un objectif impor-tant. Pour le réseau, on envisage de réduire la consomma-tion d’un facteur 2 pour un trafic écoulé (mesuré en bits) multiplié par 1 000. Pour les smartphones l’objectif serait d’atteindre une autonomie de trois jours.

On propose, pour la 5G, de pouvoir utiliser des bandes de fréquences allouées aux opérateurs et également des bandes de fréquences d’usage libre comme celles utili-sées par le Wi-Fi. Concernant les bandes de fréquences allouées aux opérateurs, les conférences mondiales des radiocommunications (CMR) de 2015 et 2019 définiront les bandes de fréquences utilisables par la 5G. D’ores et déjà des travaux sont en cours au niveau international pour allouer de nouvelles bandes de fréquences au ser-vice mobile 4G. Les opérateurs demandent de pouvoir utiliser pour la 5G des bandes allouées aux générations antérieures et demandent aussi de nouvelles bandes de fréquences en deçà de 1 GHz et au-delà des 6 GHz. Il est probable que les réglementeurs des différentes régions mondiales appliqueront de nouveaux schémas de par-tage de bande comme LSA4 aux bandes allouées à la 5G.

Pour bien exploiter les différentes bandes, la 5G de-vrait pouvoir combiner plusieurs technologies d’accès radio (RAT5) : un terminal 5G pourrait être connecté à

4 Licensed Shared Access.5 Radio Access Technology.

plusieurs RAT, un accès 4G (ou son évolution) et un accès 5G grâce à l’agrégation de porteuses ou de l’agrégation de bandes au niveau 2. Ce fonctionnement multi-RAT pourrait également prendre en compte des accès de type Wi-Fi évolués. Il faut noter qu’en plus du raccordement des accès radio, il est demandé aux systèmes 5G de pouvoir raccorder des accès fixes : ainsi serait finalement réalisée la convergence des réseaux fixes et mobiles, objectif qui reste encore celui de nombreux opérateurs de réseau.

En matière de performances radio, un objectif impor-tant est celui de l’amélioration de l’efficacité spectrale (mesurée en bit/s/Hz) par rapport à celle de la 4G. Des progrès sont également souhaités en matière d’efficacité de la signalisation sur l’interface radio pour, en particulier, pouvoir faire face à la charge que pourraient provoquer de très nombreux capteurs connectés.

Face à ces objectifs souvent difficiles à concilier, les solutions techniques ne sont évidemment pas arrêtées mais certaines orientations sont évoquées. Pour le seg-ment radio, l’application de techniques avancées d’atté-nuation des interférences et de coordination est mise en avant. Le recours au MIMO massif et aux techniques de micro-synchronisation entre cellules, du type CoMP utili-sées dans LTE-Advanced, devrait permettre d’obtenir une bonne efficacité spectrale. La topologie du réseau radio pourrait devenir dynamique : des techniques de réseau maillé pourraient y être appliquées et la communication

Figure 1 : Architecture 5G proposée par l’alliance NGMN.

Page 7: Aperçu du numéro 2015-2 de la REE (mai 2015)

6 ZREE N°2/2015

FLASHINFOS

de terminal à terminal pourrait être utilisée, dans certains cas, pour décharger le réseau.

La satisfaction de besoins très divers par un même réseau conduit à envisager une architecture dont la confi-guration soit adaptable dynamiquement aux besoins : les blocs fonctionnels constituant le réseau devraient pouvoir être combinés de façon souple en fonction du besoin à satisfaire. Cette approche pose la question de la granularité de ces blocs : elle devrait être fine si l’on veut avoir des blocs sans aucune fonction commune mais il en résulterait une explosion du nombre des interfaces à définir entre eux. Pour atteindre les objectifs d’adaptabi-lité et de flexibilité, on envisage le recours à la virtualisa-tion des fonctions de réseau (NFV6) et aux architectures dites SDN7 qui sont en cours de définition et d’évaluation. Un défi important dans le cadre de NFV est celui de la ca-pacité à maintenir des interfaces ouvertes entre les blocs fonctionnels et leur interopérabilité dans l’hypothèse de fournisseurs multiples sans faire exploser les efforts de test d’interopérabilité. Le cœur de réseau deviendrait ainsi « agnostique » et intégrerait les services fixe et mo-bile : la séparation des plans de transport et commande serait poursuivie. La figure 1 montre la proposition d’ar-chitecture mise en avant par l’alliance NGMN.

6 Network Function Virtualization (voir REE 2014-03).7 Software Defined Network.

L’alliance NGMN introduit dans l’architecture le concept de « tranche de réseau » : une tranche de ré-seau est constituée de toutes les fonctions du réseau et des paramétrages de RAT nécessaires à la fourniture d’un service de communication (figure 2). Il traduit le carac-tère « adaptable » de l’architecture mais sa faisabilité à grande échelle reste à démontrer. Ce concept permettrait aussi d’envisager la création de nouveaux revenus pour les opérateurs en ouvrant, via des interfaces de program-mation d’applications (API8) le réseau à des acteurs tiers pour offrir de nouveaux services. En particulier, au-delà des services fournis par l’opérateur de réseau on pourrait imaginer des tranches de réseaux spécifiquement adap-tées aux besoins d’acteurs tiers.

Les objectifs poursuivis dans la définition de la 5G sont donc particulièrement ambitieux, même s’il y a des incertitudes sur les cas d’usage qui seront finalement retenus et les technologies qui seront appliquées. C’est un programme de travail très important pour l’ensemble des acteurs de l’industrie mondiale des télécommuni-cations qui devront se mettre d’accord sur la liste des besoins à satisfaire, sur les priorités à leur attribuer et des architectures et des technologies communes. Ce travail délicat sera à conduire dans un contexte de forte concur-rence entre les industriels et dans celui de la défense

8 Application Programming Interface

Figure 2 : Exemples de structuration en tranches - Source : NGMN Alliance.

jphauet
Rectangle
Page 8: Aperçu du numéro 2015-2 de la REE (mai 2015)

REE N°2/2015 Z 9

FLASHINFOS

investissement majeur et les trames LoRa peuvent uti-liser les liens de backhaul du réseau de l’opérateur. Il sera donc très intéressant de suivre, dans les mois qui viennent, les expériences engagées.

Cependant, l’avenir de LoRa est déjà contesté par cer-tains. Il faudrait évidemment que la solution soit norma-lisée et ne soit pas dépendante d’un seul fournisseur. Il faut s’assurer également que la mise en œuvre pratique de LoRa peut se contenter des supports d’antennes exis-tants et n’impliquera pas, pour atteindre une bonne qua-lité de service, l’implantation d’une myriade d’antennes, coûteuses et difficiles à faire admettre.

Il existe en France une société en développement, SigFox, implantée à Toulouse qui promeut une autre solution à bande de fréquences ultra-étroite (typique-ment 100 Hz) en cours de déploiement en France et dans d’autres pays (Portugal notamment). Cette solution, fondée sur un système d’agilité en fréquences, autorise des débits de 10 bit/s à 10 kbit/s. Selon ses promoteurs, elle permet de couvrir le territoire national avec 1 000 antennes au plus.

La compétition est donc engagée… JPH

Le méthane : un gaz à effet de serre dont on parle trop peu

Les débats sur le changement climatique se résument souvent à une analyse des émissions de CO2 et de la façon de les réduire, notamment par des efforts accrus d’efficacité énergétique et de développement des éner-gies décarbonées. Il est vrai que les émissions de CO2

sont à l’origine de l’essentiel de l’effet de serre addition-nel d’origine anthropique et que l’encadrement de ces émissions constitue un défi majeur auquel tous les pays doivent à présent faire face. Mais la priorité donnée au CO2 réside aussi dans le fait que les données le concernant sont beaucoup plus nombreuses que celles relatives à d’autres gaz à effet de serre, au méthane en particulier, et qu’il est par conséquent plus facile d’en parler et de légiférer à son propos.

Pourtant les émissions de méthane jouent un rôle très significatif dans l’équilibre climatique et l’on considère que l’accroissement des teneurs en méthane de l’atmos-phère depuis l’ère préindustrielle est à l’origine de 20 % de l’effet de serre additionnel et donc, en première ap-proximation, de l’élévation constatée des températures.

Plusieurs facteurs conduisent à porter aujourd’hui au méthane une attention accrue :

-tion dans l’atmosphère a augmenté le plus depuis l’air préindustrielle (Source : GIEC AR5 - 2014) :- CO2 : + 40 %- CH4 : + 150 % [722 ppb en1750] ° [1 803 ppb en

2011]- N2O : + 20 %

-commencé à croître depuis 2007 après une période d’accalmie d’environ 10 ans, encore mal expliquée (figure 1) ;

-voir de réchauffement global par rapport au CO2 (nous discuterons plus loin cette notion) a été à plusieurs

Figure 1 : Evolution de la concentration de méthane dans l’atmosphère (en ppb) – Source : Données GIEC AR5 (2013).

Page 9: Aperçu du numéro 2015-2 de la REE (mai 2015)

10 ZREE N°2/2015

FLASHINFOS

reprises revu à la hausse par le GIEC : 21 dans le 2e rapport d’évaluation du GIEC (1995) – valeur reprise dans le protocole Kyoto en 1997, 23 dans le 3e rapport (2001), 25 dans le 4e (2007) et, tout récemment, 28 dans le 5e (2014) et même 34 si l’on tient compte de certaines rétroactions.

Il est donc utile de se pencher sur les dernières études publiées et en particulier sur le 5e rapport du GIEC (2014) et sur l’étude réalisée en 2013 par l’Académie des tech-nologies1.

D’où proviennent les émissions de méthane ?Le monde du méthane est mal connu. On estime, de

façon très approximative que 500 à 600 Mt de CH4 sont rejetés chaque année dans l’atmosphère, se répartissant entre sources naturelles (42 %) et sources humaines (58 %). Les sources associées à la production et à l’utili-sation de l’énergie ont pris une importance significative au point de représenter environ 25 % des émissions totales, soit 42 % des émissions d’origine humaine (figure 2)2.

Que devient le méthane ?A la différence du CO2 qui n’est pas détruit dans l’atmos-

phère mais est très progressivement absorbé par les océans et la biomasse terrestre, le CH4 est assez rapidement dé-composé dans la troposphère et dans la stratosphère par les

radicaux hydroxyles OH résultant de la photolyse de l’ozone. Ce « puits » est responsable de 94 % du méthane détruit chaque année, les 6 % restant correspondant à une décom-position par les microorganismes des sols.

Cette décomposition du méthane n’est cependant que partielle et, au stade actuel, on estime que sur les 574 Mt émis chaque année, 536 Mt seulement sont détruits, ce qui explique l’augmentation de la teneur en méthane de l’atmosphère, augmentation rapide depuis le début de l’ère industrielle.

Comment comparer le CH4 au CO2 ?La comparaison du CH4 au CO2, en termes d’effet sur

le climat, pose des problèmes méthodologiques difficiles que la notion sommaire de « pouvoir de réchauffement global » ou “Global Warming Potential” (PRG en français, GWP en anglais) tend à masquer. Le GWP d’un gaz est une mesure du forçage radiatif intégré (Absolute GWP ou AGWP) généré sur une période donnée T par une émis-sion ponctuelle de ce gaz, rapporté au forçage radiatif induit par une masse équivalente de CO2, soit :

La période de référence T retenue dans le protocole de Kyoto a été fixée en 1997 à 100 ans mais, comme le souligne le dernier rapport du GIEC, “There is no scientific argument for selecting 100 years compared with other choices” (GIEC AR5 p. 711 – 2013).

Le problème est que le CH4 et le CO2 diffèrent profon-dément quant aux deux paramètres essentiels qui condi-

Figure 2 : Origine des émissions de méthane dans le monde – Total estimé : 574 Mt dont sources naturelles : 238 Mt(41.5 %) et sources humaines : 336 Mt (58.5 %) - Source : Académie des technologies (Op. cit.).

1 Le méthane : d’où vient-il et quel est son impact sur le climat ? (9 janvier 2013).

2 A ces sources « traditionnelles » pourraient s’ajouter un jour, des émissions résultant de la décomposition des hydrates de mé-thane (clathrates) actuellement stockés en quantités très impor-tantes dans les profondeurs du pergélisol et des fonds marins.

Page 10: Aperçu du numéro 2015-2 de la REE (mai 2015)

REE N°2/2015 Z 11

FLASHINFOS

tionnent le PRG : l’efficacité radiative et la durée de vie moyenne dans l’atmosphère.

Le CH4 a une efficacité radiative très forte comparée à celle du CO2. Par contre, les phénomènes de décom-position du CH4 étant rapides, sa durée de vie moyenne est courte et le GIEC l’évalue actuellement à 12,4 années. Le GIEC ne donne pas de durée de vie pour le CO2 mais comme il n’est pas décomposé mais absorbé et pour partie seulement, une fraction des émissions peut res-ter pendant des centaines d’années voire des millénaires dans l’atmosphère.

On a donc affaire à des comportements radicalement différents :

2 a un effet instantané modéré mais qui persiste pendant de très nombreuses années et donc un effet cumulé (AGWP) qui ne cesse de s’accroître ;

4 a un effet puissant mais relativement bref et donc un effet cumulé qui atteint une asymptote assez rapidement.

Cette différence fondamentale est illustrée par la figure 3.Le pouvoir de réchauffement du méthane varie forte-

ment de l’horizon considéré : le dernier rapport du GIEC l’évalue (hors contreréactions) à 28 sur 100 ans et à 84 sur 20 ans. Si on se place à l’horizon 2050, horizon de la Loi sur la transition énergétique, on voit sur la figure 3

que l’émission d’un gramme de méthane aujourd’hui a, en effet cumulé sur la période 2015-2050, un poids équiva-lent à 60 fois celui d’un gramme de CO2.

L’horizon sur lequel on raisonne est donc primordial pour décider si la priorité doit être donnée au méthane ou au CO2 dans la lutte contre l’effet de serre. La période d’intégration T est la variable duale d’un taux d’actualisa-tion. Une période longue correspond à un taux d’actuali-sation faible donnant du poids aux considérations à long terme ; une période courte correspond à un taux plus important privilégiant les actions à court et moyen terme.

Mais un autre facteur doit également être pris en considération. Le calcul du pouvoir de réchauffement correspond à l’évaluation de l’effet d’une émission ponc-tuelle (c’est-à-dire d’un "pulse" à l’instant t = 0). Cette approche est appropriée pour agréger ou comparer entre eux des quotas d’émission provenant de différents GES, comme dans le protocole de Kyoto. Mais elle ne l’est pas lorsque l’on considère des émissions « pérennes », c’est-à-dire des émissions continues correspondant à l’émis-sion ininterrompue de pulses aux instant t = 0, t = 1, t = 2… dont l’effet sur une période donnée doit être inté-gré sur l’ensemble de cette période. Le méthane ayant un effet fortement centré sur les premières décennies suivant son émission, on montre que ce calcul en

Figure 3 : Evolution avec le temps des pouvoirs de réchauffement cumulé (AGWP) du méthane et du gaz carbonique. On voit que le pouvoir de réchauffement cumulé du CH4 atteint une asymptote après 50 ans environs alors que celui du CO2 continue à croître.

La courbe noire donne le pouvoir de réchauffement relatif du CH4 par rapport au CO2 qui résulte du quotient entre les deux grandeurs.Source : GIEC AR5 (2013).

jphauet
Rectangle
Page 11: Aperçu du numéro 2015-2 de la REE (mai 2015)

dĂƌŝĨƐϮϬϭϱ;ĞŶĞƵƌŽƐͿ;DĞƌĐŝĚĞĐŽĐŚĞƌůĂĐĂƐĞĚĞǀŽƚƌĞĐŚŽŝdžͿ

^ƚĂŶĚĂƌĚZĞƚƌĂŝƚĠƐĞŶƐĞŝŐŶĂŶƚƐũĞƵŶĞƐĂĐƚŝĨƐ;фϯϱĂŶƐͿ

ƚƵĚŝĂŶƚƐĞŶƌĞĐŚĞƌĐŚĞĚĞŵƉůŽŝ

AbonnementREE(1) FranceetUE:140,00€TTC HorsUE:150.00€(HT)AbonnementREEͲTarifspécialAdhérentsSEE(1)(2) FranceetUE:60,00€TTC HorsUE:70.00€(HT)

AccèseͲREE–FormuleSolo(3) 90,00€TTC 50,00€TTC 10,00€TTCAdhésionSEE(incluantaccèseͲREE)–FormuleDuo 125,00€TTC 81,00€TTC 15,00€TTC(1)Lescinqnuméros2015–Distributionpostale(2)Accès eͲREEincluspourles adhérentsSEEͲ Adhésionensus.(3)AccèsauxpublicationsélectroniquesdelaSEE,ouvertpendantunanàcompterdeladatedesouscription.

Nometprénom:………………………………………………………………….N°demembreSEE:……………………………………………………………..Adresse:…………………………………………………………………………………………………………………………………………………………………………………………

Codepostal Ville:……………………………….Pays:…………………………………………………………………………………..eͲmail:………………………………………………………………………………..Date,signatureetcachetdel’entreprise,s’ilyalieu:

Jerèglelasommede:…………………….……€par Chèqueàl’ordredelaSEE Cartebancaire(Visa,Eurocard/Mastercard,AmericanExpress)N°Carte Datedevalidité Cryptogramme Jedésirerecevoirunefactureaunomsuivantpourpaiementàréception:……………………………………………………………………………………….Adresse:…………………………………………………………………………………………….

Codepostal Ville:……………………………….………….Pays:………………………………………N°TVAintracommunautaire:…………………………………………………………….ObligatoirepourrèglementHTenUEhorsdeFrance

Conformémentàlaloidu06/01/1978,vousdisposezd’undroitd’accèsauxinformationsquivousconcernentetderectification.ContacterleserviceAbonnementsdelaSEE.

BULLETIN D’ABONNEMENT 2015 AretourneràlaSEE–17ruedel’AmiralHamelin–75783Pariscedex16– France–Fax:331 56903719–[email protected]

Abonnement en ligne : www.see.asso.fr/ree

Page 12: Aperçu du numéro 2015-2 de la REE (mai 2015)

REE N°2/2015 Z 23

Retour sur… Le radar MIMO

L'ARTICLE INVITÉ

Taking benefit of new AESA (Active Electronically Scanned Array) radar architecture, the MIMO (Multiple Input Multiple Output) radar concept aims at improving radar performances and in particular its ability to achieve simultaneous surveillance over a wide domain while optimizing the resolution in the angular, range and Doppler dimensions. In this presentation, the main characteristics and challenges of MIMO radar are described:

ABSTRACT

JEAN-PAUL GUYVARCHThales Senior radar expert

Figure 1 : RIAS (Radar à impulsion et antenne synthétiques).

Introduction

L ’acronyme anglo-saxon “MIMO” (Multiple Input Multiple Output) a pour origine le domaine des communications hertziennes. Par opposi-tion aux systèmes “SISO” (Single Input Single

Output), le signal à transmettre est émis par plusieurs voies d’émission et reçu en parallèle par plusieurs voies de récep-tion (antennes et récepteurs). Le but est d’améliorer les per-

formances, notamment le débit, tout en n’augmentant pas la largeur spectrale globale utilisée. Les performances sont optimales quand le codage des différentes voies MIMO est orthogonal et que le nombre de voies de réception est au moins égal au nombre de voies d’émission.

Ce concept MIMO appliqué au radar (antenne, co-loca-lisée ou non, comportant plusieurs voies d’émission et de réception) n’est pas réellement nouveau, les premiers tra-vaux théoriques sur ce thème remontant à la fin des années 60 [1]. La dénomination du concept n’était alors pas le terme “MIMO”mais plutôt « antenne à codage spatio-temporel », ou

Page 13: Aperçu du numéro 2015-2 de la REE (mai 2015)

24 ZREE N°2/2015

L'ARTICLE INVITÉ

encore à « émission colorée ». Il faudra attendre une dizaine d’années pour qu’un prototype d’un tel radar soit expérimen-té (le radar RIAS [2] (figure 1) réalisé en coopération par Thomson CSF – aujourd’hui la société Thales – et l’ONERA).

Les réseaux d’émission et de réception sont circulaires et concentriques. Le réseau d’émission comporte 25 émetteurs en bande VHF qui apparaissent sous forme de pylônes verti-caux dans l’image (figure 1).

Ensuite, dans les années 1990 et 2000, les innovations des radars terrestres se situeront davantage dans des do-maines de fréquence plus élevés (en particulier la bande S aux environs de 3 GHz), avec des antennes à balayage élec-tronique intégrant de façon co-localisée émission et récep-tion. La dernière évolution en la matière est le concept AESA (Active Electronically Scanned Array) où l’émetteur de forte puissance est remplacé par une pluralité de modules actifs état solide.

C’est cette architecture à voies d’émission multiples (et indépendantes) qui permet de s’intéresser de nouveau au radar MIMO, mais cette fois en longueurs d’onde déci ou centimétriques, avec des antennes émission/réception com-pactes. Il faut par ailleurs noter que ce nouveau concept de-mande une puissance de calcul temps réel qui n’est acces-sible à des coûts raisonnables que seulement depuis peu.

Comme dans le domaine des télécommunications, le but est d’améliorer les performances du radar, et en parti-culier sa capacité à assurer simultanément plusieurs fonc-tions (ou mesures) tout en garantissant des caractéristiques optimales du point de vue de la résolution (angles, distance et Doppler). On verra par contre que la notion de codes orthogonaux des télécommunications n’est pas directe-ment transposable au radar et que le concept mathéma-tique fondamental qui sous-tend le radar MIMO est celui de fonction d’ambiguïté généralisée. L’un des challenges est notamment de s’affranchir des problèmes de lobes secon-daires, a priori plus critiques que pour les formes d’onde radar classiques.

Applications

Les bénéfices apportés par le MIMO concernent plusieurs catégories de radar, en permettant notamment une meil-leure prise en compte de modes multiples simultanés (par exemple modes air-air et imagerie terrestre pour les radars aéroportés ou encore les multi-missions des radars terrestres et de surface – figure 3).

Pour des radars devant effectuer des missions de sur-veillance sur de grands domaines, la nécessité d’augmenter les temps d’analyse pour mieux rejeter le fouillis, demande d’élargir le faisceau d’émission. L’élargissement par émission colorée (ou MIMO) a pour avantage d’ajouter une informa-tion spatiale dans le signal émis.

Citons enfin des avantages concernant la résistance à des conditions de propagation difficiles (notamment le multi-tra-jet) et la résistance au brouillage.

Principe de base

Le principe du radar MIMO est décrit par le schéma de la figure 4.

Chaque élément du réseau d’émission T rayonne sur un large domaine angulaire un signal distinct (représenté par les couleurs violet, bleu vert et orange). Du fait des recom-binaisons en phases différentes de ces signaux suivant les directions, les signaux émis en champ lointain dépendent de l’angle (représenté en rose pour la direction du premier avion et en vert clair pour le second). Autrement dit, les deux

Figure 2 : Radar Thales à AESA.

Figure 3 : Modes air-air et SAR simultanés.

Figure 4 : Principe du MIMO radar.

Page 14: Aperçu du numéro 2015-2 de la REE (mai 2015)

REE N°2/2015 Z 25

L'ARTICLE INVITÉ

avions représentés sur la figure reçoivent des signaux diffé-rents : l’espace est donc « codé » (différents signaux dans les différentes directions). A la réception le réseau R effectue une « formation de faisceau par le calcul » (ou DBF : Digi-tal Beam Forming) dans chaque direction, comme dans les radars de type AESA déjà existants. Par rapport à ces derniers qui doivent émettre un faisceau large pour éclairer simultané-ment les deux avions, l’intérêt est immédiat : avec le MIMO on a ajouté une capacité de directivité angulaire à l’émission, en plus de la directivité angulaire à la réception (DBF), tout en conservant l’analyse simultanée de tout le domaine angulaire.

Remarques : pour des raisons de clarté, les réseaux T et R sont représentés non co-localisés, mais le concept MIMO se généralise sans difficulté particulière à des réseaux co- localisés (avec des modules émission réception T/R intégrés).

De même une seule direction angulaire est représentée, mais le concept MIMO est parfaitement compatible avec des réseaux 2D.

La remarque en introduction sur l’utilisation de codes orthogonaux se justifie également très simplement : comme on s’intéresse à des cibles qui peuvent être situées à des dis-tances différentes, il ne suffit pas que les codes (vert, bleu…) soient orthogonaux pour garantir une bonne séparation à la réception. Il faudrait qu’ils le soient également pour tous les décalages temporels, ce qui en pratique n’est pas réalisable.

Dans un radar classique, le traitement en réception s’ap-puie principalement sur le concept de « filtrage adapté » qui consiste à effectuer une corrélation entre le signal reçu et une réplique du signal émis. Ce calcul permet de détecter la présence de cibles et de déterminer leur distance. Quand le radar et/ou les cibles sont mobiles, la fréquence du signal reçu est modifiée par effet Doppler. La mesure de ce déca-lage de fréquence permet également de déterminer la vitesse relative entre radar et cible. Une forme d’onde idéale devrait permettre d’effectuer ces mesures distance et vitesse sans aucune ambiguïté, ce qui dans un espace à deux dimensions (distance-vitesse) serait représenté par une fonction de type « Dirac » (un pic central, et un niveau nul partout ailleurs). Il n’est malheureusement pas possible de concevoir une telle forme d’onde idéale (impossibilité mathématique) et chaque forme d’onde réelle peut être caractérisée par une fonction dite « d’ambiguïté » qui montre comment les mesures ef-fectuées sur une cible donnée peuvent être perturbées par la présence d’autres échos situés dans le domaine de re-cherche, en particulier si leur niveau est fort en comparaison du niveau de la cible recherchée.

Pour un radar MIMO, les traitements effectués en récep-tion peuvent être considérés comme une généralisation de cette notion de filtrage adapté. Comme représenté figure 4, les signaux reçus par des cibles situées dans des directions distinctes sont différents : il sera donc nécessaire en récep-

tion d’appliquer autant de filtres adaptés différents qu’il y a de directions d’intérêt dans l’espace de recherche des cibles (caractérisé dans le cas général par deux angles, comme par exemple gisement et élévation).

La généralisation de la fonction d’ambiguïté classique pour le radar MIMO est très complexe car aux dimensions distance et Doppler vont s’ajouter des dimensions angulaires (quatre dimensions supplémentaires en l’occurrence car en plus des écarts angulaires relatifs entre cible recherchée et échos parasites, il faut en général tenir compte également de la direction absolue de la cible recherchée). Pour une for-malisation mathématique de cette fonction d’ambiguïté à six dimensions, on pourra se référer à [3].

Afin de bien mettre en évidence cet aspect nouveau des radars MIMO, à savoir le couplage angle-distance, nous nous limiterons dans la suite de cet article à la présentation de coupes 2D de cette fonction d’ambiguïté suivant l’axe dis-tance et suivant une direction angulaire relative, et en suppo-sant de surcroît que l’effet Doppler est négligeable (ce qui est ici légitime car on se limitera à un traitement dans une seule impulsion radar de courte durée).

Tout l’enjeu des travaux en cours est de définir des codes MIMO (formes d’onde envoyées sur les différents éléments de l’antenne) qui présentent un bon compromis entre per-formances de résolution du radar (en particulier distance et angles) et niveau des lobes secondaires de la fonction d’ambiguïté (représentatifs des perturbations apportées par des échos parasites sur la mesure de la cible recherchée). Pour cela, deux approches complémentaires sont possibles : approche analytique ou approche par techniques d’optimisa-tion numérique.

Dans un deuxième temps, il sera nécessaire de vérifier la robustesse des solutions trouvées au regard des défauts du matériel (couplage entre éléments rayonnants, défauts des chaînes de transmission…). Afin d’optimiser les per-formances globales du radar, il sera également souhaitable de redéfinir les traitements à la réception pour s’adapter au mieux aux défauts résiduels. Des techniques spécifiques et prometteuses sont étudiées dans ce cadre : filtrage désa-dapté, adaptatif, compressed sensing… Enfin il semble éga-lement intéressant d’adapter les codes émis, en fonction du contexte (concept d’adaptativité à l’émission).

Exemples de codes MIMO

En reprenant les conventions de [3], les codes appliqués sur le réseau d’antenne peuvent être représentés par le sché-ma de la figure 5.

Chaque élément Wnm représente l’élément de code (en phase, en amplitude, en fréquence…) appliqué au signal radiofréquence de base (la porteuse) à l’instant m sur l’élé-ment rayonnant ou sous-réseau (subarray) n. Un radar émet

jphauet
Rectangle
Page 15: Aperçu du numéro 2015-2 de la REE (mai 2015)

REE N°2/2015 Z 29

Introduction LES GRANDS DOSSIERS

« – Et qu’est-ce qu’on brûlera à la place du charbon ?– L’eau, répondit Cyrus Smith.– L’eau, s’écria Pencroff, l’eau pour chauffer les bateaux à vapeur et les locomotives, l’eau pour chauffer l’eau !– Oui, mais l’eau décomposée en ses éléments constitutifs, répondit Cyrus Smith, et décomposée, sans doute, par l’électricité, qui sera devenue alors une force puissante et maniable, car toutes les grandes découvertes, par une loi inexplicable, semblent concorder et se compléter au même moment. Oui, mes amis, Je crois que l’eau sera un jour employée comme combustible, que l’hydrogène et l’oxygène, qui la constituent, utilisés isolément ou simultané-ment, fourniront une source de chaleur et de lu-mière Inépuisables et d’une intensité que la houille ne saurait avoir. »

Ainsi Jules Verne, au travers de ses personnages de l’Ile mystérieuse, exprimait-il sa foi dans l’avenir de l’hydrogène, il y a maintenant 140 ans.

Plus récemment, Jeremy Rifkin publiait en 2002 “The Hydrogen economy”, ouvrage dans lequel le célèbre prospectiviste préconisait de suivre la route de l’hydrogène pour se libérer de la dépendance du Moyen-Orient et pour assurer à chacun un libre accès à l’énergie.

Mais pendant longtemps l’avènement de la civi-lisation de l’hydrogène n’a été perçu que comme une perspective lointaine associée à la disponibilité massive d’électricité, en provenance par exemple de la fusion thermonucléaire. L’usage de l’hydro-gène est d’ailleurs encore aujourd’hui essentielle-ment centré sur les applications industrielles, telles que le raffinage, la fabrication du méthanol et de l’ammoniac ou le traitement anti-oxydation des métaux. A l’heure actuelle, l’hydrogène reste en outre fabriqué à 95 % à partir de combustibles fos-siles par des réactions de reformage à la vapeur, ou vapo-reformage, qui sont connues depuis la fin du XVIIIe siècle et qui sont voisines de celles utilisées jadis pour la production du gaz de ville à partir de la houille. Un tel procédé a un impact fortement néga-tif sur le plan de l’émission de gaz à effet de serre.

Plusieurs facteurs amènent aujourd’hui à recon-sidérer la situation.

Tout d’abord, sur le plan technique, des progrès importants ont été accom-plis dans le domaine des piles à com-bustible fondées sur la technologie PEM qui se sont très significativement développées au Japon, sous l’égide de Tokyo Gas et d’un consortium de grands industriels dont Panasonic, sous forme de systèmes domestiques de micro- cogénération dont 100 000 exemplaires

ont été installés à ce jour. Ce succès a conduit le METI a publié, en juin 2014, une feuille de route stratégique pour le développement de l’hydrogène avec un objectif de plus de cinq millions de piles à combustible installées dans le secteur domestique en 2030.

Ces progrès ouvrent la voie non seulement à une démocratisation et à une fiabilisation des piles à combustible à hydrogène mais aussi à des électro-lyseurs à membranes de bien plus grande capacité que ceux que l’on sait construire aujourd’hui. De tels électrolyseurs pourraient produire de l’hydro-gène par une voie décarbonée à un prix de revient pouvant, à terme, concurrencer celui du vapo-re-formage.

Dans le même temps, du fait du nouveau contexte climatique et énergétique, de nouveaux domaines d’application de l’hydrogène sont appa-rus dans le secteur de l’énergie. Ces domaines sont schématiquement au nombre de deux :

-drogène apparaît comme l’un des moyens pos-sibles pour se libérer de la dépendance vis-à-vis des hydrocarbures. L’annonce par Toyota de la commercialisation d’une berline, la Mirai, fonc-tionnant à l’hydrogène, est venue conforter la cré-dibilité d’une telle filière ;

apparu que l’électrolyse pouvait être un moyen de convertir en hydrogène l’électricité qui devient excédentaire à certaines périodes et de facili-ter ainsi l’accroissement de la part accordée aux énergies renouvelables dans les mix électriques. L’hydrogène ainsi produit peut être injecté en proportion limitée (quelques %) dans les réseaux de gaz naturel : c’est le “Power to Gas”. Mais cer-tains envisagent d’aller plus loin et de convertir

L’hydrogène : le grand débat

Jean-Pierre Hauet Président ISA-France

Page 16: Aperçu du numéro 2015-2 de la REE (mai 2015)

30 ZREE N°2/2015

un jour en méthane l’hydrogène, par réaction de méthanation, c’est-à-dire par réduction du CO2 par l’hydrogène, afin de rendre possible des injec-tions beaucoup plus massives sur le réseau d’un méthane devenu propre.

Il existe évidemment diverses variantes à ces filières dont chacune a aujourd’hui ses supporters. Un débat s’est donc engagé sur la place qui peut ou qui doit être réservée à l’hydrogène dans la transition énergétique. Ce débat est passionné et rappelle celui que l’on a connu, il y a 30 ou 40 ans sur l’avenir des filières électrosolaires. Le Gouverne-ment en a pris conscience en confiant le 12 février 2015 une mission de réflexion au Conseil général de l’économie et au Conseil général de l’environne-ment et du développement durable sur les enjeux de l’hydrogène et sur les mesures propres à lever les freins au développement de cette filière.

La REE a souhaité s’inviter dans le débat et publie dans ce dossier les contributions d’un panel d’ex-perts de l’industrie et des grands établissements publics concernés par l’hydrogène. On le verra im-médiatement à la lecture de ces différents articles, les positions ne sont pas concordantes sur l’effort à engager. Il est vrai que, si tout le monde s’accorde à reconnaître que l’hydrogène est une filière d’avenir qu’il faut encourager au niveau de la recherche, les avis divergent sur son degré de maturité technique et économique.

Sur le plan technique, beaucoup d’étapes restent à franchir pour parvenir à des modes de produc-tion, de transport, de stockage et d’utilisation qui soient performants, fiables et sûrs. Entre les élec-trolyseurs à membrane de quelques centaines de kW aujourd’hui disponibles et ceux de 50 MW et plus qu’il faudrait construire pour absorber des ex-cédents éventuels d’électricité de plusieurs dizaines de TWh, il existe une marge considérable. Mention-nons aussi que le stockage de l’hydrogène, sur les véhicules par exemple, se fait à une pression attei-gnant 700 bars. Les problèmes de sécurité sont évi-demment essentiels pour permettre l’acceptabilité sociétale de la filière. Le souvenir de l’accident du Zeppelin Hindenburg en 1937 s’est estompé dans les mémoires mais la prudence reste de rigueur.

Cependant, c’est sur le plan économique que la controverse semble la plus vive. D’aucuns estiment que, dans l’état actuel de la technique et des mar-chés, la filière hydrogène est encore très éloignée de la compétitivité, surtout pour les applications

nouvelles de mobilité et de stockage de l’énergie. Selon les évaluations, les écarts à résorber se situe-raient dans des rapports allant de trois à dix, voire davantage si l’on considère la méthanation envisa-gée pour retransformer l’hydrogène en électricité. L’instauration d’un prix du CO2 « correct » serait très insuffisante pour combler de tels écarts sauf à envi-sager des montants exorbitants.

Il est vrai que la filière hydrogène souffre dans la plupart de ses acceptions de la multiplication des rendements. Dans la chaîne « mobilité » par exemple, qui n’est pas la moins bien placée, il faut d’abord produire l’électricité, la transformer en hy-drogène dans un électrolyseur puis retransformer l’hydrogène en électricité dans la pile à combus-tible : pertes de rendement et surcroît d’investisse-ment. Mais l’hydrogène peut apporter l’autonomie qui fait aujourd’hui défaut aux véhicules électriques.

Certains accusent aussi l’hydrogène d’être le passager clandestin des filières établies. Il est vrai que prendre comme nul, voire négatif, l’excédent de production d’électricité d’origine renouvelable relève d’un calcul marginal de court terme et n’a pas de sens en développement. De même, consi-dérer comme gratuite l’injection de l’hydrogène dans les réseaux de gaz, n’a pas de fondement si l’on doit renforcer les réseaux pour transporter des quantités accrues.

L’évaluation du contenu en CO2 de l’hydrogène et de ses usages deviendra également un épineux problème comme l’est aujourd’hui celui du contenu en CO2 du kWh électrique1, car l’électricité décarbo-née, sauf à provenir du nucléaire, ne sera disponible que de façon intermittente. Or l’amortissement des investissements de la chaîne hydrogène se fera d’autant mieux que la durée de fonctionnement sera longue. Mais revenir à la technique du refor-mage pour saturer les investissements relèverait de la politique de Gribouille.

Tous ces arguments ne doivent pas pour autant inhiber l’action. Le problème fondamental est de bien ajuster la position du curseur, entre l’immobi-lisme et le soutien prématuré à des solutions non matures qui, comme on l’a vu à plusieurs reprises dans le passé, peut s’avérer extraordinairement dispendieux pour les finances publiques et pour le consommateur.

1 Le lecteur pourra se reporter au « Gros Plan sur… » publié dans la revue REE 2014-5.

LES GRANDS DOSSIERS Introduction

Page 17: Aperçu du numéro 2015-2 de la REE (mai 2015)

REE N°2/2015 Z 31

Introduction LES GRANDS DOSSIERS

Le “Power to Gas” - Comment relever le défi du stockage de l’électricité ? Par Philippe Boucly ........................................................................................................................................................ p. 32

L’hydrogène dans la transition énergétique : quels défis à relever ? Par Etienne Beeker ........................................................................................................................................................ p. 39

L’hydrogène, essentiel aujourd’hui, indispensable demain Par Pascal Mauberger, Philippe Boucly, Aliette Quint, Hélène Pierre, Paul Lucchese, Valérie Bouillon-Delporte, Bertrand Chauvet ................................................................................................. p. 46

L’hydrogène électrolytique, une solution de la transition énergétique ? Par Annabelle Brisse, Ludmila Gautier & Sylvain Hercberg .......................................................................... p. 53

Développement de systèmes d'électrolyse de forte puissance : nécessité et approche Par Marc De Volder ..................................................................................................................................................... p. 58

L’hydrogène vecteur énergétique Potentiel et enjeux : une mise en perspective Par Jean-François Gruson, Pierre Marion ........................................................................................................... p. 67

Toyota Fuel Cell System : une nouvelle ère pour l’automobile Par Sébastien Grellier ................................................................................................................................................. p. 72

L’hydrogène dans la transition énergétique. Trois facteurs clés : la production, les applications à la mobilité et l’acceptation par le public Par Jean-Guy Devezeaux, Christine Mansilla, Elisabeth Le Net, Alain Le Duigou ............................... p. 76

L’hydrogène, fée bienveillante ou démon tentateur Par Jacques Maire ........................................................................................................................................................... p. 81

LES ARTICLES

Une indication importante est que, pour les ap-plications industrielles, la demande en hydrogène restera forte. Par conséquent, l’approvisionne-ment de ces marchés par un hydrogène décarboné constitue à la fois un débouché et une priorité, dès lors que l’on cherche à réduire les émissions de CO2 et la dépen-dance vis-à-vis des énergies fos-siles. Cette seule considération justifie l’intérêt porté aujourd’hui aux nouveaux électrolyseurs à membranes voire à oxydes céra-miques.

En complément à ces débou-chés traditionnels, il existe des marchés de niches (alimenta-tions de secours ou de relais iso-lés, chariots élévateurs, etc.) qui sont décrits dans le dossier et qui

peuvent servir de marchepieds à des usages plus massifs de l’hydrogène.

Au-delà et en ce qui concerne les débouchés vraiment nouveaux de l’hydrogène, la question posée est de savoir s’il faut rester au stade de la re-

cherche ou bien passer à celui des démonstrateurs à grande échelle voire à celui du soutien à grande échelle de la filière. Il est essen-tiel de suivre très attentivement la situation au Japon et en Corée qui semblent aujourd’hui mener le peloton de la course à l’hydro-gène. Il est heureux enfin que nos ministres chargés de l’industrie et l’énergie aient décidé de se saisir du problème afin d’élaborer une politique publique qui soit à la fois constructive et raisonnable. Q

Jean-Pierre Hauet est membre émérite de la SEE et rédacteur en chef de la REE. Il est Président de l’ISA-France. Ingénieur au Corps des mines, il a dirigé les Laboratoires de Marcoussis du groupe Alcatel-Alsthom et a été Chief Technology Officer du Groupe ALSTOM. Il est l’auteur du livre « Comprendre l’énergie – Pour une transition énergétique responsable » paru aux éditions L’Harmattan en avril 2014.

Page 18: Aperçu du numéro 2015-2 de la REE (mai 2015)

32 ZREE N°2/2015

L'HYDROGÈNEDOSSIER 1

Le “Power to Gas” 'SQQIRXVIPIZIVPIHqÁHYWXSGOEKIHIP¸qPIGXVMGMXq#

Par Philippe BouclyConseiller spécial de GRTgaz

In the general context of energy transition, in order to keep climate change below 2°C, the power sector will experience strong changes. In the future, more and more electricity will be produced from

renewable sources, mainly PV and wind, whose production is subject to great variability. Consequently, the power system will have to adapt and cope with the challenge of electricity storage. All the traditional means (superca-pacitors, batteries, compressed air energy storages, heat, pumped hydro energy storages) are not convenient to store big quantities of power on a seasonal basis. Only “Power to Gas”, which consists in the conversion of electricity into hydrogen through electrolysis, is able to bring the required flexibility to the system and is the right answer to such challenge. Power to Gas brings a lot of benefits: to make value out of existing infrastructures, i.e. natural gas transmission network, to bring ancillary services to the power system, to integrate variable renewable energies to the energetic system and therefore to produce local energy and improve the commercial balance of the country. Power to Gas is a mature technology. To bring it on stream it is important to develop pilot projects with the aim to establish a favorable and stable regulatory and legal framework, to improve business models, to decrease cost through standardization and industrialization of the production processes of the components.

ABSTRACT

Un défi : l’intégration des énergies renouvelables

Dans un contexte général de tran-sition énergétique, les marchés de l’électricité et de gaz sont en pleine mutation. Avec l’introduction pro-gressive des énergies renouvelables (éolienne, solaire) dans les systèmes énergétiques, les économies sont en train de changer de paradigme. Dans le monde actuel, la production s’adapte à la consommation : l’opérateur du ré-seau électrique appelle ou arrête des moyens de production en fonction des besoins de consommation qu’il anticipe. Dans le futur, avec une élec-tricité produite essentiellement avec des moyens renouvelables – produc-tion par essence aléatoire, variable et intermittente – l’adaptation de la pro-duction à la consommation sera plus complexe compte tenu de la nature de cette production renouvelable. On comprend ainsi que la question-clé, « le Graal de la transition énergétique » est la question du stockage de l’électri-cité. En d’autres termes, en termes plus

poétiques, pour reprendre une expres-sion de Joël de Rosnay, « Comment mettre le soleil en conserve ? ».

Ainsi, est apparu dans la littérature consacrée à la transition énergétique le concept de “Power to Gas”.

Le “Power to Gas” consiste en la transformation en hydrogène par élec-trolyse de l’eau des excédents d’électri-cité (d’origine renouvelable), l’excédent étant par définition la production pos-sible au-delà de la quantité nécessaire à la consommation.

L’hydrogène produit peut alimenter toutes les applications habituelles de l’hydrogène :

hydrogène industriel : comme ma-tière première “Power to Chemical” ou pour créer des atmosphères ré-ductrices, ou améliorer les échanges thermiques dans certains procédés. Actuellement, l’hydrogène utilisé dans l’industrie provient essentiellement à 95 % du réformage du gaz naturel avec pour conséquence un très mau-vais bilan carbone (10 kg de CO2 par kg d’H2 produit !) ;

hydrogène pour la mobilité (Power to Mobility) : l’hydrogène est utilisé dans des piles à combustibles pour alimenter des véhicules électriques ou en mélange avec du gaz naturel pour alimenter des moteurs à combustion interne ;hydrogène pour la production d’électricité "Power to Power” pour des systèmes isolés (off grid) ou des systèmes insulaires ; l’hydrogène peut également être injecté dans les réseaux de gaz na-turel, directement ou sous forme de méthane de synthèse après métha-nation, c’est-à-dire recombinaison de l’hydrogène avec du gaz carbonique (issu d’installations de capture de CO2 ou d’installations de méthanisation par exemple) selon la réaction de Sabatier (c’est parfois cette seule application que certains appellent “Power to Gas”).

Permettant de transformer en gaz les surplus d’électricité, le Power to Gas per-met ainsi de créer des passerelles entre les réseaux électriques et gaziers. Sur un plan historique, il faut se souvenir que

Page 19: Aperçu du numéro 2015-2 de la REE (mai 2015)

REE N°2/2015 Z 33

Le “Power to Gas” Comment relever le défi du stockage de l’électricité ?

le concept de “Power to Gas” était déjà apparu en France dans les années 70, au moment du lancement du programme nucléaire français où l’on pensait utiliser l’électricité nucléaire des heures creuses pour produire de l’hydrogène. Puis le concept a disparu pour ne réapparaître que très récemment en 2009 (une modélisation allemande d’un approvi-sionnement électrique 100 % renouve-lable présentée en 2008 à la chancelière allemande Angela Merkel ne mentionnait pas ce concept !).

Le “Power to Gas” : un moyen de stocker massivement l’électricité

GRTgaz a commencé à étudier ces questions dès 2011 confiant une première étude au consultant E-cube1. L’étude a consisté en la modélisation heure par heure de l’équilibre offre/demande d’électricité, en simulant la variabilité des différents facteurs (production éolienne, photovoltaïque, demande d’électricité) sur la base de données historiques.

L’étude se place dans un scénario ré-solument ambitieux pour le développe-ment des renouvelables en France, celui du scénario 2050 de l’ADEME2, (puis-sances en éolien et en photovoltaïque : 70 000 MW et 60 000 MW respecti-vement). L’étude évalue les surplus de production d’électricité, le surplus étant défini comme :Surplus = Nucléaire + Eolien + Photo-voltaïque + Hydraulique fatal (i.e.au fil de l’eau) – Consommation intérieure.

L’étude met ainsi en évidence un surplus de 75 TWh (à comparer à une consommation actuelle d’électricité de 485 TWh) mais surtout étudie la réparti-tion de ces surplus d’électricité au cours de l’année. Ceci est particulièrement impor-

1 http://www.grtgaz.com/fileadmin/ t r a n s i t i o n _ e n e r g e t i q u e / d o c u m e n t s / hydrogene_et_reseau_e-cube_GRTgaz.pdf

2 Agence française pour l’environnement et la maîtrise de l’énergie.

tant puisque cette répartition conditionne le mode de traitement des excédents. Ainsi, 80 % de ces surplus, soit 60 TWh, proviennent de périodes supérieures à 12 heures et 1/3 des surplus environ de périodes de 3 jours à 1 semaine.

Différentes solutions sont en effet envisageables pour valoriser ces surplus d’électricité :

maîtrise de la demande de l’énergie (MDE ou “demand response manage-ment”).

C’est tout l’enjeu des « smart grids ». Avec le développement croissant de l’interaction avec le client à l’aide de moyens informatiques – le client lui-même souhaitant être plus actif (consom-acteur ou « prosumer ») – il sera possible d’adapter jusqu’à un certain point la consommation à la production. Pour les clients indus-triels, il est également envisageable de moduler la consommation en agissant sur le processus industriel. Dès à pré-sent, des « agrégateurs » apparaissent et proposent des offres de délestage pour des ensembles de clients ;stockages traditionnels : ce sont essentiellement des moyens tels les STEP (Stations de Transfert d’Energie par Pompage), les volants d’inertie, les

super-condensateurs et les batteries, ainsi que les cavités de stockage d’air comprimé (CAES : Compressed Air Energy Storage).

La technologie du CAES est aujourd’hui encore au stade du développement. Deux cavités sont en service actuel-lement dans le monde : Huntorf (Allemagne), créée en 1978 (290 MW – 8 h de stockage) et Mac Intosh (USA) créée en 1991 (110 MW – 26 h de stockage). Des projets seraient à l’étude dans différents pays.

Le stockage d’énergie par pompage hydraulique grâce aux STEP (Stations de Transfert d’Energie par Pompage) est une technologie mature. En France, la puissance installée totale est de 4 200 MW avec en particulier deux grosses unités : Montezic (870 MW – 40 h et Grandmaison (1 160 MW – 30 h). Les quantités d’énergie stockables dans ces installations sont de l’ordre de 35 GWh à chaque cycle pompage/turbinage. Leur développement reste cependant soumis à l’acceptation des populations concernées. Des exemples récents en France montrent leur extrême sensibilité à cette question ;exportations : les surplus de produc-tion peuvent être exportés vers les

Figure 1 : Capacité énergétique et constante de temps des différentes solutions de stockage d’électricité - Source : GRTgaz.

Nota : La constante de temps d’un stockage est égale au ratio « Capacité énergétique/Puissance maximale » du stockage. Elle caractérise le temps mis par un stockage pour se vider (ou se charger) entièrement lors d’un fonctionnement à puissance maximale. Son unité est une unité de temps (le plus souvent, l’heure).

jphauet
Rectangle
Page 20: Aperçu du numéro 2015-2 de la REE (mai 2015)

REE N°2/2015 Z39

L'HYDROGÈNE DOSSIER 1

L'hydrogène dans la transition énergétique :

UYIPWHqÁWkVIPIZIV#Par Etienne Beeker

Chargé de mission énergies à France Stratégie

Since Jules Verne and the 19th century, hydrogen continues to be held in exceptional esteem and projects using this gas surface regularly, usually triggered by oil crises. It could indeed replace hydro-

carbons for applications such as power generation, mobility and heating if resources become exhausted or in the fight against climate change. In addition, hydrogen's ability to be produced locally by wind or solar farms has given rise to numerous experiments, particularly in Germany both for energy storage and for "carbon-free" mobility. However, before being able to be developed at a large scale, hydrogen solutions still face big challenges. Today, hydrogen is only produced for industrial purposes using a process that emits CO2. It is possible to avoid it by electrolyzing water, but the efficiency is poor and the costs are high. The hydrogen produced will be in economic competition with gas, for which reserves have been multiplied by the discovery of unconventional resources. Hydrogen powered vehicles seem unable to compete with combustion or electric powered vehicles for a long time because fuel cell technology is not yet economically mature. Additionally, the deployment of a distribution infrastructure would be quite costly. Safety issues are of first importance in the use of this gas particularly volatile and inflammable.

ABSTRACT

L’hydrogène, un vecteur énergétique qui devra se faire une place dans un paysage énergé-tique en pleine mutation

Au XIXe siècle, Jules Verne faisait déjà rêver avec les propriétés de l’élec-tricité et de l’hydrogène. Aujourd’hui ce gaz continue de bénéficier d’une aura exceptionnelle. Sa combustion ne générant que de l’eau pure, il est perçu comme « propre » et des projets repo-sant sur l’utilisation de l’hydrogène font régulièrement surface, généralement suscités par les crises pétrolières. En effet, il pourra remplacer les hydrocar-bures (production d’électricité, mobilité, chauffage, etc.) quand les ressources seront épuisées ou s’il s’impose écono-miquement pour lutter contre le chan-gement climatique.

Même si l’existence de réserves d’hy-drogène naturel a été mise en évidence dans certaines formations géologiques,

celui-ci est un vecteur énergétique qui nécessite une énergie primaire pour le produire :

reformage du méthane. Aujourd’hui, le marché industriel de l’hydrogène, déjà opérationnel (chimie et raffinage avancé) utilise presque exclusivement cette technique qui n’a pas un grand intérêt énergétique (voir le paragraphe 2 de cet article) ;

l’eau. Son coût dépend alors des prix du kWh, qui se sont récemment écrou-lés sur les marchés de gros (alors que les prix pour le consommateur final augmentent) et semblent offrir des espaces de rentabilité à certaines nouvelles applications, dont la produc-tion d’hydrogène. De grands acteurs comme Air Liquide, GDF Suez, le CEA ou Areva, en quête de relais de crois-sance, ou des start-up comme McPhy cherchent déjà à se positionner.

Outre-Rhin, c’est pour stocker les quantités massives d’énergies renou-velables (EnR) intermittentes de son “Energiewende” que l’Allemagne mise sur l’hydrogène. Ce pays a connu l’éclo-sion de nombreuses expérimentations, tant dans le stockage d’énergie que dans la mobilité « décarbonée ». Sa capacité à être produit et consommé localement grâce à des parcs éoliens ou solaires favoriserait une nouvelle gouvernance territoriale de l’énergie.

La question de la transposition de l’approche allemande à la France est posée explicitement dans le projet de loi sur la transition énergétique et la croissance verte débattu au Parlement au moment de la rédaction de ces lignes. Les deux grandes applications aujourd’hui envisagées sont :

le stockage d’électricité, en injectant directement dans les infrastructures gazières de l’hydrogène produit avec de l’énergie renouvelable excédentaire

Page 21: Aperçu du numéro 2015-2 de la REE (mai 2015)

40 ZREE N°2/2015

L'HYDROGÈNEDOSSIER 1

(“Power to Gas”). Il se retrouvera en compétition économique avec d’autres techniques de stockage et avec le gaz naturel dont les réserves ont explosé à la suite de la découverte de ressources non conventionnelles, modifiant l’équa-tion économique des solutions alterna-tives ; la mobilité hydrogène via le véhicule à hydrogène (« VH2 »), un véhicule élec-trique qui tire son énergie de l’hydro-gène transformé en électricité grâce à une pile à combustible. Une hybrida-tion des deux est aisée, une réserve d’hydrogène et une pile à combustible (PAC) permettant d’augmenter l’auto-nomie des véhicules électriques. Le VH2 se retrouvera en concurrence avec ses équivalents thermiques ou élec-triques, le moteur à explosion disposant encore de marges de progrès impor-tantes et les batteries électrochimiques voyant leurs performances s’améliorer et leurs coûts baisser régulièrement.

Afin d’être décarboné, l’hydrogène doit être produit par électrolyse, ce qui fait dépendre son coût de production des prix de l’électricité (ou par vapo-refor-mage du biométhane, mais l’intérêt éner-gétique reste à démontrer). S’ils sont très bas aujourd’hui, il est souhaitable qu’ils ne restent pas à des niveaux aussi bas de manière pérenne, car ceci est dû à un contexte de profond dysfonctionnement des marchés de l’électricité qui menace la situation financière des grands opéra-teurs européens et avec eux la sécurité d’approvisionnement1.

Des défis, parfois de taille, se dressent ainsi devant les promoteurs de ce nou-veau vecteur énergétique, laissant pla-ner un doute sur la capacité de la filière à trouver sa place dès aujourd’hui dans la transition énergétique.

1 Voir par exemple le rapport de janvier 2014 de France Stratégie « La crise du système élec-trique européen » : http://www.strategie.gouv.fr/blog/2014/01/rapport-la-crise-du-systeme-electrique-europeen/

Tout d’abord des défis techniques, l’hydrogène est un gaz difficile à mani-puler, transporter et à stocker en raison de sa faible densité, de sa forte volati-lité et de sa capacité à s’échapper par les moindres fissures (c’est la plus pe-tite molécule existant dans la nature). L’acceptation sociale de l’hydrogène dépend de la confiance du public en sa sûreté : plus que tout autre combustible, c’est un concentré d’énergie qui pré-sente des risques de feu et d’explosion ; il a la caractéristique d’exploser très faci-lement et violemment s’il est mélangé à de l’air.

Des défis économiques ensuite, car si l’électrolyse est un procédé déjà très ancien et techniquement bien maîtrisé et si les piles à combustible ont progres-sé techniquement, leur coût reste élevé et nécessite encore des évolutions pour accéder à la maturité économique. D’un point de vue systémique, l’utilisation de l’hydrogène nécessite de prouver la faisabilité technico-économique de la chaîne et de déterminer la manière dont celle-ci peut s’intégrer dans le sys-tème existant alors que des alternatives moins coûteuses existent. Dans le cas d’un développement de la mobilité hy-drogène par exemple, la mise en place des infrastructures de production décar-bonée et de distribution d’hydrogène à un coût raisonnable semble difficile-ment envisageable aujourd’hui.

Un peu de technique : intérêt comparé des molécules de CH4 et d’H2

Ces deux molécules peuvent toutes les deux réagir avec l’oxygène et donner lieu à une libération d’énergie. Pour pro-duire de l’énergie, la même molécule de CH4 peut être brûlée directement ou être utilisée pour produire de l’hydro-gène qui est ensuite brûlé mais avec un rendement global diminué : la com-bustion directe d’une quantité de CH4 génère 2,5 plus d’énergie que celle de

l’hydrogène produit par vapo-reformage (SMR2), de cette même quantité3.

Autrement dit, pour que l’hydrogène soit plus efficace dans une utilisation comme combustible automobile, il faut que le rendement global de la chaîne de traction (en particulier de la PAC qui « brûle » l’hydrogène) soit 2,5 fois celui d’une chaîne de traction classique (il est au mieux aujourd’hui de 1,5 fois). Cette condition remplie, deux questions restent cependant non résolues :

méthane n’évite pas les émissions de CO2. Des expériences comme celle menée à Port-Jérôme cherchent à le capter et la diffusion d’un tel procédé pour produire de l’hydrogène dédié à la mobilité permettrait effectivement de réduire très sensiblement les émis-sions de CO2 du transport. Cette expé-rimentation a néanmoins un coût qu’il convient d’estimer en incluant le stoc-kage du CO2 ainsi capturé, qui pose aussi des problèmes d’acceptabilité ;

-ractère renouvelable de la ressource. L’utilisation de biométhane (qui n’est que du méthane d’origine biologique) permet de résoudre en partie les questions de limitation des ressources, voire d’émissions de CO2 s’il est capté à la production. Il convient néanmoins d’en évaluer le coût et l’intérêt de le vapo-reformer à un endroit du réseau de gaz.

Avec l’exploitation de leurs ressources non conventionnelles, les Etats-Unis

2 “Steam Methane Reforming” ou vaporefor-mage du méthane qui consiste à « cracker » la molécule CH4 en H2 et CO2 en présence d’eau (H2O). 1 kg de CH4 génère 13,9 kWh. Vapo- reformé, il génère environ 0,16 kg d’H2 soit une valeur énergétique de 5,4 kWh.

3 Pour être exact, l’H2 est souvent un co- produit d’une autre activité, généralement de raffinage, et la chaleur générée par la réaction est souvent récupérée en partie. Ce pourrait ne plus être le cas si la production d’H2 était dédiée.

jphauet
Rectangle
Page 22: Aperçu du numéro 2015-2 de la REE (mai 2015)

58 ZREE N°2/2015

L'HYDROGÈNEDOSSIER 1

Développement de systèmes d’électrolyse de forte puissance : nécessité et approche

Par Marc De Volder Siemens SAS

The extension of power generation from renewable sources, such as wind power and photovoltaic is a major lever to achieve the ambitious targets to reduce the emission of carbon dioxide. Those sources

are extremely volatile. Therefore systems are needed to stabilize the grids and furthermore help to avoid excess generation and supply bottlenecks. Large-scale electrolysis systems convert water into hydrogen using for instance renewable energy. Thereby huge amounts of energy may become storable for long periods. Such PEM electrolysis systems must have a power of at least 50 megawatt and must technically also be able to operate highly efficiently in such an extreme dynamic environment. Siemens is pushing the upscaling and the production of such large-scale PEM electrolysis systems.

ABSTRACT

IntroductionCet article montre la nécessité de

disposer de systèmes d’électrolyse PEM de forte puissance, contrastant avec les installations existant actuellement sur sites industriels. En outre, il décrit les défis tant techniques que logistiques de l’industrialisation de tels systèmes ainsi que la nécessaire prise en compte des concepts de service et de sécurité. Pour terminer, quelques aperçus sur l’approche de Siemens sont donnés en termes de perspectives sur les plans d’action et sur les applications [1].

Avantages des systèmes d’électrolyse de forte puissance

La réduction des émissions de gaz à effet de serre n’est plus seulement une manifestation d’intérêt collectif de pure forme mais une réalité quantifiée et chiffrée. L’objectif de réduction des émissions de dioxyde de carbone a été fixé par l’Union européenne à 80 % pour l’horizon 2050 (base des chiffres de 1990) [2].

Des actions appropriées sont donc nécessaires dans tous les domaines constitutifs de l’économie nationale : production industrielle, transport, pro-duction d’énergie et secteur domes-tique. Les potentiels les plus prometteurs

sont perçus dans la façon de produire l’énergie électrique à partir d’énergies renouvelables telles que les énergies hydraulique, éolienne et solaire. La no-tion de production durable d’électricité devient par ailleurs un thème central au vu des annonces récurrentes de pénu-rie des ressources naturelles, qu’elles soient fossiles ou autres.

A l’inverse de l’énergie hydraulique, du fait de leurs caractéristiques fluctuantes, les énergies du vent et du soleil posent des problématiques prévisionnelles nou-velles aux producteurs d’électricité qui n’apparaissaient pas de manière aussi nette dans les modes conventionnels de production d’électricité à l’aide de cen-trales nucléaires, de turbines à gaz ou de centrales à charbon.

L’équilibre sur le réseau électrique entre la production et la consommation d’élec-tricité doit être assuré à tout moment [3]. Des créneaux horaires d’énergie excéden-taire apparaissent lorsque la demande est trop faible et que les besoins en énergie sont satisfaits. Les éoliennes au Nord ou à l’Est de l’Allemagne sont très souvent affectées par ce phénomène. Selon des études, plus de 400 GWh d’énergie éo-lienne ont été perdus en 2011. Environ 116 000 ménages auraient pu être ali-mentés pendant une année entière avec une telle quantité d’électricité [4].

Il existe également des situations où la consommation d’électricité réelle est plus importante que la capacité de pro-duction par les énergies renouvelables pour des raisons de période d’assom-brissement ou de calme éolien. Pour couvrir ces pics de demande à court terme, les centrales électriques à gaz et à charbon sont à disposition mais la motivation de leurs opérateurs a été fortement diminuée par les directives donnant la priorité aux énergies renou-velables. En effet, à côté de l’investis-sement, l’un des paramètres majeurs conditionnant la rentabilité d’une cen-trale, est son taux d’utilisation c’est-à-dire le nombre d’heures d’exploitation.

D’une manière générale, on constate un changement de paradigme chez les producteurs d’électricité qui, jusqu’à pré-sent, organisaient leur production autour de la demande. Un autre phénomène, le prix de l’électricité négatif, fait son appa-rition de plus en plus fréquemment. La gestion du mécanisme de l’offre et de la demande d’électricité est assurée par la Bourse de l’énergie de Leipzig (EEX : European Energy Exchange AG) et les périodes de temps durant lesquelles les consommateurs peuvent être rétribués pour leur consommation d’électricité ne sont plus rares. En 2011, cette situation s’est présentée pendant 2 % du temps.

Page 23: Aperçu du numéro 2015-2 de la REE (mai 2015)

REE N°2/2015 Z 59

Développement de systèmes d’électrolyse de forte puissance : nécessité et approche

Le paragraphe précédent montre deux choses : tout d’abord que la réduc-tion continue du dioxyde de carbone nécessite non seulement des solutions non carbonées ou, a minima, moins car-bonées pour la production de l’énergie électrique, mais aussi que l’expansion des énergies renouvelables nécessite qu’elles soient utilisées ou stockées, sans être forcément immédiatement injectées dans le réseau électrique, afin d’éviter d’avoir à compenser les différences entre production et consommation.

Il ne s’agit pas là de stockage de faibles quantités d’énergie pendant de courtes durées. Les études actuelles montrent que la demande de stockage pourrait aller jusqu’à 40 TWh en 2040, répartis sur des semaines voire des mois [5].

Dans cette perspective, d’intenses discussions ont lieu, non seulement sur les solutions à utiliser mais aussi sur la possibilité de recourir à des modes de stockage nouveaux. Les critères d’éva-luation et de comparaison sont la quan-tité d’énergie à stocker, la durée ainsi que la faisabilité technique et l’accepta-bilité sur le plan politique.

Les stations de transfert d’énergie par pompage (STEP) sont incontestable-ment les plus efficaces, mais elles sont sujettes à des restrictions géologiques. Les stockages d’énergie par air compri-mé et naturellement sur batteries sont des solutions en cours d’évaluation.

L’utilisation de l’hydrogène en tant que vecteur de transformation d’énergie via le processus d’électrolyse fait partie aujourd’hui de la réalité. De grandes quantités d’énergie allant jusqu’à plu-sieurs TWh peuvent être stockées pen-dant des mois pratiquement sans perte. Le principe de l’électrolyse scindant la molécule d’eau en hydrogène et oxy-gène est connu depuis le début du 19e siècle suite aux expériences de Johann Wilhelm Ritter. Tous les systèmes d’élec-trolyse ne sont cependant pas basés sur le même fonctionnement et chaque

technologie présente des avantages spécifiques en fonction du domaine d’application et du mode d’opération.

Dans le passé, les électrolyseurs al-calins ont été utilisés en continu, sans fluctuation d’énergie ou d’alimentation en eau, pour produire de l’hydrogène principalement à pression atmosphé-rique. Aucune flexibilité dans la pro-duction n’était alors demandée. De nos jours les exigences relatives aux carac-téristiques techniques des systèmes d’électrolyse ont changé énormément. Un comportement dynamique avec une dégradation minimale des matériaux est souvent préféré à la recherche de l’effi-cacité optimale : le vent arrive en bour-rasques, le soleil disparaît derrière les nuages, le tout dans un laps de temps de l’ordre de quelques secondes. Un système d’électrolyse doit en consé-quence pouvoir maîtriser des gradients d’énergie positifs ou négatifs abrupts de quelques secondes ou être arrêté durant des heures avant de supporter des situations de surcharges soudaines.

L’électrolyseur absorbe l’énergie excédentaire ou non ré-injectable dans le réseau et la convertit en hydrogène. En raison de leur grande dynamique,

les systèmes PEM peuvent être utilisés pour l’équilibrage du réseau électrique en assurant des connexions/décon-nexions rapides de la charge.

A l’inverse des systèmes alcalins, utili-sant des solutions potassiques, l’électro-lyseur PEM est équipé d’une membrane conductrice électrique qui permet des performances élevées en termes de pas-sage de densité de courant (figure 1). Cette membrane constitue en outre une séparation étanche entre les gaz (l’oxygène et l’hydrogène) pouvant supporter des ni-veaux de pression de 100 bars et plus.

Les électrolyseurs PEM, contraire-ment aux systèmes alcalins, n’ont pas be-soin d’être maintenus en température et peuvent être complètement arrêtés, ce qui élimine les coûts de fonctionnement à l’arrêt. Les purges du système à l’aide de gaz inerte ou l’application de tension pro-tectrice pour empêcher les électrodes de se décomposer ne sont pas nécessaires. Dès la mise sous tension, l’électrolyseur PEM commence à produire, sans aucune phase de préchauffage, ce qui favorise sa haute dynamique.

Jusqu’à présent les électrolyseurs PEM n’étaient disponibles que dans une gamme de puissance au-dessous d’un

Figure 1 : PEM et électrolyse alcaline : principe de base et différences. Source : Siemens AG.

jphauet
Rectangle
Page 24: Aperçu du numéro 2015-2 de la REE (mai 2015)

L’énergie est vitale pour la société mais ce n’est qu’une utilité qui assure des services ; nous n’avons pas envie de gaz ou de fuel ou… mais nous voulons être chauffés. C’est donc un domaine où le rationnel devrait s’imposer et, devant un besoin, il faudrait simplement chercher la meilleure solution en fonction du coût, des risques, des objectifs, etc. Et pourtant l’opinion s’em-balle parfois en imaginant que telle solution technique conduira à une société meilleure où tous les problèmes trouveront leurs solutions.

C’est le cas de l’hydrogène, certains ont pu parler de civilisation de l’hydrogène. C’est propre, c’est abon-dant, c’est souple etc. Cela fait rêver les citoyens et les hommes politiques.

Malheureusement ce n’est pas une énergie pri-maire car l’hydrogène n’est présent qu’en combinaison (même si l’on connaît quelques émanations naturelles). Pour qu’il devienne un produit énergétique, il faut déjà l’isoler en consommant de l’énergie ; ce n’est qu’un vec-teur énergétique permettant de passer d’une énergie primaire à l’usage. C’est donc aux autres vecteurs qu’il faut la comparer et non aux énergies primaires.

C’est un produit qui a des qualités, il a un pouvoir calorifique élevé, 1 kg de H2 contient une énergie plus de deux fois supérieure à celle du kg de méthane, il est très réactif mais il est très léger. C’est même le plus léger des gaz ; le kg d’H2 occupe un volume huit fois supérieur à celui du méthane. Il est donc assez difficile à manipuler, sans parler des risques de fuites.

L’hydrogène peut être obtenu soit à partir des hy-drocarbures par vapocraquage soit par électrolyse mais cette deuxième voie est dans l’état des techniques bien plus coûteuse, même avec de l’électricité gratuite. Elle est réservée aux usages qui nécessitent une grande pureté.

C’est un corps chimiquement intéressant, largement utilisé en chimie et en raffinage. La production mondiale est de l’ordre de 60 Mt. L’une des utilisations qui pour-rait prendre de l’importance dans l’avenir, semble être l’exploitation des bruts extra lourds.

Des recherches ont été menées par EDF et par GDF autour des années 70-80 essentiellement pour dimi-nuer le coût des électrolyseurs. L’idée de base partait du programme nucléaire susceptible de fournir de grandes quantités d’électricité et des inquiétudes sur les res-sources possibles en gaz naturel. Ce schéma n’est plus d’actualité compte tenu des idées présentes sur le nu-cléaire et sur les réserves de gaz.

Mais si un jour, comme l’imaginent certains, un ré-seau d’hydrogène était construit, il faudrait des installa-tions de grande taille avec une production assurée. La production à partir des hydrocarbures devrait bien sûr inclure la capture du CO2 si l’on voulait éviter l’intensi-fication de l’effet de serre conduisant au changement climatique.

La voie hydrogène a repris de l’intérêt avec les éner-gies nouvelles dont le caractère intermittent conduit à la recherche de modes de stockage. Mais les problèmes à résoudre sont forts différents suivant les situations et les objectifs.

On peut vouloir simplement tirer parti d’une énergie excédentaire ou faire face aux variations de charge, soit sur l’instant, soit d’une saison à l’autre ; on peut aussi chercher un carburant propre avec un réseau de dis-tribution, etc. Faire fonctionner une borne d’autoroute avec des cellules solaires n’est pas le même problème que remplacer un parc éolien offshore quand il n’y a pas de vent.

C’est aussi différent suivant la position de l’unité par rap-port à l’ensemble du système électrique : Hydro-Québec a une bonne complémentarité éolien-hydraulique. Le pro-blème d’une île n’est pas celui d’un réseau continental.

La question est donc de savoir si face aux difficultés de stockage et au coût de transport de l’électricité, passer par l’hydrogène apporte une solution. Techniquement tout est faisable mais l’efficacité économique est fort différente suivant les cheminements.

La première remarque est que vu du producteur, éolien ou solaire, il n’y a pas de problème d’écoulement s’il est relié au réseau. Actuellement, il a un débouché

REE N°2/2015 Z81

L'HYDROGÈNE DOSSIER 1

L’hydrogène, fée bienveillante ou démon tentateur

Par Jacques MaireDirecteur général honoraire de Gaz de France

Page 25: Aperçu du numéro 2015-2 de la REE (mai 2015)

82 ZREE N°2/2015

L'HYDROGÈNEDOSSIER 1

garanti en prix et en quantité. Même le jour où il vendra l’électricité sur le marché, comme son coût marginal est quasi nul il pourra toujours écouler sa production. Mais avant de se lancer dans des installations lourdes, il faut regarder la capacité du réseau et son éventuel renfor-cement.

Il peut par contre se dire que, s’il pouvait stocker quand les prix sont bas, il pourrait vendre plus tard quand les prix seront hauts, (c’est ce que fait une usine hydraulique). Tout dépend du coût du stockage.

Pour le responsable de l’équilibre général du ré-seau, il peut chercher un arbitrage entre des produc-tions de secours, des stockages, des renforcements de réseaux etc., mais qui est responsable de cet équi-libre général ?

L’électricité n’est pas facilement stockable et relative-ment chère à transporter, il y a beaucoup de recherche à tous les stades mais on est loin de savoir ce qui sera possible et à quel prix ? D’où l’idée de regarder l’hydro-gène, un gaz étant a priori moins difficile à stocker mais quel avantage cela présente-t-il ? Il ne peut être qu’éco-nomique.

En effet au niveau de l’utilisation, l’hydrogène n’ap-porte aucun avantage par rapport à l’utilisation directe de l’électricité qui est généralement plus simple et qui évite des étapes compliquées, surtout si, après l’électro-lyse, l’on veut revenir à l’électricité par une pile à com-bustibles. Ces deux étapes font perdre environ la moitié de l’électricité.

La première étape est l’électrolyse. De nombreuses voies sont explorées mais, comparé au gaz naturel, le coût de l’hydrogène est élevé. Toutes les techniques ne sont pas non plus adaptées aux régimes de marche irré-guliers inhérents aux énergies intermittentes.

Un ordre de grandeur de 7 USD/MBtu hors électri-cité est, semble-t-il, une estimation acceptable mais les cas où l’on peut compter pour 0 l’électricité ne peuvent être que des cas très rares et sur des périodes courtes. Or le chiffre précèdent correspond à des coûts fixes et à une utilisation continue ; dans la réalité il faut le corriger par l’utilisation, c’est-à-dire par exemple en multipliant par quatre si on tourne le quart du temps. L’hydrogène est alors beaucoup plus cher que le gaz naturel.

Peut-être que sur une île où l’approvisionnement énergétique est cher, avec beaucoup de solaire et de vent, si l’on a résolu le stockage, cela sera concevable dans l’avenir.

L’hydrogène apporte-t-il des avantages sur le plan du transport car le gaz est réputé moins cher à trans-porter que l’électricité mais on parle habituellement du gaz naturel et non de l’hydrogène. En fait la légèreté de l’hydrogène rend son transport assez coûteux. Comme le coût de transport d’un gaz dépend de son volume et des pressions (et non pas de la masse) le kWh est en première approximation quatre fois plus coûteux à transporter que celui du méthane, sans parler des diffi-cultés techniques.

Pour comparer à l’électricité, il faudrait un schéma complet mais on peut avoir une idée en constatant que, pour des quantités comparables de kWh, les dépenses du RTE sont de l’ordre du double de celles du GRTGaz transportant du méthane, mais si ce dernier transportait de l’hydrogène dans les mêmes conditions il transporte-rait quatre fois moins de kWh dont le coût de transport serait ainsi d’environ le double de celui du kWh élec-trique. L’avantage transport est donc plus que douteux, d’ailleurs personne n’a émis l’idée de passer par l’hydro-gène pour le transport à longue distance d’électricité (éolien offshore, Afrique…).

Le cas relativement favorable est le cas où l’on est proche d’un réseau de gaz, il n’y a qu’un problème de compression (sauf si l’électrolyseur est sous pression) et il n’y a pas besoin de stockage. La seule question est de savoir si, même en prenant l’électricité pour un prix nul, on peut parvenir à un prix du kWh inférieur à celui du gaz naturel, même en ne prenant pas en compte la différence de coût marginal de transport. C’est actuelle-ment loin d’être le cas.

La question du stockage est encore plus difficile à trancher car les techniques pour l’hydrogène et pour l’électricité sont encore loin d’être complètement explo-rées et articuler des ordres de grandeur de ce qui sera possible à l’avenir équivaut à avancer dans l’inconnu. Tout dépend au demeurant de savoir si l’on parle de stockages fixes ou mobiles.

Pour un stockage fixe pour absorber destiné à absorber des productions excédentaires, les conditions locales sont déterminantes. Un stockage souterrain est éventuellement possible, même si la légèreté pose des problèmes spécifiques, mais les coûts seront au moins quatre fois plus élevés au kWh que pour le gaz naturel et encore faut-il que la géologie s’y prête. De toute façon il faudra faire les comparaisons avec les autres options possibles, y compris de perdre les excédents.

Page 26: Aperçu du numéro 2015-2 de la REE (mai 2015)

REE N°2/2015 Z 83

L’hydrogène, fée bienveillante ou démon tentateur

Pour le stockage sur les véhicules, les prototypes et les premières séries sont conçus avec des réservoirs a très haute pression (700 bars) en utilisant des techniques du spatial. Seront-elles adaptées à un usage grand public ?

Les grandes inconnues sont pour l’hydrogène les stockages solides et pour l’élec-tricité les batteries. Comment se compareront dans l’avenir les deux voies ?

Si l’on regarde les densités de stockage, l’hydrogène semble stockable dans de beaucoup plus grandes quantités par masse ou par volume et cet avantage devrait se traduire économiquement. 30 kWh par kg de stockage est un ordre de grandeur pour l’hydrogène même les spéculations les plus optimistes donnent 5 à 10 fois moins pour l’électricité.

Pour les véhicules l’autonomie est un critère fort : on parle de 400 km pour l’hydrogène et de 150 pour l’électricité directe. Mais que deviendra cette différence dans l’avenir, la distance est-elle toujours un critère (livraisons en ville) ? Cet

avantage compensera-il les coûts d’électrolyse et de pile à combustible ?

La décarbonatation étant l’objectif, il faut surtout comparer la voie de l’hydrogène avec toutes les autres voies possibles. Les calculs économiques seraient plus

faciles et cohérents si l’on disposait d’une valeur du carbone : espérons qu’on finira par sortir du désordre actuel.

Les quelques réflexions ci-des-sus montrent les défis à relever pour faire arriver à des techniques maî-trisées techniquement et économi-quement. Il est difficile de conclure sur l’avenir de la voie hydrogène sinon de dire que l’on est au stade de la R&D et non à celui de l’exploi-tation, compte tenu des incerti-tudes techniques et économiques. Actuellement cette voie semble encore loin de la compétitivité et même de la faisabilité.

Il ne faut sans doute pas en attendre un bouleversement du paysage énergétique mais peut être des solutions dans des configura-tions spécifiques.

Jacques Maire est ancien élève de l’Ecole polytech-nique et ingénieur au Corps des mines. Il a été notamment directeur général de Gaz de France et a occupé plusieurs postes dans la haute fonction publique. Jusque en janvier 2013, il était président du conseil scientifique du Conseil Français de l’Energie, dont il reste membre.

L'AUTEUR

Page 27: Aperçu du numéro 2015-2 de la REE (mai 2015)

REE N°2/2015 Z 85

GROS PLAN SUR ...

Le système international d’unités aujourd’hui

L e système international d’unités (SI) est mainte-nant adopté par presque tous les pays au monde.

Né en 1960, il est issu du système métrique adopté par la France en 1795, puis au 19e siècle par des pays de plus en plus nombreux. Il consiste en un ensemble d’unités de base, parmi lesquelles le mètre la seconde, le kilogramme et l’ampère, et les unités qui en dérivent.

Ces unités sont définies par convention internationale, mais leur définition précise a évolué au cours du temps. Ainsi, la seconde définie initialement par rapport à la durée du jour moyen1, est depuis 1967 définie en fixant la fréquence d’une

1 Le lecteur pourra se reporter à l’article « Retour sur… les étalons de mesure » publié par Marc Leconte dans le présent numéro de la REE.

transition de l’atome de césium. Le mètre, fixé à la fin du 18e siècle à partir de la longueur d’un arc de méridien terrestre, est défini depuis 1983 comme la distance parcourue par la lumière dans le vide en 1/299 792 458e de seconde. La définition du kilogramme, basée à l’origine sur le poids d’un litre d’eau, est restée inchangée depuis la fin du 19e siècle : le kilogramme est la masse du pro-totype international du kilogramme

(IPK) déposé en 1889 au Bureau international des poids et mesures (encadré 1).

Cette définition basée sur un artefact matériel pose au moins deux problèmes : cet artefact est unique, ce qui fait que tous les laboratoires de métrologie dans le monde dépendent d’IPK. Ils ne peuvent donc pas réaliser indépen-damment leurs propres étalons et doivent travailler avec des copies plus ou moins parfaites. Le deuxième problème lié

0EVIHqÁRMXMSRHYOMPSKVEQQI IXHIWYRMXqWqPIGXVMUYIW

Pierre CladéLaboratoire

Kastler Brossel

Lucile JulienLaboratoire

Kastler Brossel

The kilogram, unit of mass in the International System of Units (SI), is still defined in terms of a material artefact. In the near future, it is planned to revise its definition as the one of several base units of the SI. The new definition

of the kilogram and the ampere will be based of explicitly fixed numerical values of the Planck constant and the elementary charge. We discussed here the various methods which are presently used to precisely measure these two constants and the implication of the new definitions on the electrical units.

ABSTRACT

Le BIPM, les unités, leur mise en pratique et les étalonsLe Bureau international des poids et mesures (BIPM) est une organisation intergouvernementale créée en 1875 et

dont le siège est à Sèvres (Hauts-de-Seine). Il est placé sous l’autorité de la Conférence générale des poids et mesures (CGPM) qui réunit tous les quatre ans environ les représentants des 55 états membres et des 41 états associés. C’est elle qui fixe par convention la définition des unités du système international (SI). Ce système évolue pour suivre les besoins croissants des utilisateurs en matière de mesures. Les propositions d’évolution sont élaborées par le Comité international des poids et mesures (CIPM) et par les divers Comités consultatifs associés aux différentes unités.

La « mise en pratique » de la définition d’une unité est une série d’instructions qui permettent de réaliser la définition en pratique, au plus haut niveau métrologique. Chaque mise en pratique est rédigée par le Comité consultatif concerné puis, après avoir été approuvée par le CIPM, est publiée par le BIPM.

Les étalons matérialisent la grandeur considérée avec une valeur connue et une exactitude plus ou moins grande. Il peut s’agit de dispositifs expérimentaux (voir l'encadré concernant l’effet Hall quantique et l’effet Josephson) ou d’artefacts matériels comme pour le kilogramme étalon. Dans ce dernier cas, un prototype (IPK) joue le rôle d’étalon international et est accompagné de diverses copies pour les étalons nationaux et les étalons de travail. On parle alors d’étalon primaire et d’étalons secondaires.

Encadré 1.

Page 28: Aperçu du numéro 2015-2 de la REE (mai 2015)

86 ZREE N°2/2015

GROS PLAN SUR

à cette définition du kilogramme est le caractère macrosco-pique du prototype ; en effet la masse d’un tel système peut évoluer (ce n’est pas une quantité fixée par la physique). Et même, le prototype international pourrait être détérioré ou détruit. Que se passerait-il alors ? Tous ces problèmes n’exis-teraient pas si la définition du kilogramme était basée, de façon analogue à ce qui est fait pour la seconde, sur une propriété microscopique universelle comme la masse d’un atome ou d’une particule.

Redéfinir l’ampère et le kilogrammeLes unités électriques dépendent du kilogramme, du mètre

et de la seconde : en effet l’ampère est défini à partir de la force de Laplace, s’exerçant entre deux conducteurs rectilignes infinis distants de un mètre (et la force est le produit d’une masse par une accélération). Une fois l’ampère défini, les autres unités (volt, coulomb ou ohm) en découlent, de façon que le système soit consistant, c’est-à-dire que l’énergie mécanique et l’énergie électrique s’expriment dans la même unité (kg·m2·s-2).

L’effet Hall quantique L’effet Hall quantique a été mis en évidence en 1980 par Klaus von Klitzing. Il est utilisé actuellement pour réaliser des

étalons très stables de résistance. Lorsqu’un courant électrique traverse un matériau soumis à un champ magnétique B, une tension perpendiculaire au

courant et au champ magnétique apparaît. Cette tension, qui compense la force de Lorentz, est proportionnelle au champ magnétique et à la vitesse des électrons, c’est-à-dire au rapport entre l’intensité du courant et la densité n des électrons libres. La résistance de Hall est donnée par le rapport entre cette tension transverse et l’intensité du courant ; elle vaut simplement B/ne. Cet effet Hall « classique » est utilisé usuellement pour mesurer un champ magnétique.

Lorsque l’on contraint un gaz électronique à être à deux dimensions et qu’on le soumet à un champ magnétique, les niveaux d’énergie des électrons dans le champ sont quantifiés : ils sont des multiples de htc où tc = eB/me est la fré-quence cyclotron.

La densité n0 de chaque niveau d’énergie est proportionnelle au champ magnétique : n0 = eB/h. Lorsque le gaz est à très basse température seul un nombre restreint de niveaux sont excités thermiquement et la densité électronique est un multiple entier de n0. La résistance Hall devient alors indépendante du champ magnétique et vaut RK = h/e2. C’est l’effet Hall quantique.

L’effet Josephson

Nous avons représenté ici un schéma d’une jonction Josephson : il s’agit de deux supraconducteurs séparés par une barrière (un isolant ou un métal non supraconducteur). L’effet tunnel permet aux électrons de passer d’un conducteur à l’autre. Lorsque l’on utilise des conducteurs ordinaires, l’intensité du courant dépend de la différence de tension entre les conducteurs. Lorsqu’ils sont supraconducteurs, un mécanisme cohérent apparaît et le courant dépend alors de la différence de phase entre les deux supraconducteurs. C’est le cas lorsque deux systèmes oscillants, électriques ou mécaniques sont couplés : l’énergie transmise (ou reçue) dépend de la phase relative entre les deux systèmes. Pour une jonction Josephson, la différence de phase évolue selon les lois de la mécanique quantique et dépend de la différence de tension entre les deux supraconducteurs. On observe alors un courant périodique à travers la barrière dont la fréquence est donnée par i = 2eV/h. Le facteur 2 provient du fait que les porteurs de charges dans un supraconducteur sont des paires d’électrons (paires de Cooper). La constante de Josephson KJ = 2e/h permet donc de convertir une tension en fréquence et vaut environ 4,8 x 1014 Hz/V.

Encadré 2.

jphauet
Rectangle
Page 29: Aperçu du numéro 2015-2 de la REE (mai 2015)

92 ZREE N°2/2015

Marc Leconte Membre émérite de la SEE

IntroductionLes plus anciennes traces d’écriture en Mésopotamie

en 3300 av. J.-C. révèlent déjà des transactions écono-miques et juridiques qui quantifient par des mesures des objets aussi bien que des terrains. Il est donc pro-bable que dès avant l’écriture, les hommes ont mesuré pour commercer dans la société de leur temps. Au cours de l’histoire, les hommes ont ainsi élaboré des systèmes de mesure pour servir de support aux transactions com-merciales.

Mesurer, c’est déterminer par rapport à un étalon un nombre caractéristique d’une grandeur. Pour cela, il faut un système d’unités cohérent, car certaines grandeurs sont reliées entre elles par des relations mathématiques que l’on matérialise par l’analyse di-mensionnelle. L’histoire des étalons et des systèmes d’unité est longue et nous allons dans ce qui suit évo-quer l’histoire des étalons du système MKS (mètre-kilogramme-seconde) qui sont les unités de base du système international encore aujourd’hui en vigueur. Or les unités de base, de manière logique, sont aussi les plus anciennes. C’est pourquoi, dès les premiers progrès liés à la connaissance de la nature écrite en langage mathématique comme l’affirmait Galilée, la recherche de cohérence et d’universalité des étalons des unités de base s’est révélée indispensable. Notre

histoire commence donc là et traitera surtout du mètre qui a connu en deux siècles quatre définitions et beaucoup de péripéties.

Les prémissesIl y avait en France au XVIIe siècle beaucoup de

désordre et d’incohérence dans le système des poids et mesures. Selon les endroits, le pied, la livre, la toise, l’aune, le boisseau, la pinte, l’arpent n’ont pas la même valeur et le système de numération était différent pour chacune de ces unités. L’aune et la toise étaient incommensurables, les mesures de capacité n’avaient aucun lien avec celles de la longueur. Mais le commerce, l’industrie et les sciences se dévelop-paient et il devenait indispensable de parler le même langage partout.

A la fin du XVIIe siècle, les lois naturelles (phy-siques) ont permis de définir les premiers étalons de mesure. Pour les distances, on hésita pendant long-temps entre la longueur d’un arc tracé sur la terre et celle d’un pendule battant à une fréquence donnée en un lieu bien défini, car depuis 1673 les savants savaient que la terre n’était pas parfaitement sphé-rique. En 1669, l’abbé Picard énonça l’idée d’un réfé-rent naturel pour les unités de longueur et proposa d’utiliser la longueur du pendule battant la seconde. Il fallait en effet que la longueur de la toise soit rat-tachée à la nature et de ce fait réputée universelle et invariable. La même année, l’Académie des sciences chargea Picard de mesurer un arc de méridien

Les étalons de mesure Du mètre méridien au mètre lumière

In old ages, standards for distance, weight and time were in France parts of very confusing measurement systems because of plurality of units. The French Revolution initiated a fundamental reform of units which led to the decimal system. As a consequence, new standards had to be defined by new prototypes. It was a long work during the troubled time of the Revo-lution, in the last decade of the 18th century, until new prototypes for length and weight were designed and deposed in the French Archives in 1799.It was the beginning of the “meter” which was originally defined as one ten-millionth of a quarter of the Earth meridian and of the “kilogram” which was defined as the weight of a cubic decimeter of water. About 70 years later, decimal system was accepted in France and in many other countries. News prototypes of the meter and kilogram were designed and deposed in Pavillon de Breteuil in Sèvres, near Paris. The “Metre Convention” was signed same years later and it was the beginning of the scientific metrology with conferences regularly held every 6 years (now 4) to enhance measurement systems according with sciences progress. Recently, in 1960, meter definition and, in 1968, time second definition were fundamentally changed because of properties of quantum physics and relativity. Only kilogram standard is not (yet) changed.

ABSTRACT

❱❱❱❱❱❱❱❱❱❱❱ RETOUR SUR

Page 30: Aperçu du numéro 2015-2 de la REE (mai 2015)

REE N°2/2015 Z 93

Les étalons de mesure

terrestre par triangulation, mesure qu’il effectua en 1671. Picard fit le choix à partir de ces deux expériences de la lon-gueur du pendule simple battant la seconde dont le tiers était le pied universel. Deux ans après Buriattini appela “me-tro cattolico” cette longueur.

Les scientifiques se sont ensuite orientés vers un système d’unités basé sur des caractéristiques objectives et univer-selles dépendant de notre planète que l’on découvrait de façon de plus en plus approfondie et que l’on essayait de me-surer. Au cours du XVIIIe siècle, plusieurs expéditions de sa-vants académiciens, dont certaines aventureuses, ont ainsi mesuré la longueur d’un arc de méridien par triangulation à partir de la référence du pendule, en Laponie avec l’expé-dition de Maupertuis (1736-1737) et au Pérou (plus précisément à Quito, capitale de l’Equateur deve-nu indépendant à partir de 1831) avec La Condamine, Bouguer et Godin (1735-1745).

Tentative de réforme : Turgot et Condorcet

En 1774, Turgot prenait la fonction de contrôleur général des finances et proposait la place d’inspecteur des Monnaies à Condorcet. Turgot voulait que Condorcet s’attaque au problème crucial de l’unification des poids et mesures. Leur multiplicité était un obstacle au commerce, au développement scientifique et à la communication, elle causait de fréquentes confusions et la situation avait été maintes fois dénoncée. Les Etats géné-raux de 1576 avaient demandé qu’il n’y ait en France qu’une seule aune, qu’un seul pied, qu’un seul poids et qu’une seule longueur. Condorcet se donna comme objectif d’imposer pour la première fois un véritable système de mesure uni-ficateur. L’idée en avait déjà été avancée par La Condamine dont Condorcet avait prononcé l’éloge funèbre en 1774.

Dès son arrivée à la Monnaie, Condorcet se mit au tra-vail avec l’aide d’un agronome de l’Académie des sciences, Tillet, qui connaissait le sujet pour avoir comparé les mesures locales en 1765. Des courriers furent envoyés partout en France pour avoir les détails sur les mesures spécifiques à chaque province. En accord avec Turgot, Condorcet choisit d’adopter pour unité de mesure la longueur du pendule bat-tant la seconde à la latitude du 45e parallèle au niveau de la

mer qui passe près de Bordeaux. En 1775, un astronome y fut envoyé pour effectuer des mesures sur place et des tables d’équivalences entre les mesures existantes furent préparées. Le système métrique était en bonne voie de réa-lisation mais, le 12 mai 1776, Turgot tombait en disgrâce et était renvoyé pour être remplacé par Necker ; la réforme des mesures était alors abandonnée. Dupond de Nemours fera remarquer quelques années après que si Turgot était resté six mois de plus le système métrique aurait été adopté 30 ans plus tôt.

Les étalons de l’époque pré-révolutionnaire

Avant le système métrique, qui sera établi sous la Révolution, on utilisait des étalons qui serviront à la détermination du système métrique.

Longueurs

L’unité était la toise correspon-dant à l’envergure d’un homme bras étendus (à peu près deux mètres), qui se divisait en six « pieds de roi ». Chaque pied était divisé en 12 pouces eux-mêmes divisés en 12 lignes de 12 points cha-cune. L’étalon officiel de la toise était une règle, munie d’un talon à chaque extrémité, scellée au pied de l’escalier du Grand Chatelet de Paris. Sa dernière détermination datait de 1667. Avant l’expédition au Pérou, (voir encadré 1), Bouguer, La

Condamine et Godin avait fait fabriquer par Langlois, ingé-nieur du Roi pour les instruments d’astronomie, une copie de l’étalon du Chatelet, c’est-à-dire une règle en fer forgé et poli, entaillée à ses extrémités de manière à laisser sur une moitié de sa largeur deux talons pour sa protection. A son retour de l’expédition au Pérou, La Condamine constata que la toise du Chatelet qui était censée être l’étalon de référence, avait été faussée par des travaux de maçonnerie sur le pilier qui la portait. Il s’avisa que la toise qu’il avait rapportée du Pérou était alors un bien meilleur étalon qui sera connu comme la toise de l'académie ou toise du Pérou. Elle deviendra un étalon national le 16 mai 1766 et quatre-vingts copies seront distribuées dans les provinces. C’est par rap-port à la longueur de la toise du Pérou que sera définie celle du mètre (voir plus loin). La toise du Pérou est actuellement conservée à l’Observatoire de Paris.

Figure 1 : Expédition de La Condamine au Pérou (Equateur) – Mesure des trois premiers degrés

dans l’hémisphère austral – Source : Gallica.

jphauet
Rectangle
Page 31: Aperçu du numéro 2015-2 de la REE (mai 2015)

REE N°2/2015 Z 101

Ancien ministrePrésident de l’association Equilibre des énergies

ENTRETIEN AVEC SERGE LEPELTIER

REE : Vous avez accepté de prendre la présidence de l’Association « Equilibre des Energies » en succes-sion de Jean Bergougnoux. Quelle est la vocation de cette association ?Serge Lepeltier : Laissez-moi tout d’abord vous expliquer pourquoi j’ai accepté cette responsabilité. L’énergie est comme vous le savez à la base de toute activité économique. Il est donc indispensable d’en disposer pour per-mettre la poursuite de la croissance. Mais l’énergie est à l’origine de la ma-jeure partie des gaz à effet de serre. C’est donc par l’énergie que l’on peut le plus rapidement et le plus efficacement obtenir des résultats quant à la limitation du changement climatique. Il y a un lien très fort entre économie et écologie et lorsqu’on m’a proposé de conseiller Jean Bergougnoux, puis d’assurer sa suc-cession à la présidence d’Equilibre des Energies (en abrégé EDEN), cela m’a paru d’emblée très important.

Le nom même de cette association correspond à ce qu’il faut rechercher : un équilibre des énergies au sein d’un mix énergétique facilitant la relance tout en sauvegardant le climat.

Mon engagement dans le monde écologique est ancien. En 1999, j’étais sénateur du Cher et j’ai présenté au Sénat un rapport sur « Les instruments économiques et fiscaux visant à limiter les émissions de gaz à effet de serre », rapport dans lequel je plaidais en faveur d’une taxation des émissions de CO2

conforme au principe pollueur-payeur qui soit simple, lisible, souple et efficace. Et donc ce lien entre écologie et éco-nomie est pour moi une question pré-gnante qui touche à l’avenir de l’homme et de nos civilisations.

S’imaginer que l’on puisse construire un futur en se reposant sur une seule énergie serait une grossière erreur. Nous savons que, dans les 30 ou 50 ans qui viennent, il y aura des changements mais nous sommes aujourd’hui incapables de les décrire. Il faut cependant s’y préparer. Lorsque j’étais ministre, j’avais dit que le prix du pétrole viendrait à dépasser les 100 $/bbl. C’est arrivé plus vite qu’on

ne l’imaginait. Mais a contrario et plus récemment, personne n’avait sérieuse-ment anticipé la chute brutale des prix du brut que nous avons observée à par-tir de septembre 2014. De même, le prix du gaz dépend beaucoup de l’état des relations internationales et peut osciller dans des plages très larges. Il faut donc se donner les moyens d’un reploiement et trouver un bon équilibre entre les so-lutions qui s’offrent à nous.

REE : Il y aurait donc des déséquilibres dans le monde énergétique français actuel auxquels il faudrait remédier ?S. L. : Je ne suis pas certain qu’il y ait aujourd’hui des déséquilibres. Nous avons hérité d’une situation qui avait été correctement préparée par ceux qui nous ont précédés. La France n’a pas commis d’erreur et nous sommes aujourd’hui dans une situation favorable avec des émissions de GES qui sont très inférieures à celles de nos principaux voi-sins. Mais il nous faut préparer le futur et c’est à la préparation de l’avenir que l’association s’emploie.

REE : Pensez-vous que la loi sur la transition énergétique apporte une réponse suffisante et appropriée ?S. L. : Au départ la « Loi sur la transi-tion énergétique et la croissance verte » – appelons-la la LTE – devait être une loi-cadre fixant des orientations et des-tinée à être précisée par d’autres lois. Aujourd’hui la LTE reste une loi-cadre mais on lui a adjoint un grand nombre de dispositions ponctuelles qui rendent sa lecture plus difficile. Ceci dit, les objectifs définis par la LTE vont dans le bon sens mais on ne trouve pas toujours dans la loi les moyens permettant de les atteindre. Par exemple, la règle de 50 % de nucléaire dans le mix électrique devrait s’accompagner d’une obligation de recourir à des énergies décarbonées pour le solde. A défaut, il pourrait en

résulter un accroissement des émissions de CO2 totalement contraire à l’objectif recherché. Fort heureusement, le débat parlementaire a permis, lors de l’examen de la loi par le Sénat, de spécifier que les 50 % restant devraient être couverts à hauteur de 40 % à partir d’énergies renouvelables et de 10 % seulement à partir d’énergies fossiles. La ministre en charge de l’écologie et de l’énergie, elle-même, a salué cette avancée.

L’aspect réglementaire va être essen-tiel et l’association Equilibre des Energies, va s’investir fortement dans ce domaine,

Un équilibre des énergies au sein d’un mix énergétique

facilitant la relance tout en sauvegardant le climat

Regard sur la transition énergétique

La loi sur la transition énergétique va dans le bon sens

mais la limitation à 50 % du nucléaire doit s’accompagner

d’un objectif de 40 % pour la production d’électricité

d’origine renouvelable

Page 32: Aperçu du numéro 2015-2 de la REE (mai 2015)

102 ZREE N°2/2015

avec le handicap que nos lois vont aujourd’hui beaucoup trop loin dans le règlement des détails, ce qui entraîne des rigidités auxquelles il est difficile de remédier dès lors que des dispositions sont inscrites dans la Loi.

REE : Beaucoup trouvent que la LTE consacre une place excessive aux problèmes du bâtiment aux dépens d’autres sujets tout aussi importants.S. L. : On a souvent considérer, mais cela ne date pas d’hier, que le problème des bâtiments était le plus simple à traiter alors qu’il y en a trois à aborder de front : l’industrie, les transports et le bâtiment. On a constaté au cours des dernières années que l’industrie accomplissait par elle-même un gros effort de modernisa-tion et de réduction de ses émissions de GES, indépendamment des effets de la délocalisation de certaines productions. Le coût de l’énergie est en effet un para-mètre essentiel de compétitivité. Dans les transports, l’action a été essentielle-ment normative avec des initiatives prises au niveau européen qui se sont révélées très efficaces. La France est au demeurant bien placée dans la compétition vers des véhicules toujours plus propres même si la question du transport de marchandises reste insuffisamment traitée.

Dans ce contexte, il ne faut pas s’éton-ner de la propension à donner la priorité aux questions du bâtiment. Mais notre in-tention, au niveau d’EDEN, est d’étendre notre action au domaine des transports où il reste beaucoup à faire.

REE : N’en a-t-on pas trop fait en France comme en Europe au profit des éner-gies renouvelables, au risque de mettre en péril la filière nucléaire française ?S. L. : Il y a ici deux questions qui ap-pellent des réponses distinctes.

Je ne crois pas car la proportion d’éner-gies renouvelables dans notre bilan éner-gétique reste modeste. On aurait pu aller plus vite, sur l’éolien en particulier pour lequel de nombreux sites restent dispo-nibles. Aujourd’hui, on peut avoir une

impression de saturation car le syndrome NIMBY1 est vivace, en France comme ail-leurs. Bien sûr, il faut faire attention et je suis le premier à défendre nos paysages. Mais la règle des 1 000 m, si elle devait être votée, annulerait une grande partie du gisement sans répondre à des préoc-cupations réelles.

Progressivement, l’énergie photovol-taïque s’affirme par ailleurs comme la plus performante des énergies renouve-lables. Elle sera à terme l’une des plus rentables et il faut laisser s’opérer ces mutations techniques et économiques.

La vraie question est celle de la ges-tion du système électrique. L’éolien et le photovoltaïque ont des caractéristiques communes ; leur production est totale-ment dépendante de données météo-rologiques sur lesquelles le gestionnaire de réseau n’a pas de prise. Les variabilités sont très fortes. Plus de vent l’hiver que l’été. Le photovoltaïque est produit sur-tout l’été et seulement la journée. Au-delà des saisons, les aléas sont très forts selon le climat du jour. Ceci ne correspond pas le plus souvent aux besoins immédiats. C’est pourquoi des solutions doivent être trouvées mais les recherches et analyses nécessaires sont en cours :

-cées ;

1 NDLR : NIMBY = Not In My Back Yard.

conventionnelle (nucléaire, thermique, hydraulique) pour répondre aux aléas ;

d’eau réalimentées pour la production d’électricité et donc pour le stockage d’énergie) ;

qui, à certains moments, peuvent être trop productrices ;

à mettre en place chez les consomma-teurs.

De quoi travailler dans les années à venir avec un rythme de développement des énergies renouvelables qui soit opti-misé, ce qui pose bien évidemment la question du 2025…

REE : Nous en venons donc au nucléaire…S. L. : Je ne regrette absolument pas l’ampleur qu’a prise la filière nucléaire française mais, pour l’avenir, on peut comprendre la volonté politique d’at-teindre un équilibre 50-40-10. Cela me paraît correspondre à ce qu’il faut faire. La vraie question est celle du rythme. Nos centrales nucléaires ont une cer-taine durée de vie et l’Autorité de sûreté nucléaire (l’ASN) veille à ce que le niveau de sécurité indispensable soit maintenu. L’ASN remplit sa mission de façon indé-pendante et est respectée sur le plan international. C’est à elle de dire si la durée de vie des centrales peut être pro-longée et à quelles conditions. Partant de là, l’opérateur doit être à même de conduire un calcul économique permet-tant de déterminer s’il est opportun ou non de procéder aux remises à niveau qui peuvent être nécessaires.

Il ne s’agit en aucune façon de dé-truire de la valeur et ce sont là de vraies questions qui viendront, à coup sûr, au

Le vrai problème posé par les énergies renouvelables

est celui de la gestion du réseau électrique

L’objectif de 50 % de nucléaire ne doit en aucune façon

conduire à détruire de la valeur

jphauet
Rectangle
Page 33: Aperçu du numéro 2015-2 de la REE (mai 2015)

REE N°2/2015 Z 105

ENSEIGNEMENT & RECHERCHE

REE : Les écoles d’ingénieurs ont à Grenoble une histoire plus que centenaire et l’INP les regroupe depuis plusieurs décennies ; pou-vez-vous préciser quelques étapes importantes de cette histoire et présenter les composantes de l’institution que vous présidez ?Brigitte Plateau : La création des premières formations d’ingé-nieurs de Grenoble remonte effectivement à plus d’un siècle : c’est en effet le 12 janvier 1893 que Paul Janet inaugura un cours d’électricité industrielle à la demande des industriels dauphinois ; on venait alors de vivre l’exposition internationale dédiée à la « Fée électricité », dont la SEE est contemporaine ! Ajoutons que Supélec n’existait pas encore… puisqu’elle fut créée et longtemps dirigée par Paul Janet lui-même, qui poursuivit à Paris la brillante carrière inaugurée à Grenoble.

Grenoble - INP : une tradition centenaire !

Pendant près de 70 ans, les formations se déroulent au sein de l’Institut d’électrotechnique de Grenoble, qui était associé à la Faculté des sciences et dont Louis Néel, prix Nobel de physique pour ses travaux sur le magnétisme, fut le plus célèbre directeur. La loi à laquelle le nom d’Edgar Faure reste attaché réorganisa, après mai 68, l’enseignement supérieur et créa les trois instituts nationaux polytechniques (INP) de Grenoble, Toulouse et Nancy : ce sont alors des établissements publics à caractère scientifique, culturel et professionnel (EPSCP), ayant rang d’université, et dont le président siège à la Conférence des présidents d’université (CPU) ; c’est d’ail-leurs Louis Néel qui présida l’INP Grenoble à sa création.

Nous avions alors six écoles différentes, chacune étant centrée sur l’une des spécialités de l’ancien institut d’électrotechnique et des grands secteurs industriels du Dauphiné : c’étaient des écoles nationales supérieures d’électrotechnique, d’hydraulique, de génie physique, d’électrochimie et d’électrométallurgie, d’électronique et de radioélectricité, de mathématiques appliquées. A l’époque, l’INP Toulouse regroupa dans un établissement unique, organisé en râteau, la plupart de ces disciplines pour créer l’ENSEEIHT (où le T final, après avoir fait référence à Toulouse concerne maintenant les Télécoms !).

En 2007, à sa transformation en grand établissement, Grenoble INP comprenait, en plus des écoles déjà citées, qui se sont regrou-pées et ont changé de noms, trois autres écoles d’ingénieurs : l’école française de papeterie et des industries graphiques, l’école nationale supérieure du Génie industriel, toutes deux également grenobloises, et l’école nationale supérieure en systèmes avancés et réseaux, implantée à Valence. A ces écoles, il convient d’ajouter Nanotech, formation en anglais dédiée aux micro- et nano- technologies, que nous avions créée en 2004 avec le Politecnico di Torino et l’EPF de Lausanne. Cette transformation en grand établissement a été l’occa-sion d’une évolution importante des programmes, des missions et des structures : nous avons désormais six écoles dont le tableau ci-dessous rassemble les noms qui ont été modernisés et actualisés en même temps qu’on restructurait ou réaffectait certains domaines techniques, tels celui des télécommunications relevant désormais de l’Ensimag.

Au total Grenoble INP, puisque tel est notre nom officiel, compte sur ses campus de Grenoble, Saint-Martin-d’Hères et de

Grenoble INP : ancrage dauphinois et grand rayonnement !

Intitulé exact Nom développé / Site web

Grenoble INP - Ense3 Ecole nationale supérieure de l’énergie, l’eau et l’environne-ment. http://ense3.grenoble-inp.fr/

Grenoble INP - Ensimag Ecole nationale supérieure d’informatique et de mathéma-tiques appliquées. http://ensimag.grenoble-inp.fr/

Grenoble INP - Esisar Ecole nationale supérieure en systèmes avancés et réseaux http://esisar.grenoble-inp.fr/

Grenoble INP - Génie industriel Ecole nationale supérieure de génie industriel http://genie-industriel.grenoble-inp.fr/

Grenoble INP - Pagora Ecole internationale du papier, de la communication imprimée et des biomatériaux.http://pagora.grenoble-inp.fr/

Grenoble INP - Phelma Ecole nationale supérieure de physique, électronique, maté-riaux. http://phelma.grenoble-inp.fr/

Entretien avec Brigitte PlateauAdministrateur général - Présidente du Groupe INP

Tableau 1 : Les six écoles de Grenoble INP.

Page 34: Aperçu du numéro 2015-2 de la REE (mai 2015)

106 ZREE N°2/2015

ENSEIGNEMENT & RECHERCHE

Valence, près de 5 500 étudiants ; chaque année nous diplômons près de 1 200 ingénieurs et nos thésards soutiennent presque 200 thèses. Mais notre rôle ne se limite pas à ces seuls chiffres, si importants soient-ils, et notre entretien sera l’occasion de vous donner bien des précisions, en particulier sur la recherche ou sur nos liens structurels avec notre riche environnement comme avec les trois autres INP.

REE : Comment est organisée la gouvernance de Grenoble INP et comment s’articule-t-elle avec les évolutions de l’enseigne-ment supérieur ?B. P. : Les deux grandes missions d’un organisme comme le nôtre sont bien sûr l’enseignement et la recherche et il revient à l’équipe que j’anime d’en organiser la mise en œuvre, avec cohérence et dynamisme. Ces deux aspects, qui sont l’un et l’autre au cœur du quotidien des enseignants-chercheurs, sont régulés d’une façon très largement décentralisée et chacune des écoles bénéficie d’une large autonomie pédagogique et de relations spécifiques avec son envi-ronnement industriel et professionnel naturel compte tenu de son domaine. En revanche, la recherche est organisée en laboratoires centrés sur des thématiques spécifiques et chacun a sa vie propre, en particulier en relation avec les grands organismes de recherche ou pour la gestion de ses contrats de recherche.

Une intrication originale de l’enseignement et de la recherche

Ce double aspect impose une souplesse et une concertation permanentes : par exemple la gestion financière est centralisée, dans le respect des règles d’autonomie des uns et des autres. C’est d’ailleurs Grenoble INP lui-même qui a une existence juridique et administrative comme établissement public : en particulier quand il s’agit de négocier les orientations stratégiques ou le budget avec les tutelles, de mettre en œuvre les grandes actions de coopéra-tion ou les grandes décisions en matière d’investissement. C’est autour de la présidence de l’institution que nous agissons ; je pré-cise à cet égard que la fonction de direction s’incarne dans un ou une administrateur(trice) général(e), et non plus de président(e) comme dans les universités. Les conseils d’administration ont éga-lement des compositions assez différentes et il est bien connu que le poids et le rôle des acteurs économiques y sont bien différents : quand il s’agit de former des ingénieurs, les avis et suggestions des entreprises méritent d’être écoutés avec soin !

Tout n’est pas simple : par exemple quand il s’agit de recruter un enseignement-chercheur, après avoir arbitré entre les demandes des écoles et celles des laboratoires. Il s’agit de sélectionner parmi les nombreux candidats celui qui s’intégrera le mieux dans une équipe pédagogique ET dans un laboratoire... Assurer le dynamisme et le développement d’un organisme d’enseignement supérieur, à une période où le gouvernement arbitre au mieux le maintien des bud-gets, est une réelle difficulté quand il s’agit de créer une nouvelle thématique de recherche ou un nouveau cursus !

La volonté, en particulier pour améliorer les positions françaises dans la compétitivité mondiale et les classements internationaux,

de regrouper les universités d’un même site ou géographiquement voisines, conduit actuellement à la constitution de communautés d’universités et d’établissements. Ce processus, entamé dès 2005 par la création d’un groupement d’intérêt public (GIP) Grenoble universités entre les quatre universités de Grenoble, s’est poursuivi sous forme d’un pôle d’enseignement supérieur (PRES), université de Grenoble, qui a accueilli l’université de Savoie. Depuis la loi de 2013, nous avons une communauté d’universités et établissements (ComUE) baptisé Université Grenoble Alpes, qui regroupe égale-ment Sciences Po Grenoble et les grands organismes de recherche tels que le CNRS, le CEA et l’Inria.

Notre contribution à la vie de la ComUE est évidemment impor-tante puisqu’il s’agit en particulier d’établir une stratégie partagée en matière de recherche et d’écoles doctorales – et nous avons plus de 800 thésards ainsi que de nombreux contrats ! –, comme en matière d’actions internationales. Nous avons évidemment des rela-tions spécifiques avec l’université Joseph Fourier, qui est l’université scientifique et je vous précise qu’il n’y a pas concurrence entre nous et son école polytechnique universitaire, dont les conditions de re-crutement sont d’ailleurs fort différentes des nôtres. C’est à l’échelle de l’agglomération grenobloise qu’un incubateur accueille les jeunes pousses (startups) et qu’une Société d’accélération du transfert de technologie (SATT) organise tout ce qui touche au transfert de tech-nologie ou à la propriété intellectuelle.

Dernière précision : pour des questions d’efficacité, nous avons en interne des filiales pour gérer l’ensemble des contrats de re-cherche de tous les laboratoires, et pour optimiser les investisse-ments dans les startups qui en sont issues.

Groupe INP : le premier réseau d’écoles d’ingénieurs en France

REE : Les divers INP (Grenoble, Toulouse et Nancy, ainsi que Bordeaux qui est de création nettement plus récente), se sont récemment structurés en réseau, et vos collègues vous ont élue à la présidence de l’association. Quels sont les modalités et les objectifs de cette coopération ?B. P. : Les INP se connaissent évidemment de longue date car ils ont des structures, des méthodes et des objectifs voisins, même si l’histoire a façonné pour chacun des composantes originales. Je crois que des quatre INP, celui de Grenoble est le plus homo-gène. Nos collègues de Toulouse, Nancy, et Bordeaux qui en temps qu’INP est beaucoup plus récent, ont fédéré des établissements divers, parfois anciens et/ou relevant d’autres ministères que celui de l’Enseignement supérieur : je pense en particulier aux deux éta-blissements de Toulouse orientés vers l’aéronautique ou à l’Ecole des Mines de Nancy, qui a intégré Lorraine INP. Le spectre scienti-fique et technique des trois autres INP est aussi plus large que le nôtre comme le montre le tableau 2 qui affiche l’ensemble de leurs composantes : on constate en effet une présence systématique de la chimie ou du génie chimique (fort modestes chez nous !), et souvent des établissements orientés vers les sciences de la nature (la géologie ou le bois) ou celles du vivant (agriculture, agronomie ou art vétérinaire).

jphauet
Rectangle
Page 35: Aperçu du numéro 2015-2 de la REE (mai 2015)

REE N°2/2015 Z 113

Depuis quelques décennies la confrérie des chroniqueurs et journalistes scien-tifiques s’est très largement enrichie et diversifiée. Ses représentants dirigent

des revues de culture scientifique, plus nom-breuses et de bien meilleure qualité qu'autrefois car la science et la technique ont pris une grande importance dans un pays comme le nôtre, qui diplôme environ 10 fois plus de scientifiques qu’il y a 50 ans ! Les grands quotidiens ont désormais des rubriques régulières, ou des suppléments dédiés. La compétence scientifique des divers auteurs s’y est largement amplifiée, sans doute tirée vers le haut par le nombre croissant d’enseignants et/ou de chercheurs qui s’essaient, avec bonheur, à une vulgarisation de qualité. Le secteur audiovisuel, même dans sa composante de service public, reste toutefois frileux sur ces questions, en dépit de quelques émissions de qualité.

Même si un – modeste – salon leur est consacré au début du printemps, les ouvrages de culture et de vulgarisation scientifiques sont rare-ment mis en valeur… sauf s’ils surfent quelque peu sur l’engouement médiatique pour tel ou tel problème. Les excellents livres ne sont pourtant pas rares et la chronique « Vient de paraitre » de notre revue en recommande plusieurs à chacune de ses parutions. Mais le contexte médiatique impose trop souvent un traitement tapageur de questions, certes importantes mais aussi souvent complexes, qui méritent mieux que les préjugés teintés d’idéologie ou les formulations racoleuses ! Comment le grand public pourrait-il se faire une opinion éclairée si le traitement des questions mettant en jeu science et technique n'émerge pas du tapage médiatique ? Le monde où nous vivons est marqué par la prégnance du progrès, mais l’envie de comprendre et la faculté d’admirer semblent s'émousser : la perception de la chro-nologie s’estompe et les collégiens de maintenant n’imaginent guère que leurs grands parents aient pu vivre à une époque où le téléphone, la télévi-sion, l’automobile étaient encore des marqueurs sociaux et où, bien sûr, l’ordinateur comme le satellite étaient des objets futuristes…

Les deux ouvrages que nous avons sélectionnés pour nous interroger sur la place de nos maitres-chroniqueurs, experts ou vulgarisateurs scientifiques, sont en tous points forts dissemblables, et pas seule-ment par le format ou l’importance de la pagination !

Presque tout les oppose, dans les apparences du moins car l’un et l’autre s’appuient sur une rigueur difficile à contester : d’un côté un ouvrage collectif, issu d’un colloque du CNRS, et de l’autre le recueil d’un blogueur blagueur ; aux doctes interrogations sur des sujets de controverses publiques s’opposent les thèmes les plus futiles auxquels des universitaires ont consacré des recherches inattendues !

Le journalisme scientifique dans les contro-verses rend compte d’un colloque sur le rôle des médias dans des débats concernant essentielle-ment la communauté scientifique mais où intérêts économiques, questions éthiques, problématiques sociales et politiques s’entrecroisent et s’entre-choquent, parfois avec quelque fracas. Le journa-liste scientifique ne peut, ni assumer ces aspects où son expertise n’est pas avérée, ni les occulter, tant leur prégnance est forte dans la société : il y a toute une « chaîne » d’information, en particulier dans les quotidiens, tenus d’assurer une cohérence d’en-semble. Les prises de position concernant le prin-cipe de précaution, le réchauffement climatique, l’usage éventuel des OGM pour assurer la nutrition

de l’humanité, l’exploitation des gaz de schiste et l’économie des ressources hydriques ressortent bien d’une approche à la fois globale et délicate.

Deux spécialistes, Gérard Arnold du CNRS et Sylvestre Huet président de l’Association des journalistes scientifiques de presse d’information (APJSPI), ont coordonné des débats riches et toniques où sont intervenus des parlementaires membres de l’OPESCT comme des spécialistes de la communication ; trois thèmes avaient été choisis pour leur pertinence pédagogique, et aussi parce que la presse d’information encou-rait potentiellement à leur sujet de très vives cri-tiques. Qu’il s’agisse du changement climatique, des perturbateurs endocriniens ou de « l’affaire Séralini » à propos des OGM, les analyses présen-tées illustrent bien le risque de dérive quand on présente sous un jour volontairement égalitaire partisans et adversaires. Peut-on renvoyer dos à dos climato-sceptiques et responsables du GIEC en leur donnant égale surface de papier ou même temps d’antenne ? Sans revenir sur la mémoire de l’eau qui fit scandale, l’ouvrage illustre quelques dérapages ou embardées médiatiques ; il dégage des analogies fortes dans les controverses et met en évidence un trépied rhétorique : d’abord le phénomène lui-même est nié, puis considéré comme indépendant de l’homme (ou ne s’appli-quant pas à lui), enfin de faible gravité ; le lecteur retrouvera sans peine le comportement de ceux qui minimisent les évolutions climatiques ou nient les dangers des perturbateurs endocriniens…

Loin de ces sujets sérieux, qui conduisent même à la disjonction ente science officielle (dont il faut se méfier) et science dissidente (qu’il faudrait encourager !), la lecture gourmande de Passeur de sciences, constitué de 78 blogs, remplira de joie ; on admirera la fructueuse persévérance de Pierre Barthélémy à traquer les résultats étonnants, origi-naux ou curieux de chercheurs méconnus ! Le sé-rieux et facétieux auteur des Chroniques d’Impro-bablologie, qui paraissent chaque semaine dans « Le Monde » doit être loué et remercié pour avoir braqué sur eux un projecteur éphémère : aucun sans doute ne deviendra célèbre mais le lecteur réjoui saura enfin presque tout sur le pouvoir calculatoire des spermatozoïdes, sur l’influence du chocolat sur le serial killer, sur la flore ombilicale et sur bien d’autres domaines dont l’importance lui avait échappé ! Q

B. Ay.

CHRONIQUE

Sur le rôle des chroniqueurs et journalistes scientifiques…

Ouvrage collectif sous la direction de Gérard Arnold & Sylvestre Huet

Le journalisme scientifique dans les controverses

CNRS Éditions - décembre 2014 154 p. 22 F

Pierre BarthélémyPasseur de sciences.

Le dico des nouvelles découvertes étonnantes, originales, curieuses…

Éditions Hugo & Cie - août 2014 284 p. 17,50 F

Page 36: Aperçu du numéro 2015-2 de la REE (mai 2015)

REE N°2/2015 Z 115

LIBRES PROPOS

Nicolas Curien membre du Conseil supérieur de l’audiovisuel

L a grappe des technologies numériques – micro-électronique, informatique et logiciel – nous fait vivre une troisième révolution industrielle. Quels sont les principaux ressorts de cette

transformation en profondeur des rouages de l’économie et de la société, quels impacts la « révolution numérique » porte-t-elle sur le fonctionnement des entreprises et la vie des citoyens, quelles sont les conditions d’un déve-loppement numérique durable ?

Numérisation et dématérialisation

La numérisation, c’est-à-dire la transcription de don-nées de toute nature sous la forme de séquences de bits d’information, reconnaissables, stockables et trai-tables par des machines informa-tiques, transportables et distribuables par des réseaux de communication électronique, entraîne deux consé-quences majeures : d’une part, une gestion homogène des données tout au long de la chaîne qui conduit de leur création à leur livraison ; d’autre part, une dématérialisation des contenus, désormais accessibles à « l’état libre », c’est-à-dire sans inscription sur un support physique. Telle est la dernière étape d’un progrès technique multiséculaire qui, de Johannes Gutenberg à Bill Gates, a rendu de plus en plus ténu le lien entre l’information et ses « marqueurs » maté-riels, abaissant les coûts de réplication de ces derniers, jusqu’à finalement permettre leur effacement.

La numérisation bouleverse notamment le modèle économique traditionnel de la fourniture et de la com-mercialisation des biens culturels – œuvres littéraires, musicales, audiovisuelles ou cinématographiques – qui reposait auparavant sur la vente à l’unité de marchan-dises supports : livres, CD ou DVD. Lorsqu’un contenu est numérisé, sa valeur ne disparaît pas, mais elle n’est plus attachée à un objet et elle doit donc être recueillie autrement, par exemple à travers une facturation forfai-taire de l’accès à Internet ou par la publicité.

La numérisation conduit aussi à prolonger certains services de l’économie réelle dans l’univers virtuel, comme dans le cas du tourisme ou de l’immobilier, où

l’exploration visuelle en ligne vient compléter, voire rem-placer, l’exploration physique. Enfin, des biens matériels, comme aujourd’hui l’automobile, demain le réfrigérateur ou la machine à laver, s’enrichissent d’une électronique leur permettant, non seulement de mieux fonction-ner localement, mais encore de recevoir, de traiter et d’émettre des informations en réseau. Ces machines se transforment en terminaux communicants et l’Internet des ordinateurs est en passe de se commuer en Internet des objets.

S’agissant enfin du fonctionnement et de l’organisa-tion des entreprises, la numérisation, alliée à la roboti-sation, est source de profonds changements. Dans les usines, certaines taches opérationnelles de production peuvent désormais être confiées à des machines, l’inter-vention humaine se déplaçant vers les taches de pilo-tage et de supervision : peu à peu, la main d’œuvre cède la place au « cerveau d’œuvre ». Par ailleurs, l’infor-

matisation permet la décentralisation, voire l’externalisation de nombreuses fonctions de gestion auparavant concentrées, ainsi qu’une reconfigu-ration des rapports entre l’entreprise et ses partenaires, donnant naissance au modèle de « l’entreprise-réseau ». Enfin, la pénétration croissante des

nouveaux outils de la bureautique, relayée par l’usage des réseaux sociaux, transforme les modes de travail et de management, qu’il s’agisse du télétravail, des outils de partage collaboratif, ou encore des logiciels permet-tant de personnaliser et adapter en temps réel la relation avec la clientèle (CRM).

Abondance et gratuité à l’acte

Dans la transition menant de l’économie pré-numé-rique à l’économie numérique, les coûts de production et les utilités de consommation se déforment : leur part variable en fonction des quantités s’abaisse, tandis que leur part fixe augmente. S’agissant des coûts, les réseaux électroniques de nouvelle génération engendrent des frais très importants d’installation des capacités, mais une fois consentis ces investissements initiaux, des volumes de trafic considérables peuvent être écou-lés presque sans coût supplémentaire. De même, les contenus véhiculés sur les réseaux électroniques sont onéreux à créer, mais la réplication et la distribution numériques des « moules » originels s’opèrent à coût

Pour un développement

numérique durable

Page 37: Aperçu du numéro 2015-2 de la REE (mai 2015)

116 ZREE N°2/2015

LIBRES PROPOS

variable négligeable. Et, s’agissant des utilités, la satisfac-tion d’un consommateur réside moins désormais dans le nombre de ses minutes de communication, de ses écoutes ou de ses visionnages, que dans la variété des services, applications et contenus auxquels il peut accé-der via son abonnement à un réseau : le bien acheté n’est plus un volume d’usage téléphonique monoservice mais une option d’usage multiservice et multimédia.

L’environnement pré-numérique, dans lequel les coûts et les utilités dépendaient fortement des quantités, était un monde de rareté, dans lequel il était pertinent de contenir le volume du trafic en deçà du seuil de satura-tion du réseau, par le biais d’une tarification au volume. L’environnement numérique est au contraire un monde d’abondance. Le volume du trafic y est potentiellement illimité, et la tarification pertinente devient forfaitaire, revêtant logiquement la même structure fixe que celle des coûts et des utilités. On entre dans une économie de « l’attraction », analogue à celle d'un parc de loisirs où, une fois l’entrée payée, les manèges sont gratuitement accessibles. En France, les abonnements proposés par les plates-formes de distribution légale de musique en ligne correspondent à ce modèle économique.

En outre, de même que gratuité à l’acte n’est pas sy-nonyme de gratuité absolue, de même une facturation forfaitaire des internautes n’est pas exclusive d’une ré-munération des créateurs de contenus proportionnelle à leurs audiences respectives : les réseaux électroniques permettent en effet des comptages beaucoup plus pré-cis que les estimations statistiques pratiquées pour les médias traditionnels.

Infomédiation et méta-marché

Les biens et services « numérisables » dépassent lar-gement le seul secteur de la culture et des médias, pour s’étendre rapidement à tous les secteurs de l’économie. Ces biens sont généralement des biens dits « d’expé-rience », dont l’utilité n’est que très imparfaitement connaissable avant leur consommation et n’est révélée qu’à travers leur usage ; par exemple, la qualité d’un livre ou d’un film n’est perçue qu’après l’avoir lu ou vu, celle d’un jeu vidéo, qu’après l’avoir pratiqué, celle d’un appar-tement qu’après avoir fréquenté l’environnement dans lequel il est situé. Dans un tel contexte, le consommateur doit monter en compétences afin d’acheter au mieux et, à cet égard, le corpus des informations disponibles sur la toile, notamment via les réseaux sociaux, lui fournit une

aide précieuse. Les « pionniers » ayant fait en premier l’expérience d’un bien postent en effet en ligne des avis et critiques, propres à éclairer les « suiveurs ». Symétrique-ment, après l’achat, certains biens complexes, comme un logiciel ou une chaîne HiFi, nécessitent un paramé-trage personnalisé ; là encore, des communautés en ligne aident chaque utilisateur à mieux configurer le bien acquis, compte tenu de ses besoins particuliers.

Ce phénomène de bouche à oreille électronique, par lequel des échanges d’information entre consommateurs éclairent ex ante leurs décisions d’achat et facilitent ex post leurs pratiques d’usage, relève de « l’infomédiation ». Dans une économie où foisonnent biens d’expérience et biens complexes et où le rythme soutenu de l’innovation renouvelle en permanence les caractéristiques de ces biens, l’infomédiation est l’auxiliaire essentiel du fonction-nement du marché, une sorte de « méta-marché » où les interactions, pour être non marchandes, n’en sont pas moins indispensables au bon déroulement des transac-tions… un peu à la manière dont, dans certaines sociétés primitives, l’échange gracieux d’objets rituels entre tribus est l’utile complément des relations commerciales, qu’il prépare et rend possibles.

Le modèle d’un marché assisté par un méta-marché informationnel contraste avec celui du marché parfait des économistes néoclassiques : ici, le marché n’est pas un mécanisme déterministe par lequel des produc-teurs, sachant par avance ce qu’ils doivent fournir, ven-draient de manière anonyme à des acheteurs sachant par avance ce qu’ils désirent consommer. Il s’agit plutôt d’un processus aléatoire et auto-organisé, par lequel acheteurs et vendeurs, ignorant initialement les carac-téristiques des biens qu’ils échangeront en définitive, les co-inventent et les co-adaptent, au gré d’interactions ciblées et informatives.

Dans l’économie numérique, les producteurs et les consommateurs participent en symbiose à un même algorithme social : les seconds s’émulent en « consom-macteurs », en agissant comme testeurs, voire comme coproducteurs, tandis que les premiers définissent leurs produits et les différencient à la carte, analysant fine-ment les requêtes de la demande, telles que révélées par le méta-marché. La collecte massive de données, ou Big Data, ainsi que les nouveaux outils associés d’ana-lyse statistique et de traitement informatique, sont les puissants vecteurs de ce couplage en temps réel entre l’offre et la demande.

jphauet
Rectangle
Page 38: Aperçu du numéro 2015-2 de la REE (mai 2015)

124 ZREE N°2/2015

Impression : Jouve - 53100 Mayenne Dépôt légal : mai 2015

Edition/Administration : SEE - 17, rue de l’Amiral Hamelin - 75783 Paris cedex 16 Tél. : 01 5690 3709 - Fax : 01 5690 3719 Site Web : www.see.asso.fr

Directeur de la publication : François Gerin

Comité de rédaction : Bernard Ayrault, Alain Brenac, Patrice Collet, André Deschamps, Jean-Pierre Hauet, Jacques Horvilleur, Marc Leconte

Rédaction : Catherine Vannier - Tél. 01 5690 3704

Promotion : Mellyha Bahous - Tél. 01 5690 3711

Régie publicitaire : FFE - Tél. 01 5336 3787

Abonnements : Tél. : 01 5690 3704 - www.see.asso.fr/ree Prix de l’abonnement 2015 : France & UE : 140 F - Etranger (hors UE) : 150 F Tarif spécial adhérent SEE : France & UE : 60 F - Etranger : 70 F Vente au numéro 2014 : France & UE : 32 F - Etranger : 34 F

Conception & réalisation graphique JC. Malaterre - Tél. : 01 7946 1470

Impression : Jouve - 53100 Mayenne. Siège social : 11 Bd de Sébastopol - 75027 Paris cedex 1 Tél. : 01 4476 5440

CPPAP : 1015 G 82069

Copyright : Toute reproduction ou représentation intégrale ou partielle, par quelque procédé que ce soit, des présentes pages publiées faite sans l’autori-sation de l’éditeur, est illicite et constitue une contrefaçon. Toutefois les copies peuvent être utilisées après autorisation obtenue auprès du CFC - 20 rue des Grands Augustins, 75006 Paris (Tél. : 01 4404 4770) auquel la SEE a donné mandat pour la représenter auprès des utilisateurs (loi du 11 mars 1957, art. 40 & 41 et Code Pénal art. 425)

La revue REE est lue par plus de 10 000 ingénieurs et cadres de l’industrie, dirigeants d’entreprises, directeurs des ressources humaines, formateurs… profitez de ce lectorat ciblé et de qualité pour publier vos annonces (em-plois, stages, manifestations…)

Répertoire des annonceurs GENERAL CABLE ............................................................................... C2 ETTC’2015 ......................................................................................... p. 3 MERSEN .......................................................................................... p. 19 REE Abonnement 2015 .................................................................. p. 22 3 EI Abonnement 2015 .................................................................. p. 84 BAUR .............................................................................................. p. 91 REE Archives ................................................................................ p. 114 AOIP SAS ...................................................................................... p. 122 dSPACE ......................................................................................... p. 123 JICABLE’15 .......................................................................................... C3 OMICRON ........................................................................................... C4 Corpevents/SG PARIS 2015 ......................................................... Encart

Prochains Grands Dossiers Dossier 1 : La médecine assistée par les TIC Dossier 2 : La cybersécurité des réseaux électriques intelligents

Prochain « Libres Propos » Approvisionnement en gaz par Jacques Deyrmendjian

Une publication de la

Entre science et vie sociétale,les éléments du futur

6 CLUBS TECHNIQUES Q Automatique, Informatique et Systèmes Q Ingénierie des Systèmes d’Information et de Communication Q Électronique Q Radar, Sonar et Systèmes Radioélectriques Q Électrotechnique Q Systèmes électriques

12 GROUPES RÉGIONAUX

Conférences nationales et internationales Journées d’études thématiques Conférences-Débat Congrès internationaux, en partenariat ou non, avec d’autres sociétés scientifiques

La SEE contribue à l’organisation KLJVUMtYLUJLZZJPLU[PÄX\LZLU-YHUJL LUZ»HWW\`HU[Z\YZLZ*S\IZ[LJOUPX\LZ et ses Groupes régionaux

Grades Senior et Émerite SEE Prix : Brillouin-Glavieux, Général Ferrié, André Blanc-Lapierre... Médailles : Ampère, Blondel...

La SEE récompense les contributeurs éminents au progrès des sciences et technologies dans ses domaines

Revue de l’Électricité et de l’Électronique (REE) Revue 3EI Monographies Publications électroniques : SEE Actualités

La SEE favorise le partage du savoir, et contribue aux débats sur des problèmes de société en éditant des revues ZJPLU[PÄX\LZL[V\]YHNLZ[OtTH[PX\LZ

La SEE fédère un vaste réseau d’experts universitaires et industriels en faveur des H]HUJtLZZJPLU[PÄX\LZL[[LJOUVSVNPX\LZ

La SEE, société savante française fondée en 1883, forte de 3 000 membres, couvre les secteurs de l’Électricité, de l’Électronique et des Technologies de l’Information et de la Communication. Elle a pour vocation

de favoriser et de promouvoir le progrès dans les do-maines : Énergie, Télécom, Signal, Composants, Auto-matique, Informatique.

SOCIÉTÉ DE L’ÉLECTRICITÉ, DE L’ÉLECTRONIQUE ET DES TECHNOLOGIES DE L’INFORMATION ET DE LA COMMUNICATION

17, rue de l’Amiral Hamelin - 75783 Paris cedex 16 Tél. : 01 56 90 37 09/11 - Fax : 01 56 90 37 19

www.see.asso.fr

jphauet
Rectangle
jphauet
Texte tapé à la machine
Vous voulez... Vous abonner à la REE ? Acheter un numéro ? Cliquer ICI Ou bien téléphoner au 01 56 90 37 04