26
Numéro 2013 EDITORIAL Aimons et faisons aimer la science Par Odile Macchi ENTRETIEN AVEC François Gerin Président de la SEE www.see.asso.fr 2 ISSN 1265-6534 DOSSIERS Quelles énergies pour 2100 ? Par Jean-Louis Bobin et Lucien Deschamps L'ARTICLE INVITÉ

Aperçu du numéro 2013-2 de la REE (juin 2013)

Embed Size (px)

DESCRIPTION

Cet aperçu permet de découvrir le sommaire et les principaux articles du numéro REE 2013-2

Citation preview

Page 1: Aperçu du numéro 2013-2 de la REE (juin 2013)

ÉNERGIE TELECOMMUNICATIONS SIGNAL COMPOSANTS AUTOMATIQUE INFORMATIQUE

Num

éro

2

013

EDITORIAL Aimons et faisons aimer

la science Par Odile Macchi

ENTRETIEN AVEC François Gerin

Président de la SEE

www.see.asso.fr

2

ISSN

126

5-65

34

DOSSIERS

Quelles énergies pour 2100 ?Par Jean-Louis Bobin et Lucien Deschamps

L'ARTICLE INVITÉ

jphauet
Zone de texte
Cette aperçu gratuit permet aux lecteurs ou aux futurs lecteurs de la REE de découvrir le sommaire et les principaux articles du numéro 2013-2 de la revue, publié en juin 2013. Pour acheter le numéro ou s'abonner, se rendre à la dernière page.
Page 2: Aperçu du numéro 2013-2 de la REE (juin 2013)

REE N°2/2013 Z 1

Dans la société française la Science est plutôt mal aimée ; l’image du scientifique est souvent ambiguë, parfois caricaturale. Il est bon que les scientifiques soient alertés, en particulier

les auteurs et les lecteurs de la REE car la question est grave.Certains voient le scientifique comme un extra-

terrestre perdu dans ses élucubrations et ne s’informant pas de l’aspect scientifique des grandes questions de société, oubliant qu’un jour, par leur bulletin de vote, ils auront à prendre position sur ces questions, par exemple sur le défi énergétique. Pour d’autres, les scientifiques sont des apprentis sorciers qui déclenchent des catastrophes en violant les secrets de la nature. Ils parent celle-ci d’une immense auréole et élèvent l’écologie en religion. Ces courants-là attribuent sans discernement aux physiciens la responsabilité des bombes atomiques d’Hiroshima et de Nagasaki et rejettent aujourd’hui sur les mathématiciens la responsabilité de la crise financière mondiale. À l’inverse, la science est pour certains une fée qui a le pouvoir et donc le devoir de régler tous les maux de l’humanité, et pourquoi pas de délivrer l’homme de la mort ? Ce fut le courant positiviste des deux siècles passés, qui se confiait à la science comme à Dieu mais dont l’attente a été cruel-lement déçue à cause de la seconde guerre mondiale.

Bien entendu les lecteurs de la REE ont le bon sens de ne pas verser dans ces idées extrêmes. Ils le savent : la nature est un champ à cultiver ; science et technolo-gie sont des instruments de cette culture, même si elles ne peuvent pas tout. Elles sont de bonnes servantes de l’homme pour qu’il établisse un partenariat intelligent et amical avec la nature, à la fois audacieux et respectueux. Elles l’ont libéré de beaucoup de servitudes. On ne sau-rait énumérer les incroyables et multiformes progrès dans la qualité de la vie quotidienne apportés à l’homme mo-derne par la fée électricité. La mécanique et la science des matériaux ont calculé le profil et la résistance des barrages et ainsi évité beaucoup d’inondations. Au cours du dernier siècle, les découvertes de notre compatriote Pasteur sur les vaccins ont permis l’éradication de la rage, la tubercu-lose… Et notre espérance de vie s’est allongée de trois ou quatre décennies. Que dire des technologies modernes pour la santé comme la bioinformatique, les plates-formes d’imagerie ? Quant aux grandes questions sociétales qui se posent aujourd’hui à l’échelle planétaire, la science fournit des perspectives de solution pleines d’espoir : captation et

stockage des énergies renouvelables (l’énergie solaire re-çue couvrirait 10 000 fois nos besoins), agronomie capable de nourrir neuf milliards d’humains, maîtrise des épidémies (songeons au VIH qui recule), accès universel à l’eau…

Ce serait donc justice que le citoyen français, conscient des innombrables bienfaits apportés par la science à sa vie quotidienne, aime et fasse aimer la science ! Cela passe par une éducation aux sciences qui situe les personnes dans un rapport juste et raisonnable à la nature et évite le divorce entre science et société, en premier lieu par l’édu-cation scolaire du jeune enfant. D’une insatiable curiosité, insensible aux clichés médiatiques simplistes et réduc-teurs, tout enfant est ouvert pour découvrir le monde et accueillir avec joie une leçon de science bien conduite. Cela s’observe dans toutes les classes primaires dont l’enseignant pratique l’approche « La main à la pâte »1.

Dans le domaine de l’éducation à la science, tous les acteurs de la vie scientifique devraient prendre conscience de leur responsabilité individuelle. Chercheur, ingénieur ou technicien, chacun à sa place peut faire évoluer les mentalités en faisant connaître autour de lui ce qui est beau dans la vie d’un laboratoire, le rôle de la démarche expérimentale et de l’esprit critique, mais aussi la joie de travailler en équipe, une qualité fondamentale dans la vie citoyenne. Il ne manque pas de propositions de conférences grand public attrayantes et gratuites de type « Sciences à cœur2 », « Fête de la science », etc. Prenons le temps d’y mener nos enfants et nos voisins. Tous ceux qui ont eu la chance de bénéficier d’une formation scientifique et technique approfondie devraient ainsi s’im-pliquer pour faire aimer la science. Pour sa part, l’Acadé-mie des sciences a placé la réflexion sur l’éducation aux sciences parmi ses missions. J’observe avec bonheur que la REE s’implique fortement elle aussi dans ce défi pour le vaste secteur de l’électricité et de l’électronique. Oui, la science fait partie de la culture et c’est toujours une grande joie que d’en découvrir de nouveaux aspects.

Odile Macchi Membre de l’Académie des sciences

1 « La main à la pâte » méthode nouvelle d’enseignement des sciences en primaire fondée en 1996 par trois académiciens dont le prix Nobel de physique Georges Charpak.

2 C’est le nom des conférences hebdomadaires proposées par l’uni-versité Paris 6 en fin d’après midi le jeudi.

Aimons et faisons aimer la science

EDITORIAL ODILE MACCHI

Page 3: Aperçu du numéro 2013-2 de la REE (juin 2013)

2 Z�REE N°2/2013

sommaireNuméro 2 2013

1 EDITORIAL Par Odile Macchi

2 SOMMAIRE

5 FLASH INFOS Des polariseurs à fibre optique sans perte8 Vers une meilleure compréhension du bruit de scintillation9 Photovoltaïque : la course au rendement se poursuit 11 Production d’hydrogène par photolyse de l’eau assistée

par résonance plasmon13 Smart-grids et stockage de l’électricité14 La fourchette numérique intelligente

15 A RETENIR Congrès et manifestations

16 VIENT DE PARAÎTRE La REE vous recommande

18 ARTICLE INVITÉ Quelles énergies pour 2100 ? Par Jean-Louis Bobin, Lucien Deschamps

25 LES GRANDS DOSSIERS L’avenir d’Internet Introduction : L'avenir d'Internet Par Pierre Rolin27 Les réseaux de télécommunications du futur : enjeux

et évolution à un horizon de 5 à 10 ans Par Ivan Mériau, Marc Bouillon, Prosper Chemouil, Chidung Lac36 Impact des objets sur les protocoles de l’Internet Par Yannick Delibie, Alexander Pelov, Laurent Toutain43 Perspectives d’évolution des réseaux optiques vers une meil-

leure efficacité énergétique Par Catherine Lepers, Dominique Chiaroni53 Prospective du numérique : quelle gouvernance pour quel futur ? Par Godefroy Dang Nguyen, Didier Pouillot

61 Le véhicule électrique (2ème partie) Introduction : Le véhicule électrique (2) : comment donner

corps à la transition énergétique ? Par Jean-Pierre Hauet63 Le retour de la voiture électrique Par Marc Tison

p. 1

p. 25

p. 61

p. 18

p. 85 p. 94

Credits photos couverture : © j1w1 - © viappy Fotolia.com

Page 4: Aperçu du numéro 2013-2 de la REE (juin 2013)

REE N°2/2013 Z 3

67 Les infrastructures de recharge des véhicules électriques Par Claude Ricaud73 Une solution respectueuse de l’environnement pour les bus

à haut niveau de service Par Nicolas Urien, Nicolas Chanclou

79 RETOUR SUR ... Georges Claude : génie trop dérangeant, à oublier ! Par Rémi Baillot

85 ENTRETIEN AVEC... François Gerin Président de la SEE

87 ENSEIGNEMENT & RECHERCHE Les universités technologiques : un modèle innovant Entretien avec Alain Storck91 Echos de l’enseignement supérieur Par Bernard Ayrault

93 CHRONIQUE Errare humanum est… Par Bernard Ayrault

94 LIBRES PROPOS Le bâtiment électrique : un atout majeur face aux défis

de la transition énergétique Par Jean Bergougnoux

100 SEE EN DIRECT La vie de l'association

GSI 2013Geometric Sciences of Information

www.see.asso.fr

28-30 August 2013Paris (France)

Registration: [email protected]

Web site: http://www.gsi2013.org/

Organized by:

Page 5: Aperçu du numéro 2013-2 de la REE (juin 2013)

REE N°2/2013 Z 5

FLASHINFOS

Des polariseurs à fibre optique sans perte

En décembre 2012, une équipe de l’Université de Bourgogne (laboratoire Interdisciplinaire Carnot de Bour-gogne), travaillant en liaison avec des partenaires russes et italiens, a publié dans Scientific Reports1 un article inti-tulé "A universal optical all-fiber omnipolarizer” décrivant un polariseur à fibre optique sans perte, capable d’orien-ter toute polarisation incidente vers un ou deux états de polarisation déterminés, selon la variante de leur dispo-sitif qu’ils ont baptisé « Omni-polariseur ». Les auteurs de cet article sont J. Fatome2, S. Pitois 2

, P. Morin 2, E.

Assémat2, D. Sugny2, A. Picozzi2, H. R. Jauslin2, G. Millot2,

V. V. Kozlov3,4 et S. Wabnitz 3.Ces travaux offrent des perspectives d’application très

intéressantes dans le domaine des communications. En effet, parmi les paramètres qui caractérisent une onde électromagnétique se propageant dans une fibre optique, la polarisation est le plus difficile à contrôler. Dans une fibre monomode classique, la biréfringence résiduelle et les contraintes font que, lorsqu’on injecte dans la fibre une onde ayant un état de polarisation connu, il est impossible de prédire quel sera son état de polarisation au bout de quelques centaines de mètres. De plus, cet état est susceptible d’évoluer lentement (par exemple en fonction de la température) ou plus rapidement, en cas de choc. Toutefois, l’onde restera polarisée et deux états de polarisation initialement orthogonaux le resteront. Ces propriétés permettent la mise en œuvre de techniques de réception cohérente et de multiplexage en polarisa-tion, utilisées dans les nouvelles générations de systèmes de transmission où chaque longueur d’onde véhicule un signal numérique au débit de 100 Gbit/s ou plus.

La maîtrise de l’état de polarisation dans une fibre pose problème parce que les pertes de certains dispo-sitifs (par exemple un mutiplexeur/démultiplexeur de longueurs d’onde ou un modulateur électro-optique) peuvent varier selon l’état de polarisation. Des varia-

1 Scientific Reports 2, Article n°938, paru le 6 décembre 2012

2 Laboratoire Interdisciplinaire Carnot de Bourgogne (ICB), UMR 6303 CNRS - Université de Bourgogne, 9 Av. Alain Savary, BP 47870, 21078 Dijon, France

3 Department of Information Engineering, Università di Brescia, Via Branze 38, 25123 Brescia, Italy

4 Department of Physics, St.-Petersburg State University, Petrod-voretz, St.-Petersburg, 198504, Russia

tions minimes peuvent s’accumuler et dégrader la per-formance du système. Les équipementiers traitent ce problème en utilisant des composants de très faible PDL (Polarization Dependent Loss), au plus 0,1 à 0,2 dB. Ce-pendant, avec des moyens efficaces de contrôler cet état de polarisation, il serait possible de simplifier certains dis-positifs ou d’améliorer leurs performances. Par exemple, des modulateurs électro-optiques à plus faible perte ou plus rapides, ou des amplificateurs optiques à plus fort gain ou à facteur de bruit réduit.

Avec les composants linéaires (i.e. dont le fonction-nement ne dépend pas de la puissance optique) utilisés habituellement pour manipuler un état de polarisation, on est confronté à un choix simple. L’état de polarisa-tion en sortie d’un polariseur ou d’un cube séparateur de polarisation (en anglais : PBS) est connu mais toute fluctuation de l’état de polarisation en entrée se traduit par une fluctuation de l’amplitude du signal en sortie. Le niveau de bruit d’amplitude résultant (désigné par l’acro-nyme RIN : Relative Intensity Noise) est incompatible avec une application en transmission optique. En traver-sant une lame biréfringente, la puissance est en principe conservée mais l’état de polarisation de la sortie varie en fonction de celui de l’entrée. Il est possible de combi-ner plusieurs lames pour transformer n’importe quel état de polarisation en entrée en un état donné et d’ajouter une contre-réaction pour stabiliser l’état en sortie. Cette approche est cependant lourde, du fait de la complexité de la mesure de l’état de polarisation et des algorithmes pour suivre indéfiniment l’état de polarisation.

Depuis une douzaine d’années, plusieurs groupes étudient des techniques tout optiques pour contrôler la polarisation. Une équipe française de l’Université de Bourgogne (laboratoire Interdisciplinaire Carnot de Bour-gogne), en liaison avec des partenaires russes et italiens, joue un rôle pionnier dans l’exploration d’un mécanisme d’attraction de polarisation qui a l’avantage de ne pas pré-senter de RIN. Leur approche repose sur un couplage d’ondes par effet non linéaire d’ordre 2 (effet Kerr) qui provoque un transfert d’énergie entre composantes de polarisation circulaires droite et gauche des ondes inte-ragissant. L’analyse du système montre la stabilité des solutions où les deux ondes sont polarisées circulaire-ment dans le même sens (i.e. droite dans une direction et gauche dans l’autre).

L’article de Scientific Report (http://www.nature.com/srep/2012/121206/srep00938/full/srep00938.html) décrit une nouvelle variante de polariseur non linéaire ne

Page 6: Aperçu du numéro 2013-2 de la REE (juin 2013)

6 Z�REE N°2/2013

FLASHINFOS

nécessitant pas de source externe. Le principe consiste à générer à partir de l’onde signal une onde se propageant en sens inverse qui interagit avec le signal. Cette deuxième onde est obtenue par réflexion sur un réseau de Bragg partiellement réfléchissant (figure 1-a), ou en rebouclant la fibre sur elle-même à l’aide de coupleurs optiques et en insérant dans la boucle un amplificateur optique (figure 1-b). Si la puissance d’entrée est suffisante (27 dBm dans la configuration étudiée), l’état de polarisation du signal est transformé. La transformation dépend de la configuration. Avec une simple réflexion en extrémité, l’état de polarisa-tion peut être circulaire droit ou gauche. Sa valeur dépend de l’ellipticité de l’état initial : il correspond au pôle de la sphère de Poincaré (voir encadré), situé dans le même hémisphère que l’état initial. Le dispositif se comporte comme un cube séparateur de polarisation binaire où un état de polarisation incident est transformé en l’état circu-laire « le plus proche ». Dans la deuxième version, l’ampli-ficateur optique permet de changer le rapport des puis-sances des deux ondes. Lorsque la puissance de l’onde retour est inférieure à celle de l’onde aller, le dispositif se comporte comme le précédent. Lorsque la puissance in-jectée en retour devient égale ou légèrement supérieure, tout état de polarisation incident est attiré vers un seul état

de polarisation circulaire. On obtient ainsi un polariseur sans PDL, sans source optique externe.

Qualitativement, ces comportements peuvent s’expli-quer en notant que si la fibre est suffisamment longue, elle est constituée de multiples tronçons faiblement biréfringents orientés aléatoirement ; aucune direction n’étant privilégiée dans la fibre, les deux états de pola-risation circulaires émergent lorsque l’état de polarisa-tion s’auto-organise grâce au couplage non linéaire entre ondes aller et retour. Lorsque la puissance du signal en retour devient la plus importante, la symétrie entre ces états est brisée, et le système devient soit un polariseur circulaire droit, soit un polariseur circulaire gauche. La bri-sure de symétrie provient de la rotation de polarisation intervenant dans le processus de réflexion. Par exemple, si cette rotation est positive (resp. négative) autour de l’axe vertical de la sphère de Poincaré, alors le processus d’attraction favorisera un état de polarisation circulaire gauche (resp. droite). Ainsi, en modifiant le réglage d’un contrôleur de polarisation à fibre inséré avant l’amplifi-cateur optique, il est possible de passer d’un polariseur circulaire droit à un polariseur circulaire gauche.

L’attraction de l’état de polarisation initial vers un état circulaire n’est parfaite que pour une fibre de longueur

Figure 1 : Schéma de principe des deux dispositifs proposés (d’après Scientific Report 2, article # 938, figure 2). Le faisceau optique incident interagit de façon non linéaire avec sa réplique réfléchie par un miroir semi-transparent (a) ou après que celle-ci a traversé un amplificateur optique (b).

Page 7: Aperçu du numéro 2013-2 de la REE (juin 2013)

REE N°2/2013 Z 7

FLASHINFOS

infinie. En pratique, l’état de polarisation final est proche d’un pôle de la sphère de Poincaré, sans être confondu avec celui-ci. Cependant, cet écart reste faible : l’équipe de l’ICB a inséré son polariseur non linéaire dans une chaîne de caractérisation du taux d’erreur binaire d’un signal optique à 40 Gbit/s, en plaçant le photo-détecteur derrière un polariseur linéaire classique, sans observer d’erreurs binaires.

Le temps de réponse du dispositif dépend de la longueur de la fibre, comme dans le cas du système pompe/signal. Dans sa configuration actuelle, l’état de polarisation en sortie reste stable lorsque la polarisation d’entrée fluctue à des échelles de temps d’une trentaine de microsecondes. Avec des fibres optiques présentant des non linéarités plus importantes, il devrait être pos-sible de gagner un facteur 10 sur le temps de réponse.

Figure 2 : Fonctionnement en tant que polariseur non linéaire (avec un seul point d’attraction) et transmission d’un signal à 40 Gbit/s dont l’état de polarisation en entrée a été préalablement brouillé à travers un polariseur linéaire (d’après Scientific Report 2, article # 938, figure 5).

Sphère de Poincaré

On représente usuellement un état de polarisation par un point dans la sphère de Poincaré de rayon unité. Un état de polarisation est caractérisé par les coordonnées S1/S0, S2/S0 et S3/S0 où S0 est l’intensité totale, S1, S2, S3, sont les différences d’intensité entre, respectivement, polari-sation horizontale et polarisation verticale, polarisations rectilignes orientées à 45° et -45° et polarisations circu-laires gauche et droite. L’état de polarisation d’une onde entièrement polarisée est donc représenté par un point de la surface de la sphère. Ce point peut être également défini en coordonnées sphériques par les angles 2s et 2r caractérisant un état de polarisation elliptique où y est l’angle du grand axe de l’ellipse et c son ellipticité. Représentation des états de polarisation sur la sphère

de Poincaré. Source : Wikipédia.

jphauet
Rectangle
Page 8: Aperçu du numéro 2013-2 de la REE (juin 2013)

18 Z�REE N°2/2013

Introduction

L ’augmentation de la population humaine et le développement « à l’occidentale », qui ne concerne encore qu’une minorité, se traduisent par une immense demande mondiale d’éner-

gie. Aujourd’hui dans la continuité d’une évolution entamée à la fin du XVIII e siècle, les sources d’énergie dont dispose l’humanité sont à 80 % des combustibles fossiles, charbon, pétrole et gaz. Or ces ressources sont limitées et la combus-tion intensive de substances carbonées libère dans l’atmos-phère de grandes quantités de gaz à effet de serre. Il en résulte la perspective d’une inéluctable pénurie et la menace d’un changement climatique. Notre « civilisation thermique » [2] n’est pas durable. De fait les sociétés se trouvent confron-tées à une série de questions :

-santes, en reste-t-il à découvrir ?

e siècle, les sociétés pourront-elles, sans combustibles fossiles, trouver les moyens de satisfaire des besoins énergétiques toujours croissants 2 ?

-ronnementaux ?

Les réponses impliquent des choix de société, mis en application après décisions politiques. Les systèmes énergé-tiques sont extrêmement complexes et leur devenir se pré-sente sous de multiples facettes. Il dépend d’évolutions en cours qui leur sont soit externes : démographiques, sociolo-giques, économiques, géopolitiques… soit internes : techno-logiques. Produire, transporter et distribuer l’énergie mettent en jeu des infrastructures et des procédures de plus en plus

1 « Prospective 21OO » a été fondée en 1996 par Thierry Gaudin, Ingénieur Général des Mines, ancien directeur du Centre de Prospective et d’Éva-luation du Ministère de la Recherche et de la Technologie. L’objet de cette association est de promouvoir la prospective auprès des décideurs et de sensibiliser l’opinion à la nécessité d’anticiper l’avenir. Pour en savoir plus : http://www.2100.org/

2 Sans oublier les besoins non énergétiques, de l’industrie chimique notam-ment, qui représentent en France 12,6 Mtep soit 15 % de la consommation finale de pétrole.

décision ayant souvent des conséquences sur une période de 40 à 50 ans, voire plus longue.

La demande d’énergie suit une tendance lourde à la hausse. Il s’agira de satisfaire au mieux cette demande en pro-posant des choix susceptibles de contribuer à la croissance de l’économie tout en respectant l’environnement. A l’horizon 2100, on ne peut faire abstraction de ruptures provoquées par des innovations techniques ou imposées par la nécessité de prévenir des catastrophes environnementales (pollution de toutes sortes et menace d’un changement climatique).

Demande

L’évolution démographique prise globalement est assez bien déterminée jusqu’en 2050, plus incertaine au-delà. On attend autour de 9 milliards d’habitants au milieu du siècle, puis une évolution lente, mais dont le sens est aujourd’hui imprévisible. L’évolution de la répartition géographique des populations, prise régionalement, semble également établie de façon fiable : prolongation de la tendance à une urbanisa-tion poussée et à d’importantes migrations rassemblant les

va sans doute favoriser une concentration de la demande en des aires géographiques restreintes, souvent éloignées des zones d’extraction des combustibles ou d’implantation des renouvelables. Toutefois, cette concentration, hormis les pro-blèmes sociaux et environnementaux qu’elle pourrait poser, devrait offrir un avantage en limitant la demande de trans-ports individuels, énergivores et polluants.

s’élever sur la période, il ne semble pas très facile de cibler son niveau, car il dépendra d’une évolution des mentalités (prises de conscience ou non des risques écologiques) et de l’efficacité énergétique des technologies utilisées. Or les disparités sont grandes entre la consommation de 8 tep annuelles par Américain du Nord, les 4 tep par Européen et les 0,7 tep par Africain. La généralisation des standards américains et européens semble incompatible avec la capa-cité énergétique prévisible. Dans quelle mesure les extrapo-

Quelles énergies pour 2100 ?

L'ARTICLE INVITÉ JEAN-LOUIS BOBINLUCIEN DESCHAMPSProspective 21OO1

L’énergie est l’un des grands thèmes de réflexion de l’association Prospective 21OO. Un atelier lui a été consacré dont les travaux, étalés sur plusieurs années, ont abouti à la rédaction d’un ouvrage [1] dont le présent article expose les grandes lignes.

Page 9: Aperçu du numéro 2013-2 de la REE (juin 2013)

REE N°2/2013 Z 19

L'ARTICLE INVITÉ

lations réduiront-elles les écarts sachant d’autre part qu’une

le seuil d’accès à un début de « confort » sanitaire ?Pour s’en tenir au plan technique, l’accroissement de la

demande énergétique peut se décliner de diverses façons : --

avec l’état futur de l’offre et ne va-t-elle pas induire de fortes tensions sur les marchés ?

Offre

L’offre concerne à la fois les sources d’énergie et les vec-teurs par lesquels cette énergie est distribuée. Malgré les incertitudes sur l’état des réserves accessibles à un coût sup-portable, la tension est déjà sensible sur les prix, exacerbée par une demande en forte croissance. Le cours actuellement élevé du baril contribue à l’état de crise dans lequel sont plongés depuis 2008 les pays historiquement développés. Les énergies de substitution ont pour la plupart un prix de re-vient élevé. Le défi économique autant que politique auquel vont être confrontées les sociétés humaines dans les pro-chaines décennies sera de poursuivre leur développement en consommant de l’énergie plus coûteuse qu’autrefois.

Une réponse qui relève pour le moment de l’utopie est le renoncement volontaire à la croissance dans le refus de la technologie et la conversion à une existence bucolique et frugale [3]. L’espèce humaine n’en prend pas le chemin. D’autres réponses envisagent au contraire de tirer parti de la technologie en vue d’évolutions voire de ruptures néces-

D’abord, tendre vers la sobriété énergétique en augmen-

inclut les vecteurs. Il sera nécessaire d’aller beaucoup plus loin que la tendance à la baisse de l’intensité énergétique telle qu’observée au cours des dernières décennies3, au moyen de politiques d’incitation volontaristes.

Ensuite, décarboner au maximum les sources d’énergie est un impératif. En effet, la part des combustibles fossiles dans le bouquet (appelé souvent « mix ») énergétique est, de nos jours, prépondérante (figure 1).

On observe sur la figure 1 que l’énergie primaire est prin-cipalement utilisée à fournir de la chaleur utilisée soit directe-ment soit après conversion en travail auquel cas, on n’échappe pas aux lois de la thermodynamique qui fixent une limite supé-rieure à l’efficacité énergétique des machines thermiques.

L’adaptation de l’offre à la demande tient compte de la géographie humaine. La production et la distribution d’éner-

3 Quantité d’énergie consommée par point de PIB. Les relevés montrent que l’intensité énergétique a suivi au cours des dernières décennies une ten-dance générale à la baisse.

gie ne sont pas les mêmes pour une mégalopole et pour un habitat dispersé. Dans le premier cas, il faut d’abord de grosses unités de production et des réseaux d’électricité, de chaleur et de transports collectifs à grande capacité. Dans le second, la production décentralisée peut aller jusqu’à l’auto-nomie énergétique à l’échelle d’un village avec une distribu-tion locale plus légère, mais les transports individuels sont incontournables.

Tendances

L’analyse des tendances montre que la demande d’électri-

aussi que la plupart des technologies innovantes qui sont proposées en matière d’énergie concernent la production, le transport et le stockage d’électricité. On doit donc s’attendre à ce que le vecteur électricité prenne une part de plus en plus importante dans le système énergétique. Il pourrait être concurrencé en partie dans l’avenir par le vecteur hydrogène qui présente en plus l’intérêt de fournir un moyen de stoc-kage de l’énergie.

En effet, l’éolien et le solaire qui connaissent une crois-sance rapide ont le défaut d’être intermittents. En consé-quence, la puissance garantie issue de tels générateurs est une fraction modeste de la capacité installée. Il existe plu-sieurs modes possibles de gestion de l’intermittence par un opérateur de réseau : substitution, délestage, foisonnement, stockage… Or l’électricité se stocke difficilement et d’autant moins, relativement, que la capacité du réseau est impor-tante. A l’échelle d’une région, les stations de transfert d’éner-

l’hydrogène dans l’avenir apparaissent les mieux adaptés à une gestion optimisée de l’intermittence.

La production et la distribution d’énergie sont un secteur industriel important qui se développe par lui-même et sous l’impulsion de la puissance publique. Mais le temps industriel qui s’étend sur de nombreuses décennies est incompatible

Figure 1 : Transformation de l’énergie depuis des sources primaires jusqu’aux utilisateurs : situation en 2010. L’essentiel de l’énergie

est fourni sous forme de chaleur dont une grande partie est perdue (pollution thermique).

jphauet
Rectangle
Page 10: Aperçu du numéro 2013-2 de la REE (juin 2013)

REE N°2/2013 Z 25

LES GRANDS DOSSIERSIntroduction

Internet est devenu un « objet » quotidien pour chacune et chacun d’entre nous, complè-tement intégré dans les services des objets les plus courants : téléviseur, téléphone, tablette, voiture... Avec la généralisation des accès sans fil, il n’y a même plus de prise physique pour nous rappeler l’existence d’un réseau, tout au plus une opération à faire lors de la mise en route d’un nouvel appareil. Cette ubiquité, accessibilité en tout temps et tout lieu, nous apparaît d’un usage fort confortable et nous aurions du mal à revenir en arrière. L’accessibilité était inscrite dans la conception des protocoles de l’Internet dont le cahier des charges initial était de « réaliser un réseau capable de résis-ter à tout type de panne ou d’agression sur ses nœuds ». Le choix par ses concepteurs de la simplicité du datagramme, de mécanismes de routage décentralisés, de protocoles ouverts sont, pour une part essentielle, à l’origine de sa réussite. Même si passer à l’échelle planétaire et à des mil-liards d’usagers n’était pas évident, ce qui me paraît tout à fait extraordinaire c’est qu’Internet soit devenu le réseau numérique multiservice capable de transporter tous types de flux d’information : données, images, télévision, voix, loi-sir, commande contrôle de systèmes... alors qu’il n’y avait lors de sa conception pas d’exigences explicitement formu-lées dans ces sens contrairement à ses nombreux concur-rents des années 80.

Le mode de conception ouvert et collabora-tif (RFC et logiciels libres) de l’Internet confirme l’expression populaire « on est toujours plus intel-ligent à plusieurs que tout seul ». Il a permis cette incroyable créativité. A l’instar de Louis Pouzin et de Hubert Zimmermann, nous ne doutons pas que les ingénieurs français continueront à être moteurs et innovateurs de l’avenir d’Internet.

Cette multiplication des flux d’informations est à l’origine des quantités gigantesques de données à acheminer que l’on compte en Téraoctets. Poussé par l’explosion des ob-jets connectés, l’acheminement de contenus (films, télévisuels, jeux...) a pris le pas sur les flux historiques voix et données. La première conséquence est que la montée des besoins en débit continue depuis 15 ans, est loin de s’essouffler.

Il est assez présomptueux d’intituler ce dossier « L'avenir d’Internet », alors qu'il n'aborde que quelques-unes des voies que l’avenir nous réserve. La réduction de la consommation d’énergie s’impose pour tous et Internet n’y échappera pas mais il pourra sûrement aussi y jouer un rôle. Que tous les objets soient connectés semble naturel mais est bien loin d’être réalisé. Internet est le premier vrai réseau universel de service, ouvert et totalement décentralisé. Il a complètement fait exploser les modèles économiques antérieurs, permis l’arrivée et le succès de nouveaux acteurs.

L’avenir d’Internet

Hommage à Hubert Zimmermann 1941-2012Polytechnicien et Télécom ParisTech (ENST 1966), Hubert Zimmermann se consacre aux premiers travaux sur les

réseaux de données. Au sein du projet de réseau Cyclades de l’IRIA avec Louis Pouzin il a fait partie des pionniers français du monde de l’Internet.

Nous lui devons une contribution essentielle à la science des réseaux : la rédaction du modèle de référence ISO dont les concepts d’organisation en couches et d’entités homologues - pair à pair- structurent toutes les architectures de protocoles et de services des réseaux.

Dans les années 80, après avoir contribué à la mise en place de l’architecture ISO dans les projets de la Direction Générale des Télécommunications et l’avoir fait prendre en compte par les organismes de normalisation, il entreprend, le développement du système d’exploitation Chorus initialement conçu pour les systèmes distribués qu’il fera évoluer en un système temps réel modulaire. Il crée la société Chorus Systèmes qui édite le logiciel ChorusOS. Il rejoint Sun Microsystem aux États-Unis lorsqu’elle achète Chorus en 1997 et contribue à la création de plusieurs produits.

De retour en France, il accompagne des créateurs d’entreprises sur de nouvelles technologies dans le montage de leur start up.

Pierre RolinInstitut

Mines-Télécom

Page 11: Aperçu du numéro 2013-2 de la REE (juin 2013)

26 Z�REE N°2/2013

LES GRANDS DOSSIERS Introduction

L’article d’Ivan Mériau, Marc Bouillon, Prosper Chemouil, Chidung Lac décrit la montée en débit au niveau des réseaux de transport et d’accès ainsi que les conséquences de la convergence des réseaux fixes et mobiles. Les auteurs mettent l’accent sur l’ampleur des investissements qu’impose la crois-sance du besoin de bande passante. Le constat de la préémi-nence des contenus conduit à réfléchir à des évolutions vers des architectures orientées vers leur distribution. La sécurité est devenue un enjeu majeur. Le passage à des réseaux ouverts et programmables permettront-ils la coexistence harmonieuse de services extrêmement différents ?

L’article de Yannick Delibie, Alexander Pelov et Laurent Toutain expose ce qu’est l’Internet des objets aujourd’hui. Le concept d’objet intelligent n’est pas vraiment nou-veau, ce qui l’est, c’est que Internet apporte un service de communication pérenne. Cet « avenir » n’en est qu’à ses prémices, les mécanismes protocolaires existent mais sont loin de résoudre les problèmes que le déploiement à très grande échelle néces-site pour permettre des usages de masse.

Dans l’article de Catherine Lepers et Dominique Chiaroni, c’est au réseau lui-même que s’applique la volonté d’être plus économe en énergie. Une gageure puisque la croissance du besoin en débit, ainsi que du nombre d'équipements raccordés, va se poursuivre. Les technologies optiques

apportent des améliorations de performance considérables en débit tout en consommant moins que l’électronique.

Le réseau Internet est né dans le monde académique, sur un modèle de gratuité et d’ouverture, qui a totalement bou-leversé l’organisation et le poids des acteurs dans le monde des Télécoms. L’article de Godefroy Dang Nguyen et Didier Pouillot présente la situation actuelle et en explique les causes. Il montre des disparités considérables au niveau des systèmes réglementaires et des poids économiques. Il ouvre aussi vers

de possibles « bifurcations » dans un do-maine ou l’innovation peut provoquer très rapidement des changements de position de domination.

La gouvernance de l’Internet n’est pas traitée dans ce dossier. Le réseau est dé-centralisé mais des règles de nommage se sont imposées, sans que cela soit techni-quement nécessaire, qui donnent à ceux qui les contrôlent un avantage technique-ment et politiquement injustifié. La neu-tralité doit perdurer vis-à-vis des acteurs si l’on veut maintenir cet espace d’innova-tion, de créativité et de liberté.

Ce dossier dédié à l’avenir de l’Internet ne peut omettre de rendre hommage au grand scientifique et entrepreneur que fut Hubert Zimmermann qui nous a quittés en novembre 2012 (voir encadré). Q

Les réseaux de télécommunications du futur : enjeux et évolution à un horizon de 5 à 10 ansPar Ivan Mériau, Marc Bouillon, Prosper Chemouil, Chidung Lac ..............................................................................p. 27

Impact des objets sur les protocoles de l’InternetPar Yannick Delibie, Alexander Pelov, Laurent Toutain .....................................................................................................p. 36

Perspectives d’évolution des réseaux optiques vers une meilleure efficacité énergétiquePar Catherine Lepers, Dominique Chiaroni ............................................................................................................................p. 43

Prospective du numérique : quelle gouvernance pour quel futur ?Par Godefroy Dang Nguyen, Didier Pouillot .......................................................................................................................p. 53

LES ARTICLES

Pierre Rolin, est Ingénieur INSA Rennes (1974) et docteur d’état. Il conduit des recherches au CNRS puis à l’INRIA sur les réseaux locaux. Professeur à l’ENSTA et Telecom Bretagne (1989-1997), il rejoint jusqu’en 2005, la direction de la recherche de France Telecom R&D où il coordonne les recherches « réseaux et logiciels ». Directeur de Télécom SudParis. (2005-2012), il oriente la formation sur les tech-nologies émergentes et le dévelop-pement international. Depuis 2013, il est chargé de mission à l’Institut Mines-Télécom. Auteur de livres, de brevets, membre du comité éditorial de la revue internationale “Annals of Telecom”, il préside le conseil scienti-fique et technique pour la SEE.

Page 12: Aperçu du numéro 2013-2 de la REE (juin 2013)

24 Z�REE N°2/2013

L'AVENIR D'INTERNET

Ivan Mériau, Marc Bouillon, Prosper Chemouil, Chidung Lac France Télécom

Introduction Proposer une vision de l’évolution des réseaux à

long terme (5-10 ans) est chose difficile, car ce terme est situé à la limite de l’horizon observable dans un contexte d’évolution technique et économique très rapide. Pour imaginer le jeu des possibles, il est utile de se plonger dans le passé. Au début des années 2000, nous étions au début du déploiement de l’ADSL – l’UMTS n’était pas encore déployé – et, en même temps, à la veille d’une révolution qui a fait passer en moins de 10 ans un réseau conçu et utilisé quasi exclusivement pour la téléphonie à la nouvelle ère de l’informatique et de l’Internet. Nous sommes aujourd’hui dans une nouvelle phase, avec en parti-culier le développement exponentiel des réseaux so-ciaux et le déploiement de réseaux d’accès à très haut débit, fixes et mobiles. Cette phase devrait amener à une évolution encore plus profonde que celle vécue lors du passage du RTC1 à l’ADSL.

Les investissements, par exemple, seront plus im-portants qu’il y a dix ans : environ 18 Md e seront nécessaires pour raccorder 80 % de la population française en fibre optique, alors que le déploiement

1 Réseau Téléphonique Commuté.

de l’ADSL n’a coûté que 2,5 Md e si l’on exclut le coût du réseau cuivre. Et au-delà de ces déploiements de nouveaux réseaux d’accès, c’est l’ensemble du réseau Internet qui va devoir évoluer. Nous proposons dans cet article d’aborder cinq tendances majeures : (i) la montée en débit au niveau des réseaux de transport et d’accès ; (ii) l’évolution vers des architectures orien-tées distribution de contenus ; (iii) la convergence des réseaux fixes et mobiles ; (iv) le passage à des réseaux ouverts et programmables ; (v) la prise en compte ren-forcée de la sécurité et de la sûreté de fonctionnement.

Répondre à la forte croissance de la demande en débit

Comme conséquence de l’évolution des usages et des nouveaux services, les experts prévoient que la croissance du trafic dans le réseau va se poursuivre à un régime soutenu (multiplication par environ deux tous les deux ans) dans les 5 à 10 ans à venir. A titre d’exemple, en France, le trafic instantané du réseau cœur IP d’Orange a dépassé le Tbit/s en octobre 2011 : il a été multiplié par dix depuis 2003. La croissance des débits pourrait s’échelonner entre 25 % et 40 % par an selon les scénarios. La demande pourrait ainsi être mul-tipliée par un facteur compris entre 15 et 40 d’ici dix ans.

Sur les réseaux fixes, c’est la croissance de la consommation de contenus audiovisuels qui sera le principal moteur de cette croissance, mais c’est égale-ment l’évolution des formats vidéo qui devrait impo-ser son rythme : après la 3D, la très haute définition,

Les réseaux de télécommunications du futur : enjeux et évolution à un horizon de 5 à 10 ans

This paper shows our vision of future networks as they could evolve within 5 to 10 years from now. Five major issues illustrate this evolution: (i) traffic increase at the access and transport networks challenged by FTTH, VDSL and LTE for the former, by advanced optical technologies for the latter; (ii) transformation from current content distribution architectures (CDN) to enhanced ones (ICN); (iii) fixed-mobile convergence for which some traffic routing scenarios can be put in place; (iv) transition to virtualized, open and programmable networks (SDN); (v) consideration of enhanced security and dependability, especially for critical services. The technical innovations leading to these changes go along with economic constraints and sustainable ecosystem development.

ABSTRACT

Page 13: Aperçu du numéro 2013-2 de la REE (juin 2013)

REE N°2/2013 Z 25

Les réseaux de télécommunications du futur : enjeux et évolution à un horizon de 5 à 10 ans

la Quad HD (ou le format 4K)2 est prévue pour l’horizon 2015, puis la TV dite « immersive3 » à l’horizon 2020, avec des définitions de plusieurs dizaines de Megapixels. Les dé-bits nécessaires devraient sans doute alors être supérieurs à 100 Mbit/s pour un flux audiovisuel.

Poussée par la généralisation des terminaux mobiles per-sonnels multimédia, la croissance des services de données mobiles devrait également se poursuivre à un rythme très soutenu dans les dix ans à venir. Si la cadence actuelle se maintient jusqu’en 2015, les besoins en débit devraient être multipliés par plus de 25 par rapport à 2010 selon les prévi-sions de la direction technique d’Orange France. Cette crois-sance se poursuivant au même rythme durant la période 2015-2020, les besoins pourraient être multipliés par 200 à 900 d’ici 2020 par rapport à 2010. Les débits issus des terminaux mobiles personnels seraient alors de deux à neuf fois supérieurs aux débits constatés alors sur les réseaux fixes et représenteraient alors entre 15 et 30 % du débit total du réseau, contre seulement 1 % en 2010.

Une question majeure est de savoir comment les opé-rateurs feront face à cette demande, en conciliant les contraintes technologiques, économiques, mais également celles liées à leurs engagements en terme de maîtrise de la consommation énergétique.

Sur l’accès fixe, ce sont les technologies FTTH4 et VDSL5 qui permettront d’assurer les déploiements du très haut dé-bit. La fibre optique pourra être déployée en point-à-point (une fibre par client jusqu’au central) ou en mode point- multipoint (fibre partagée) sur des réseaux optiques passifs de type PON [1]. Les perspectives d’amélioration des réseaux de type PON6 sont importantes avec une augmentation du débit théorique par client : quelques centaines de Mbit/s avec le GPON déployé actuellement, 1 Gbit/s avec les NGPON2 et, à long terme, des débits supérieurs avec NGPON3.

Sur l’accès mobile, le passage à la quatrième génération (réseaux 4G) augmente de manière notable les débits dispo-nibles sur les réseaux cellulaires. Au-delà, on devrait pouvoir atteindre un débit partagé pouvant aller jusqu’à 1 Gbit/s dans

2 Les formats QuadHD et 4K sont deux formats vidéo proposant une défi-nition équivalente à 4 fois le format full HD actuel, soit 8 Megapixels. L’intérêt d'une définition beaucoup plus importante est en particulier de permettre aux utilisateurs de se rapprocher plus près de l’écran ou de pouvoir « zoomer » sur une partie de l’écran.

3 La télévision dite « immersive » permet une interaction forte avec les contenus audiovisuels et donne l’illusion d’un environnement réel.

4 Fiber To The Home : la fibre jusqu’au domicile. 5 Very High Bitrate Digital Subscriber Line : une technologie pour trans-

mettre des débits plus importants (jusqu’à 100 Mbit/s symétrique) que l’ADSL, sur des courtes distances (quelques centaines de mètres).

6 Passive Optical Network.

le sens descendant en situation stationnaire. La densification du réseau cellulaire en utilisant les technologies à petites cel-lules (“small cells”) sera également une solution pour aug-menter les débits. La technologie alternative pour les accès sans-fil est le Wi-Fi. Les bandes de fréquences utilisées ne font pas l’objet de licences. Ainsi, la technologie se développe de manière importante, que ce soit dans des réseaux priva-tifs, ou publics (hotspot). Les débits théoriques sont égaux ou supérieurs à ceux disponibles sur les réseaux cellulaires, mais, en pratique, l’absence d’ingénierie radio peut faire chu-ter ceux-ci de manière importante.

Dans les réseaux de transport optiques, on devrait éga-lement assister à des évolutions fortes, tant au niveau des performances que des topologies : les débits en ligne sur les liens WDM7 du réseau cœur optique pourraient approcher le Tbit/s par longueur d’onde8 à l’horizon 2020 [2] et le réseau devrait être de plus en plus maillé afin de réduire sa consom-mation électrique globale. L’arrivée de technologies de type OBS9 pourrait apporter des économies supplémentaires sur la consommation grâce à une gestion plus efficace [3].Concernant le réseau cœur IP, on pourrait avoir un cou-plage plus étroit entre la couche IP et la couche optique, en utilisant la technologie GMPLS10. Pour ce qui concerne les

7 Wavelength Division Multiplexing.8 La limite théorique est estimée à 34 Tbit/s pour la totalité de la bande

C sur une portée de 500 km.9 Optical Burst Switching : une technologie optique consistant à allouer

de façon dynamique les longueurs d’onde.10 Generalized Multi-Protocol Label Switching : GMPLS est un protocole

permettant de gérer plusieurs types d’interfaces et de technologies de commutation. Il représente de facto un plan de commande pour les réseaux à commutation de longueur d’onde.

Evolution des performances des systèmes

La loi de Moore régit la croissance des performances des sys-tèmes électroniques (mémoires, processeurs, etc.) depuis plusieurs décennies. Pour les années à venir, compte tenu des difficultés et des investissements toujours plus importants pour passer à une nouvelle technologie de gravure, on sera probable-ment plus proche d’un doublement tous les deux ans que tous les ans. Une hypothèse considérant une multiplication par 30 des performances des systèmes entre 2010 et 2020 (doublement tous les deux ans) est sans doute la plus probable, mais il faudra également envisager une hypothèse plus positive correspondant à un gain d’un facteur 100. A plus long terme, il faudra étudier des technologies de rupture telles que la technologie graphène, l’informatique quantique, etc.

jphauet
Rectangle
Page 14: Aperçu du numéro 2013-2 de la REE (juin 2013)

REE N°2/2013 Z 61REE N°2/2013 Z 61

LES GRANDS DOSSIERSIntroduction

Dans son dernier numéro, la REE a consa-cré l’un de ses grands dossiers au problème clé du véhicule électrique. Elle en achève au-jourd’hui la publication avec trois nouveaux articles. L’ensemble du sujet sera ainsi, nous l’espérons, correctement couvert. Mais le véhicule électrique est un problème multi-facette difficile à appréhender. Longtemps, on a conditionné son émergence à la dis-ponibilité de batteries lui assurant une auto-nomie suffisante à un coût acceptable. Ces batteries, la plupart au lithium, arrivent au-jourd’hui à maturité, même si des progrès sont encore à prévoir dans les années qui viennent. Mais on s’aperçoit que d’autres problèmes doivent être résolus : infrastruc-tures de stations de recharge normalisées et suffisam-ment denses, intégration de ces stations dans les réseaux électriques tout en permettant d’éviter des appels de puis-sance excessifs et d’appeler des moyens de production générateurs d’émissions de CO2 additionnelles, acceptation par l’usager du nouveau concept sous-jacent au véhicule électrique : la voiture « bien d’usage » plus que « bien de pos-session ».

Tous ces obstacles sont les uns après les autres en voie d’être franchis. Depuis la parution du dernier numéro de la REE, la nouvelle voiture électrique de Renault, la « Zoé » est sortie, premier véhicule réellement conçu autour de la propulsion électrique et affichant une autonomie réelle comprise entre 100 et 150 km. A Paris, Autolib’, premier ser-vice public d’automobiles électriques en libre service développé à l’échelle d’une grande métropole européenne, est en passe de confirmer son succès

avec 1 780 véhicules en service et plus de 28 000 abonnés. Mais Peugeot n’est pas en reste. Dans son article sur « le retour de la voiture électrique », Marc Tison explique la vision du 2e grand constructeur français sur les modalités de ce retour qu’il considère comme à présent irréversible. Le véhicule électrique n’est pas une invention monoli-thique qui viendrait un grand soir détrôner le véhicule à moteur thermique. Les deux peuvent cohabiter, autour de solutions d’hy-bridation plus ou moins poussées, permet-

tant de s’adapter aux caractéristiques de chacun des usages, selon que l’exigence de mobilité sera plus ou moins forte.

Claude Ricaud, Schneider-Electric, revient sur le problème des infrastruc-tures de recharge et montre comment les trois types de recharge actuellement prévus : normale, rapide, très rapide, de-vraient satisfaire les besoins des usagers. La normalisation européenne semble acquise, même si, une fois de plus, les dernières décisions n'ont pas été favo-rables aux intérêts français. Il reste à faire en sorte que la recharge soit gérée au mieux des intérêts du réseau, en per-mettant réellement une diminution des émissions sans accroître la puissance appelée pendant la pointe. C’est l’un des objectifs des smart grids au cœur de l’initiative « Cercle des entreprises » lancée par la SEE.

Enfin, le véhicule électrique ne signi-fie pas seulement voiture particulière. Il y a quelques décennies les trolley-bus étaient monnaie courante dans nos villes. L’article de Nicolas Urien et

Le véhicule électrique (2) : comment donner corps

à la transition énergétique ?

Jean-Pierre Hauet est ancien élève de l’Ecole Polytechnique et Ingénieur du corps des mines.Il a occupé différentes positions dans l’Administration, en parti-culier celle de rapporteur géné-ral de la Commission de l’Ener-gie du Plan. Il a dirigé le centre de recherches de Marcoussis d’Alcatel avant d’être nommé directeur Produits et Techniques de Cégélec puis Chief Techno-logy Officer d’ALSTOM. Depuis 2003, il est Associate Partner de KB Intelligence, spécialisé dans les questions d’énergie, d’auto-matismes industriels et de déve-loppement durable. Il préside l’ISA-France, section française de l’ISA (Instrumentation, Systems & Automation Society). Il est membre émérite de la SEE et membre du comité de rédac-tion de la REE.

Jean-Pierre HauetAssociate Partner KB IntelligenceMembre Emérite

de la SEE

Page 15: Aperçu du numéro 2013-2 de la REE (juin 2013)

62 Z�REE N°2/2013

LES GRANDS DOSSIERS Introduction

Nicolas Chanclou de Siemens, nous montre comment le concept peut être revisité et remis au goût du jour grâce au développement d’un bus à haut niveau de service doté de la propulsion électrique, capable de se ravitailler par biberonnage à chaque arrêt afin d’être en mesure de parvenir, de façon autonome, jusqu’à la station suivante.

Le véhicule électrique, au travers de ses multiples enjeux, donne corps à la notion de transition énergé-

tique : enjeux énergétiques, industriels, environnemen-taux et enjeux de société. Il remet au cœur du débat la technologie, mais associée à des composantes socié-tales et environnementales fortes. A une époque où la recherche des économies est la règle, le véhicule électrique apporte une note positive : il ne s’agit pas de brider le besoin de mobilité mais d’y répondre, en respectant au mieux les intérêts multiples à prendre en considération. Q

Le retour de la voiture électriquePar Marc Tison ...................................................................................................................................................................................p. 63

Les infrastructures de recharge des véhicules électriques Par Claude Ricaud ............................................................................................................................................................................p. 67

Une solution respectueuse de l’environnement pour les bus à haut niveau de servicePar Nicolas Urien, Nicolas Chanclou ...................................................................................................................................... p. 73

LES ARTICLES

Page 16: Aperçu du numéro 2013-2 de la REE (juin 2013)

REE N°2/2013 Z 63

LE VÉHICULE ÉLECTRIQUE (2)

Marc Tison PSA

IntroductionAprès plusieurs tentatives de commercialisation en

grande série, le véhicule électrique est réapparu depuis 2010 dans les réseaux de distribution des construc-teurs automobiles. Quelles sont les raisons de cette nouvelle émergence de la technologie électrique dans le monde automobile ? Quels sont les « arguments » des technologies thermique et électrique et comment ces arguments peuvent évoluer ? Quelles sont les modifications de l’écosystème mobilité portées par la technologie électrique et quelles sont les possibilités de synthèse entre les deux technologies ? Telles sont les grandes questions posées aujourd’hui aux consom-mateurs et aux producteurs de mobilité, elles sous-tendent des enjeux industriels considérables et des bouleversements sociétaux importants.

Les facteurs expliquant l’émergence actuelle de la technologie électrique

Le prix des énergies fossiles augmente de façon iné-luctable, ceci est lié principalement à leur raréfaction. La diminution de la demande liée à la crise mondiale ou les progrès technologiques sur les motorisations thermiques permettent des périodes de stabilité voire de diminution des prix, mais ces périodes sont courtes et la tendance haussière est claire.

Les émissions de gaz polluants et à effet de serre participent à la dégradation du climat ; ce constat conduit les gouvernements à demander au domaine des transports des réductions de la dépendance au pétrole.

Les conséquences des pollutions gazeuses et so-nores sur la santé humaine sont de moins en moins acceptées et les décideurs politiques prennent des décisions contraignantes pour réduire ces nuisances. Les limitations de g/CO2 émis, les restrictions de la circulation en ville, les bonus/malus font de plus en plus partie des politiques publiques.

Le développement des énergies durables (hydro-liennes, éoliennes, solaires, etc.) mais intermittentes trouve un appui dans les capacités de stockage ap-portées par les véhicules électriques.

Des progrès très importants ont été accomplis en quelques années sur les batteries destinées aux véhicules. Des investissements en recherche et dé-veloppement ont été réalisés pour d’autres secteurs industriels, notamment les secteurs de l’aviation et des ordinateurs, qui ont permis des progrès sensibles en termes d’énergie par kilogramme mais aussi en termes de durée de vie.

La figure 1 montre que l’énergie massique des bat-teries pour véhicules électriques a été multipliée par 4 en passant de la technologie Ni-Cd à la technologie Li-ion, et ceci avec des durées de vie de plus de 8 ans en termes d’usage sur un véhicule. Ces progrès permettent aux constructeurs de proposer des véhi-cules ayant une autonomie en conditions d’usage réel (c’est-à-dire avec chauffage ou climatisation) d’envi-ron 100 kilomètres. Le potentiel de recherche dans ce domaine permet d’envisager des progrès complé-mentaires dans les années qui viennent.

Les arguments des deux technologiesLa technologie thermique supporte le concept de

voiture polyvalente. Le client actuel, culturellement encore attaché à la possession de l’objet de mobilité,

Le retour de la voiture électrique

The economic crisis which started in 2008, notably characterized by rising oil prices, and the need for energy savings have re-sulted in a come-back of the electric vehicle in the automotive market. This return was made possible by substantial progresses made in the field of energy storage batteries, progresses associated with the emergence of the Li-ion electrochemistry. Use constraints of electric cars have fostered innovations: car pooling of electric vehicles in urban areas is developing and applica-tions made available to the driver give a concrete perception of the concept of on line car. Electric car is also a potential outlet for renewable energies, thanks to its ability to store electrical energy. In short, the "mobility-renewable" concept could allow the car to support the energy revolution and show that it is compatible with the necessary preservation of the environment.

ABSTRACT

Page 17: Aperçu du numéro 2013-2 de la REE (juin 2013)

64 Z�REE N°2/2013

LE VÉHICULE ÉLECTRIQUE (2)

fait ses choix en tenant compte de ses usages. La voiture thermique, eu égard à ses performances en termes de kilo-mètres d’autonomie, apporte une réponse permettant de tenir compte de tous les usages indépendamment de leur fréquence. Cette technologie fait actuellement l’objet de grands progrès : réduction des consommations/kilomètre, amélioration des pollutions aussi bien gazeuses que sonores. Ces progrès lui permettent de rester très compétitive vis-à-vis de la technologie électrique.

La technologie électrique à trois handicaps. En premier l’autonomie, les enquêtes clientèle montrent que c’est le frein majeur au développement de l’électrique. Pourtant des voies de progrès font l’objet de mises au point et d’expé-rimentations : augmentation des performances des batte-ries, utilisation de la charge rapide, conception de « routes électriques ». En second lieu le prix et notamment celui des batteries. Là aussi des voies de progrès techniques existent et les effets de volume permettront des réductions de prix. Les prévisions pour 2020 sont d’arriver à des prix de 200 à 250 F/kWh au lieu 600 à 700 F/kWh en 2011. Enfin le manque de disponibilité de moyens de charge handicape également la diffusion des véhicules électriques. Sur ce point également les plans de progrès se mettent en place dans de nombreux pays : prise en compte par les concepteurs de bâtiments de l’obligation d’installer des prises de charge dans les parkings, aides des états pour installer des bornes publiques, projet de directive européenne pour imposer aux états membres l’installation de bornes de recharge pour véhi-cules électriques, etc.

Les modifications de l’écosystème mobilité induites par le véhicule électrique

Le véhicule électrique, compte tenu de son autonomie réduite par rapport au véhicule thermique, met l’usager dans un environnement contraignant. Comme souvent les contraintes d’usages ont suscité de nombreuses innovations. Ces innovations apparaissent aujourd’hui dans de nombreux domaines :

-micile, au travail, dans les parkings mais aussi sur les voies publiques. La connaissance précise de ces infrastructures va être indispensable et donc faire appel à des banques de données à jour en temps réel. Ces infrastructures doivent être standardisées et les processus de paiement doivent être également adaptés à la diversité des investisseurs d’infrastructures de charge. De plus il est sans doute éga-lement pertinent de prévoir des possibilités de réservation des bornes de charge ;

souhaité doivent également être disponibles pour l’usager. Celui-ci doit pouvoir adapter les prestations qu’il souhaite (chauffage, climatisation, vitesse, itinéraire, etc. ) à l’énergie dont il dispose ;

A titre d’exemple l’élimination des consommations néces-saires à la recherche d’une place de parking en ville va être rendue possible par des dispositifs d’identification et de réservation des places de stationnement. Nice est la pre-mière ville à mettre en place un tel dispositif ;

Figure 1 : Puissance et énergie spécifiques des batteries. Source Johnson Control - SAFT 2007.

jphauet
Rectangle
Page 18: Aperçu du numéro 2013-2 de la REE (juin 2013)

REE N°2/2013 Z 79REE N°2/2013 Z 79

RETOUR SUR !!!!!!!!!

Rémi Baillot

Génie fourvoyé1, Georges Claude (1870-1950), l’homme aux 250 inventions, l’Edison fran-çais, semble toujours condamné à l’oubli. Reconnaissons qu’avec la ténacité inflexible qui a fait ses succès, son caractère entier, son jusqu’auboutisme sans bornes, sans prudence, peut-être le malin plaisir qu’il prenait à braver les ins-titutions sclérosées, et surtout ses engagements politiques à droite et sa propagande pétainiste, il a réussi à se mettre tout le monde à dos.

L’Ecole de Physique et Chimie Industrielles de la Ville de Paris (devenue depuis Ecole supérieure de physique et de chimie Industrielles - ESPCI), rivale des succès al-lemands, fut sa première école ; son père instituteur et petit inventeur s’était chargé de son instruction primaire et secondaire.

ElectricienPremier job : chef du laboratoire de l’usine muni-

cipale d’électricité des Halles à Paris. Il s’y manifeste comme un grand spécialiste, invente un phase-mètre et… reçoit une belle secousse électrique. Ce fut sa chance décisive : il présente à Arsène d’Arsonval son idée de mise à la terre des installations et se lie d’ami-tié avec ce grand médecin physiologiste, explorateur du corps humain, de ses réseaux chimiques et élec-

1 NDLR : la publication récente dans la REE de dossiers sur des sujets dont Georges Claude peut être considéré comme pion-nier (L’éclairage dans REE 2012-4 et les énergies marines renou-velables dans REE 2012-5) nous a suggéré de revenir sur ce génial inventeur : nous avons demandé à Rémi Baillot, auteur de la première biographie exhaustive du savant, d’évoquer sa personnalité et REE le remercie vivement d’avoir accepté. L’ouvrage de Rémi Baillot, que nous recommandons à nos lec-teurs, est paru sous le titre Georges Claude, le génie foudroyé ; c’est un ouvrage de 538 pages, abondamment illustré, qui replace la vie et les inventions du savant dans l’histoire de son époque.

triques, apprécié du Tout-Paris et des cercles férus d’électrici-té. Georges se passionne, crée L’Etincelle Electrique, revue de vulgarisation qu’il rédige et illustre pratiquement tout seul. Il en extrait un best seller, L’électricité à la portée de tout le monde, 60 000 ex., traduc-tion en plusieurs langues… et félicitations du roi des Belges !

InventeurEncore plus fort que l’électri-

cité car énergie transportable : l’acétylène. Mais ce puissant combustible, totalement réticent à se faire comprimer en bouteille, explose à toute tentative. Engagé à la Compagnie Thomson-Hous-ton par une grande figure de la Fée Electricité, Abdank Abakanowicz, Georges réussit sa domestication en dissolvant le combustible dans de l’acétone maintenu dans la bouteille par une sorte d’éponge. Merci l’EPCI, vite (1896) des brevets dans le monde entier, les plans d’une usine et voici la première paternité industrielle de G.C. : la Compagnie Française de l’Acétylène Dissous et une belle récompense américaine, la John Scott Award.

Champion des gaz industrielsPour que cette entreprise prospère, il fallait abaisser

le coût de production de l’acétylène ; l’oxygène devait le permettre pense Georges. Il s’attaque à la liquéfaction de l’air et réussit là où les plus grands ténors de la physique avaient échoué. Il réussit à liquéfier avec travail extérieur. Plus élégant et lucratif que le procédé de son prédéces-seur Carl von Linde, il réalise une production industrielle en continu (1902) bientôt suivie de la séparation oxygène et azote purs (1905). Il crée L’Air Liquide – dont la raison sociale est encore aujourd’hui : Société pour l’exploitation des procédés Georges Claude – qui se développe très vite, notamment avec les applications en soudage-cou-page et essaime dans le monde entier, Japon compris. Georges rémunéré par royalties fait fortune.

Georges Claude : génie trop dérangeant, à oublier !

Figure 1 : Georges Claude à sa table de travail Photo extraite de son livre « Ma vie et mes inventions ».

Page 19: Aperçu du numéro 2013-2 de la REE (juin 2013)

80 Z�REE N°2/2013

!!!!!!!!!!! RETOUR SUR !!!!!!!!!!!!!! RETOUR SUR

Inventeur du tube au néon, une gloire occultée

La recherche reste son dada. Il extrait les gaz rares, tou-jours avec des procédés industriels.

« Dès que j’ai eu le néon à ma disposition avec abondance - nous raconte Georges - j’ai pu satisfaire aux demandes de nombreux savants de tous pays. Parmi ceux-là était l’un des auteurs de la découverte du néon, sir William Ramsay, avec qui j’avais des relations depuis longtemps pour mes brevets anglais. Peu de temps après, je reçus de Ramsay, en témoignage de gratitude, un petit tube de Plücker chargé d’un peu du néon que je lui avais envoyé. La magnifique lumière rouge de ce tube m’enthousiasma et m’incita à rendre cette lumière industrielle. ».Cette idée chatouillait depuis très longtemps les deux cer-

veaux de Georges Claude ; le cerveau gauche, le rationnel, y pense, depuis au moins 1895 ; voir L’Etincelle Electrique du 13 juillet :

« Mais malgré tout, ce principe de l’incandescence pour obtenir de la lumière sera toujours imparfait : le seul procédé rationnel, le seul digne de la science, sera ce-lui dans lequel, lorsqu’on voudra obtenir de la lumière, on n’obtiendra que de la lumière, à l’exclusion presque complète d’autre chose. C’est le chemin que nous montre le ver luisant, le tube de Geissler... (celui de la lumière froide.) ».Le cerveau droit, l’émotionnel, trahit Georges dans sa nou-

velle édition de L’électricité à portée de tout le monde, quand il exprime son plaisir d’expérimenter :

« Le tube de Geissler..., joie des collégiens, passion de pas mal de personnes enthousiastes des beautés de l’électricité. Présentent-ils une succession d’étranglements et de renflements, la lumière affecte des aspects très variés : pâle et diffuse dans les parties élargies, elle se surexcite, augmente d’intensité dans les étroits défilés qu’elle est obligée de franchir ; en même temps apparaissent des stries obscures qui forment un joli contraste avec l’éclat des parties voisines. La lumière des tubes de Geissler est d’une douceur in-comparable. En bon adepte de La Palisse, je pense assez naturellement qu’il n’y aura qu’à agrandir ces petits tubes pour en faire des gros ! ».Mais, surprise, la décharge électrique qui donne cette

belle lumière écarlate dans le petit tube, cadeau de Ramsay, ne donne qu’une mauvaise lueur pâle dans un tube plus gros.

Bizarre, la lumière rouge revient, si on rétrécit une section du tube.

« Qu’est-ce à dire ? Ceci : dans les petits tubes, le néon vibre aisément sans s’occuper des impuretés ; dans les

gros tubes, ceux que je veux construire, il n’y a que les impuretés qui comptent. ». Les impuretés responsables de ces échecs doivent être

les inévitables traces d’hydrogène qui se dégagent pendant le fonctionnement.

« J’en viens à conclure qu’il faut arriver à aspirer cet hydro-gène hors du tube au fur et à mesure de sa formation, en y laissant le néon. Mais comment ? Et je ne sais quelle intuition va me conduire en désespoir de cause à essayer un moyen contraire à tout bon sens, un moyen dont la théorie démontre qu’il sera impuissant : relier le tube à former à un récipient plein de charbon plongé dans l’air liquide. On connaît en effet la faculté du charbon de bois d’absorber les gaz : on sait aussi, par les travaux de Dewar, que son action augmente énormément quand la tempé-rature s’abaisse. Mais ces travaux ont également montré qu’en règle générale, cette activité du charbon refroidi sur les gaz dépend de leur aptitude à la liquéfaction : plus ils sont liquéfiables, mieux ils sont absorbés, les actions capil-laires semblant intervenir ici pour provoquer une sorte de liquéfaction anticipée dans les pores du charbon. Donc rien à faire théoriquement, pour aspirer l’hydrogène hors du tube en y laissant le néon, car c’est surtout le néon, bien plus condensable, qui sera absorbé. J’essaie pourtant et, merveille, le résultat est obtenu ! C’est qu’en effet l’hydrogène fait à la règle de Dewar la plus complète, la plus paradoxale exception : bien plus difficilement liquéfiable que le néon, il est pourtant infi-

Figure 2 : Georges Claude. Crédit photo : Bayer - Rover Viollet/Getty images.

jphauet
Rectangle
Page 20: Aperçu du numéro 2013-2 de la REE (juin 2013)

REE N°2/2013 Z 85

Président de la SEEENTRETIEN AVEC FRANÇOIS GERIN

REE : Vous venez de prendre la Pré-sidence de la SEE. A quoi sert selon vous aujourd’hui la SEE ?F. G. : La SEE est un lieu de rencontre très actif entre scientifiques, ingénieurs, responsables de marketing, universi-taires, opérateurs, constructeurs, repré-sentants de la puissance publique et des organismes de normalisation… C’est un endroit où des points de vue pluridisci-plinaires sur les grandes questions scien-tifiques et techniques peuvent se croiser pour contribuer à la formation d’avis objectifs allant dans le sens de l’intérêt général. Depuis longtemps, la SEE joue le rôle de trait d’union entre le monde universitaire et le monde industriel.

Des structures d’accueil existent et permettent de répondre à des besoins très diversifiés, tant sur le plan technique que géographique, sans oublier une compétence reconnue dans l’organisa-tion de congrès et de conférences.

C’est donc également un outil de per-fectionnement permettant à chacun de maintenir et d’enrichir ses connaissances dans les domaines qui sont les nôtres et qui sont plus que jamais d’actualité : électricité, électronique, technologies de l’information et de la communication. La SEE est en particulier un producteur et un éditeur d’études, d’articles et de travaux de qualité, sous forme de publications papier et numériques. La SEE n’a pas, me semble-t-il, d’équivalent en France.

REE : Il y a en France un scepticisme latent vis-à-vis des sciences et des techniques. Que peut faire la SEE pour que les métiers d’ingénieurs

et de techniciens retrouvent la confiance des citoyens ?F. G. : La SEE peut aider à la diffusion de la culture scientifique, notamment par des actions auprès des établisse-ments d’enseignement, des remises de prix, la diffusion large de certains articles d’accès simple. La voie électronique est évidemment essentielle et c’est pour cela que nous avons rénové récem-ment le site Internet de la SEE et rendu accessible par voie numérique la REE. Il nous faut aller plus loin : nous devons renforcer notre présence pour contribuer à rendre les sciences et les techniques plus familières au grand public et plus attirantes pour les jeunes de notre pays. Il faut que la France retrouve confiance dans ses ingénieurs.

Notre ambition est d’apporter à l’ave-nir une expertise technique à des débats de société. La REE joue évidemment un rôle essentiel dans cette approche ; elle formalise et crédibilise l’action de la SEE et fédère les contributions d’experts indépendants et compétents, afin que des débats rationnels puissent se tenir sur les grands sujets du moment.

REE : Quels sont les grands thèmes scientifiques et techniques qui vous paraissent aujourd’hui prioritaires dans le domaine de la SEE ?F. G. : L’énergie est un très grand sujet du fait de son impact sur l’environnement et le climat mais le sont aussi la croissance et l’équilibre du commerce extérieur. Nous continuerons donc à nous intéresser à la « décarbonisation » de la production, au transport et au stockage de l’électricité. Cela nous amène à la mobilité électrique,

sous toutes ses formes, qui constitue non seulement un défi technique mais aussi un enjeu de société. Le véhicule électrique, auquel le présent numéro de la REE consacre un nouveau dossier est au centre du débat. Son développement appelle une mutation fondamentale dans la façon dont est considérée l’automobile et un effort d’équipement de la part de toutes les collectivités.

Bien entendu, nous continuerons à nous intéresser de très près aux télé-coms et à l’évolution de l’Internet, sujet auquel ce numéro de la REE consacre son dossier principal.

Sur un plan transverse, les questions de culture scientifique et technique, R&D, innovation et industrialisation sont abso-lument centrales actuellement, ce qui pose le problème du positionnement de la France et de l’Europe sur ces thèmes.

REE : Dans le numéro précédent de la REE, a été annoncée la création au sein de la SEE du « Cercle des entreprises ». Quels en sont les objectifs et comment ce cercle va-t-il fonctionner ?F. G. : La création du Cercle des entre-prises, initialisée par mon prédécesseur, Paul Friedel, et à l’animation duquel il a bien voulu accepter de présider, est ef-fectivement un élément important de la relance de notre action. Le Cercle des en-treprises a vocation à devenir, sur des su-jets considérés comme essentiels par nos professions, un carrefour entre opérateurs d’énergie et de transport, constructeurs d’équipements et de biens de consom-mation, afin de mieux comprendre les ressorts des marchés émergents et d’être capables de faire des recommandations pour accélérer leur démarrage et faire en sorte que l’industrie française s’y posi-tionne pour le mieux.

Prenons l’exemple de la flexibilité des réseaux électriques et des « smart grids » : le concept ne pourra se développer à grande échelle que si les constituants mis sur le

La SEE : un lieu de rencontre où des points de vue

pluridisciplinaires peuvent se croiser

Rendre les sciences et les techniques

plus familières au grand public et plus attirantes pour

les jeunes de notre pays

Page 21: Aperçu du numéro 2013-2 de la REE (juin 2013)

86 Z�REE N°2/2013

marché sont interopérables entre eux, qu’il s’agisse d’équipements domestiques ou professionnels (frigos industriels, condition-nement d’air, etc.). Il faut donc convenir de spécifications fonctionnelles, d’interfaces communes, de protocoles d’échange, etc. Il y a là un très gros travail de réflexion et de pré-normalisation à mener. Ce sera l’un des objectifs du Cercle des entreprises.

Nous pouvons prendre également l’exemple de la multimodalité dans les transports qui doit permettre d’assurer un service de bout en bout à travers les diffé-rentes parties prenantes à des trajets variés.

Dans l’un et l’autre cas, se pose un problème majeur de cohérence de l’éco-système, auquel il est urgent de s’attaquer, en intégrant bien entendu les initiatives qui peuvent être prises au niveau européen.

REE : On a dit la SEE fragile et sujette à des difficultés budgétaires sérieuses. Aura-t-elle les moyens de ses ambitions ?F. G. : La SEE est en bonne voie pour recouvrer son équilibre grâce aux ac-tions vigoureuses entreprises ces deux dernières années, mais sa situation nécessite de la renforcer par davantage d’adhésions individuelles et des contrats « corporate » avec de nouvelles entre-prises. Il nous faut rechercher de nou-veaux partenariats avec des écoles et des universités, développer les activités de congrès, lancer de nouvelles activités telles que le Cercle des entreprises et, pourquoi pas, des actions de formation continue. Nous avons parmi nos adhé-rents les compétences pour cela.

Je suis confiant dans l’avenir de la SEE dont les forces vives et l’esprit d’initiative sont remarquables. Certaines des actions engagées, telles que l’accès à la REE au sein des grandes écoles et des univer-sités, auront un effet à moyen terme

en rendant la SEE familière aux futurs diplômés. Ils s’en souviendront lorsqu’ils seront dans la vie active.

REE : Pensez-vous pouvoir dévelop-per des actions particulières en direc-tion des jeunes ?F. G. : Je viens de mentionner les ac-tions engagées en direction des grandes écoles et des universités. Nous devons réfléchir également aux plus jeunes gé-nérations et aux meilleures voies pour les toucher. Toute idée nouvelle sera la bienvenue et nous avons besoin d’un maximum de relais. Notre revue 3EI est déjà un excellent outil de formation per-manente pour les professeurs du secon-daire et nous les aidons ainsi dans leurs missions au quotidien.

REE : Envisagez-vous de développer des coopérations avec d’autres socié-tés ayant des vocations analogues à la SEE ? Quelles actions internatio-nales pensez-vous pouvoir mener ?F. G. : Bien entendu. Nous avons déjà des coopérations avec de grandes socié-

tés professionnelles : l’IEEE (Institute of Electrical and Electronics Engineers), l’ISA (International Society of Automa-tion), nous avons un partenariat avec l’ICIN (International Conference on Intel-ligence in Next Generation Networks), nous sommes membre-fondateur de la F2S (Fédération des Sociétés Scien-tifiques), nous avons des contacts préliminaires avec TI (Techniques de l’In-génieur) et avec l’ASTF (Arab Science and Technology Foundation).

REE : Quel rôle la REE et les autres publica-tions de la SEE doivent-elles jouer dans la stratégie que vous entendez développer ?F. G. : La qualité atteinte par la REE en fait une publication de premier plan et le vecteur privilégié de notre communica-tion. La priorité est aujourd’hui de finali-ser la mise en ligne de la revue, qui est opérationnelle pour les nouveaux numé-ros depuis le début de cette année. Il faut à présent retraiter les publications plus anciennes pour les rendre acces-sibles par voie numérique.

Aux côtés de la REE, je rappelle l’im-portance des monographies qui consti-tuent des publications de référence que nous éditons dans le cadre d’un parte-nariat avec Hermès. J’ai déjà mentionné la revue 3EI, très appréciée des ensei-gnants, sans oublier e-STA, revue spécia-lisée dans les sciences et techniques de l’automatique. Toutes ces publications seront très prochainement accessibles à partir d’un portail unique, l’e-SEE, qui constituera un vecteur important de dif-fusion de nos travaux. Le site internet pourra également accueillir des articles indépendants de la REE, valorisant les travaux et réflexions de nos adhérents. Q

Propos recueillis par J.P. Hauet

Le Cercle des entreprises : un carrefour entre opérateurs

d’énergie et de transport, constructeurs d’équipements et de biens de consommation

La SEE est sur le chemin de son équilibre

mais il faut la renforcer par de nouvelles actions

François Gerin est ancien élève de l’Ecole polytechnique, Ingénieur des mines et diplômé de l’INSEAD. Il est directeur gé-néral adjoint de Siemens SAS après avoir dirigé, de 1991 à 1998, l’ensemble des acti-vités de télécommunications du groupe en France. Il a été élu Président de la SEE, succédant à Paul Friedel, en février 2013.

L’ensemble des publications de la SEE sera prochainement disponible à partir d’un portail

unique : l’e-SEE

jphauet
Rectangle
Page 22: Aperçu du numéro 2013-2 de la REE (juin 2013)

REE N°2/2013 Z 87

ENSEIGNEMENT & RECHERCHE

REE : pouvez-vous rappeler le contexte de la création de l’UTC, les grandes dates de son histoire ainsi que la ge-nèse des deux autres UT fran-çaises ?A. S. : Le 2 octobre 1972 est la date officielle de création de l’UTC, établissement public à caractère scientifique, culturel et profession-nel : l’UTC est née de l’ambition de ses fondateurs, notamment Guy Deniélou, de mettre en place, dans une ville de taille moyenne, une université expérimentale qui revendique la technologie comme objet d’étude, de formation et de recherche et qui combine dans ses statuts les atouts d’une université et ceux d’une école d’ingénieurs.

Depuis, la pédagogie développée à l’UTC, la place qu’y occupe la recherche ainsi que son organisation ont représenté trois innovations de rupture dans le monde académique « traditionnel » :

bien faite : cela nécessite à la fois une ouverture sur le monde, garantie par la Technologie et les Sciences de l’Homme, et l’acquisition d’une grande autonomie, que chacun développe par le choix de ses UV et la construction de son parcours universitaire et professionnel. L’ouverture aux milieux économiques et à l’interna-tional, affichée aussi comme une priorité, se traduit concrètement par notre politique de stages et de séjours à l’étranger (80 % des étudiants y passent 6 mois) et par la place des professionnels dans la formation.

-gique, autour de problématiques liées au développement industriel et à des enjeux transversaux. Nos laboratoires sont ouverts aux étudiants comme aux industriels, ce qui crée un état d’esprit et une véritable culture face aux problématiques professionnelles que les étudiants vont rencontrer ; cela apporte une réponse aux be-soins exprimés par les industriels et contribue au développement économique des entreprises.

l’université classique, ce qui a contribué à l’émergence de dé-marches innovantes : 30 % des enseignements sont assurés par des contractuels venant du monde de l’industrie et notre Conseil d’administration comporte 50 % de membres extérieurs.

Le succès de l’expérimentation du modèle UTC est à l’origine de la création en octobre 1985 de l’an-tenne UTC de Belfort (avec le sou-tien de grands industriels), qui se transformera ensuite en Université de Technologie de Belfort-Montbé-liard. Autre duplication sur le mo-dèle réussi de l’UTC, l’Université de Technologie de Troyes voit le jour en 1994 avec 50 étudiants et un directeur… venu de l’UTC.

REE : pouvez-vous donner quelques chiffres-clés actuels, tels que flux d’entrée et de sortie des trois UT ? Quelles sont les répartitions suivant les grands domaines des sciences et des techniques ?A. S. : Le Groupe des UT est l’un des plus importants réseaux d’écoles d’ingénieurs en France avec près de 1 850 diplômes d’ingé-nieurs délivrés annuellement. Les flux d’entrée (référence automne et printemps 2012, car nos admissions sont semestrielles) sont de 850 dans le tronc commun (396 à l’UTC, 208 à l’UTT, 246 à l’UTBM) et de 1 267 en admission directe dans les cycles d’ingénieurs (364 à l’UTC, 281 à l’UTT et 622 à l’UTBM).

Le domaine le plus représenté est la Mécanique, suivi de l’Infor-matique. Chaque UT a en outre une offre spécifique : par exemple le Génie Biologique n’existe qu’à l’UTC. L’offre de formation master est également riche et diversifiée avec, à l’UTC, douze spécialités réparties sur quatre mentions (Innovation et Complexité, Systèmes complexes en interaction, Transformation et valorisation des res-sources naturelles, Ingénierie des services et systèmes).

REE : concernant les étudiants, quelles sont leurs origines ? A. S. : Les origines des étudiants sont très variées et traduisent une volonté affichée de diversité culturelle, sociale, géographique... en tant que facteur d’enrichissement mutuel, propice par ailleurs à l’innovation. De ce point de vue, notre recrutement est très claire-ment national, voire international, puisque 85 à 90 % de nos ins-crits proviennent d’une académie autre que celle de l’établissement d’accueil. La proportion moyenne de jeunes filles est de l’ordre de 29 % (33 % à l’UTC). Le pourcentage d’étudiants étrangers à l’UTC est de 20 %, pourcentage qui permet une véritable interculturalité favorable à l’objectif d’ingénieur “international minded”.

Les universités technologiques : un modèle innovant

Entretien avec Alain Storck Président de l’Université de Technologie de Compiègne (UTC)

Page 23: Aperçu du numéro 2013-2 de la REE (juin 2013)

88 Z�REE N°2/2013

ENSEIGNEMENT & RECHERCHE

Le succès du modèle des UT se traduit par une sélectivité du recrutement, à l’UTC notamment : un admis pour 10 candidats à l’entrée en tronc commun et deux pour 10 à l’entrée dans le cycle ingénieur, qui attire de nombreux étudiants en provenance des IUT (plus de 50 % des candidats) ou des CPGE (près de 30 %).

Les UT délivrent trois diplômes : ingénieur et master d’une part, doctorat de l’autre. Pour l’UTC, le flux global de diplômés par an s’établit à 1 000 dont 700 ingénieurs, 200 masters et 100 doctorats. La voie de la formation par apprentissage a été intro-duite il y a plusieurs années, en mécanique et en informatique à l’UTC, avec des flux de l’ordre de 50 par an ; elle traduit la volonté d’une ingénierie pédagogique plus inductive reposant sur un étroit partenariat avec les milieux économiques.

REE : quelles sont les analogies/différences des UT avec les Universités et les Grandes Ecoles ?A. S. : A l’origine, il y a quarante ans, l’UTC a été créée selon un modèle dual d’université et de grande école : université en tant que lieu traditionnel de production et de transmission des connais-sances et des savoirs, école d’ingénieur en tant qu’entité de for-mation technologique et de recherche, très ouverte aux milieux économiques, sélective et professionnalisante. La finalité cogni-tive est mise à profit dans les enjeux de production de valeurs, de richesses, de systèmes sociotechniques utiles à l’homme… face à des défis socioéconomiques et sociétaux.

Cette dualité est d’ailleurs illustrée très concrètement par notre présence en tant que membre dans les trois conférences représen-tatives des universités et grandes écoles (CPU, CDEFI et CGE). Il est clair cependant que cette distinction qui repose sur une réalité his-torique, des conditions et des finalités initiales différentes s’estompe progressivement : toutes les universités revendiquent aujourd’hui la

les écoles d’ingénieurs ont considérablement développé leur enga-gement dans la recherche. La taille des UT, intermédiaire entre celles

des universités traditionnelles et des écoles d’ingénieurs, leur permet de conci-lier deux aspects essentiels : d’une part une offre de formation et de recherche pluridisciplinaires, qui constitue un véri-table atout en terme d’attractivité et de capacité à aborder des problématiques globales et transversales (transports, san-té, énergie, systèmes urbains…) ; d’autre part l’agilité, la réactivité, la mobilisation collective et la capacité d’adaptation des structures plus légères ; s’y ajoutent le dy-namisme de la vie étudiante ainsi que le rôle des associations de diplômés et des réseaux d’anciens, dont la présence dans les entreprises peut constituer un formi-dable levier d’action de l’UT au sein de la sphère économique.

Les industriels et les milieux professionnels jouent par ailleurs un rôle important dans la vie des UT et leurs stratégies de dévelop-pement, non seulement par leur participation à la formation et à la recherche partenariale (et au financement des établissements via la taxe d’apprentissage ou les fondations), mais aussi par leur pré-sence dans les divers conseils statutaires des UT, au sein desquels ils apportent la vision des milieux économiques, leurs évolutions en termes de marchés, de besoins de profils nouveaux... Il est symbo-lique que le Président du CA soit une personnalité extérieure !

REE : les UT sont installées dans des villes moyennes, où elles ont apporté une présence universitaire inconnue aupa-ravant. Quels avantages/inconvénients tirez-vous de cette situation ?A. S. : Vous avez raison de le souligner, cette situation est très spé-cifique aux Universités de Technologie et elle apparaît, de mon point de vue, assez confortable et intéressante tant pour l’université elle-

-fois, que la stratégie d’alliance et de développement de l’université ne se limite pas à sa dimension territoriale et régionale et que les collectivités territoriales (région, agglomération, département) com-

Entreprises, pour stimuler l’attractivité, le développement socioéco-nomique, l’innovation et le dynamisme territoriaux.

Sur ces deux volets, l’UTC a un positionnement clair et cohérent ; sa stratégie d’alliance repose en effet sur trois axes parfaitement

PRES Sorbonne Universités, dont nous sommes devenus membre fondateur en décembre 2012 et qui repose sur une logique de complémentarité thématique (avec Paris 2, 4, 6, l’INSEAD et le Mu-seum) et de visibilité internationale, celui enfin d’une alliance territo-riale en Picardie, pour dynamiser les projets centrés sur des enjeux et atouts du territoire picard (chimie verte, transports et mobilité, technologie et santé).

Vue de l’UTBM (Université de Technologie de Belfort-Montbéliard).

jphauet
Rectangle
Page 24: Aperçu du numéro 2013-2 de la REE (juin 2013)

REE N°2/2013 Z 93

D eux éminents philosophes-historiens des sciences, qui viennent de faire paraître des ouvrages importants sur les

errements des scientifiques, inspirent cette chronique. Mais que de variétés dans l’erreur, que de trajectoires (ou d’impasses !) possibles dans les activités de ceux qui se consacrent à la recherche et à la promotion de la science et de la technique. Et, aussi, quelles approches divergentes mais complémentaires entre ces deux ouvrages passionnants, riches d’Histoire et d’histoires !

Girolamo Ramunni, qui enseigne l’his-toire des sciences et des techniques au CNAM, est bien connu pour ses travaux sur l’histoire de l’électronique ou de l’infor-matique ; c’est à lui qu’on doit, en 1995, l’ouvrage consacré aux « 100 ans d’histoire de l’Ecole Supérieure d’Electricité ». Faisant sienne la phrase de James Joyce pour qui « les erreurs sont les routes de la décou-verte », il explore les lieux où se forgèrent de grandes avancées mais aussi des idées et des théories que l’avenir devait démentir et invalider. Souvent ces thématiques ont été largement oubliées, voire occultées, et les savants qui les promurent ont laissé dans l’histoire des noms prestigieux rarement associés à ces erreurs : ainsi en est-il de Galilée qui s’entêta à vouloir prouver la rota-tion de la terre sur elle-même par la seule considération des marées ! Ainsi défilent dans le Panthéon des erreurs fécondes quelques très grands noms de la science, tels Newton, Franklin, Planck et Einstein.

On apprend aussi beaucoup sur quelques aventures moins glorieuses, tels les fameux rayons N de Blondlot ou la construction, bien sûr jamais achevée, d’un ordinateur sans mémoire, envisagée puis pilotée par L. Couffignal après la libération. On saura gré à G. Ramunni d’avoir, dans un évident souci pédagogique, insisté sur les conditions cultu-relles du travail scientifique et le rôle de l’er-reur, qui est ici plutôt complice de la science qu’ennemie. Le statut de l’erreur, qu’il ne sau-rait être question de confondre avec l’irratio-nalité ou l’imprécision, est consubstantiel à la culture du temps et du lieu, aux habitudes et conceptions des savants eux-mêmes, aux idéologies aussi, hélas. Le débat, la polé-

mique même, sont nécessaires au progrès sans être toutefois suffisants, surtout à notre époque qui enregistre le déclin de la science dans le grand public en même temps que le succès des annonces médiatiques les plus improbables, telle la mémoire de l’eau ou la vitesse - exorbitante (?) - des neutrinos !

L’ouvrage de Girolamo Ramunni est important et il stimule l’esprit critique ; le lecteur souhaiterait parfois un peu plus de détails techniques, en lien avec les connais-

sances actuelles : ainsi il aimerait mieux comprendre ce qu’avait envisagé Einstein en 1921 en matière d’expérience décisive pour décider de la nature, corpusculaire ou ondu-latoire, de la lumière. Il y a là, même si ce fut une erreur, une impressionnante préfigura-tion du fameux paradoxe EPR et de sa suite féconde, de John Bell à Alain Aspect…

Toute autre est l’ambition d’Alexandre Moatti, pionnier reconnu de la diffusion de la

culture scientifique (cf ses ouvrages signa-lés dans REE 2012-5 « Vient de paraître » et les sites qu’il a créés (www.science.gouv.fr et www.bibnum.education.fr). Avec ALTERSCIENCE, il étudie les pratiques de ceux que leur formation scientifique et tech-nique, voire leurs responsabilités profes-sionnelles ou institutionnelles, ne destinent pas à une opposition frontale, entêtée et parfois délirante à la science officielle.

Ainsi examine-t-il comment à l’heure du GPS il existe encore (depuis plus d’un siècle !) des détracteurs de la théorie de la relativité, comment on peut revendiquer 200 ans après la naissance de Darwin le droit d’enseigner les théories créationnistes, comment on peut au nom du pouvoir imposer des théories ou des orientations néfastes, voire dangereuses, comment l’affaire des avions renifleurs a pu berner tant d’ingénieurs…

Chacune des grandes divisions de l’ou-vrage, très copieux et fortement documenté, se lit comme une histoire passionnante où l’on découvre, avec une curiosité mêlée d’intérêt et de tristesse, la permanence de thèmes tels que la théorie du complot, le re-fus de la théorie, le scientisme médiocre qui s’efforce d’expliquer la religion par la science pour faire pièce aux explications religieuses, les postures récurrentes d’opposition aux institutions scientifiques ou le dévoiement de celles-ci, par intérêt idéologique ou éco-nomique.

Le livre est constamment passionnant même si son découpage entremêle quelque peu les chronologies et les acteurs. On regrettera que l’auteur fustige à plusieurs reprises F. Joliot-Curie ou qu’il se montre trop bref sur la triste épopée de Mitchourine et Lyssenko, qui conduisit à la mort tant de savants et stérilisa pour des décennies la bio-logie soviétique.

L’Alterscience, c’est en quelque sort la zone d’ombre, la face cachée de la science : il faut saluer le salutaire coup de projecteur que donne Alexandre Moatti. L’ouvrage de G. Ramunni explique la part d’humanité de l’erreur et justifie le titre de la chronique. Ce-lui d’Alexandre Moatti conforte à sa façon la seconde partie du vieil adage romain :

sed perseverare diabolicum ! QB. Ay.

Girolamo RamunniLes lieux des erreurs scientifiques

Editions Le Cavalier Bleu octobre 2012 - 208 p. - 18,50 e

Alexandre MoattiALTERSCIENCE postures,

dogmes, idéologiesEditions Odile Jacob

janvier 2013 - 336 p. - 23,90 e

CHRONIQUE

Errare humanum est…

Page 25: Aperçu du numéro 2013-2 de la REE (juin 2013)

94 Z�REE N°2/2013

LIBRES PROPOS

Jean Bergougnoux Président de l’association « Equilibre des Energies »

L a maîtrise des émissions de CO2 dues aux usages de l’énergie apparaît aujourd’hui comme l’enjeu central de la transition éner-gétique qui s’engage ou s’amplifie dans les

différents pays de l’Union européenne. Au-delà de l’indispensable sobriété énergétique, la « décarbona-tion » aussi poussée que possible des productions et consommations d’énergie apparaît donc comme un objectif prioritaire. La production d’électricité n’échap-pera évidemment pas à cet impératif. Dans le cas par-ticulier de la France, il faudra, quelles que soient les orientations retenues en matière de production d’électricité nucléaire, maintenir à un niveau extrêmement bas le « contenu en CO2 » du kWh élec-trique. Ceci passera, bien entendu, par un développement important d’éner-gies renouvelables (EnR) électrogènes, éoliennes et photovoltaïques, en par-ticulier. L’introduction massive de ces énergies ne se fera, cependant, dans de bonnes conditions que si l’on dispose de moyens de piloter une partie de la demande électrique afin de faire face en temps quasi réel à la forte variabilité systématique ou aléatoire de ce type de production. Les applications thermiques de l’électricité dans les bâtiments résidentiels et tertiaires (chauffage des locaux et de l’eau) se prêtent dès au-jourd’hui particulièrement bien à ce type de pilotage et s’y prêteront encore mieux demain grâce à Linky et aux smart grids. Le bâtiment électrique apparaît donc ainsi comme un atout majeur dans la conduite de la transi-tion énergétique puisqu’il consommera une énergie lar-gement « décarbonée » et soutiendra le développement des EnR électrogènes.

Or, force est de constater que la réglementation ther-mique 2012, telle que les paramètres en sont calés au-jourd’hui, ne s’inscrit absolument pas dans cette vision de moyen-long terme. Refusant de prendre en compte la dimension CO2 de la problématique de l’énergie dans la construction neuve, refusant de tenir compte des ver-tus des nouvelles technologies d’utilisation de l’électri-cité en termes de régulation fine et de « contrôlabilité »,

les services en charge de la mise en œuvre de cette nouvelle réglementation thermique en ont fait, à leur insu sans doute, un instrument de promotion irréver-sible du gaz partout où il est présent sur le territoire. Au-delà des inconvénients immédiats du renforcement du poids d’une énergie, largement dominante, coûteuse pour l’usager, coûteuse pour la balance commerciale et en termes de dépendance énergétique, cette orien-tation présente le grave inconvénient de refermer à une filière française de qualité un champ de mise en œuvre à échelle industrielle de technologies innovantes et por-teuses d’avenir.

Il est donc grand temps de mettre en cohérence les réglementations actuelles en matière d’usage des énergies dans le bâtiment avec les impératifs

de la transition énergétique.

La maîtrise des émissions de CO2, enjeu central de la transition énergétique

La politique énergétique française s’inscrit dans une politique énergétique européenne déchirée entre libéralisme et dirigisme.

La Commission européenne s’est as-signé comme objectif depuis de nom-breuses années de lever les derniers

obstacles qui pouvaient s’opposer à la généralisation et à l’amélioration du fonctionnement des mécanismes concurrentiels dans le secteur de l’énergie. L’instauration d’une régulation par le marché aussi effective que pos-sible lui apparaissait en effet à la fois comme un gage d’efficacité économique et comme un moteur puissant de l’intégration européenne. En dépit des réticences de certains Etats-membres et de quelques entorses à l’orthodoxie concurrentielle, la déréglementation des « secteurs exclus » et la fin des derniers monopoles inté-grés, furent emblématiques de cette libéralisation qui constitue désormais le cadre de référence dans lequel s’inscrit l’économie du secteur.

Presque simultanément cependant, s’est renforcée une prise de conscience de l’existence de probléma-tiques auxquelles la concurrence ne pouvait apporter, par elle-même, de réponse satisfaisante : changement climatique, épuisement des ressources rares, risques géopolitiques. La Commission européenne ne pouvait évidemment pas méconnaître la prégnance de ces pré-

Le bâtiment électrique :

un atout majeur face aux défis

de la transition énergétique

Page 26: Aperçu du numéro 2013-2 de la REE (juin 2013)

REE N°2/2013 Z 95

LIBRES PROPOS

occupations de long terme : d’où la volonté d’obtenir des engagements quantitatifs des Etats-membres sur un certain nombre d’objectifs. Les Etats de l’Union sont donc invités à définir et mettre en œuvre des moda-lités d’intervention leur permettant de respecter leurs engagements européens en évitant de trop remettre en cause les principes de la concurrence et du fonctionne-ment des marchés.

Sans qu’il y ait lieu d’entrer ici dans le détail des textes, on rappellera que l’Europe a retenu trois objectifs à horizon 2020, les « 3 x 20 » :

-cord mondial satisfaisant sur le climat, les émissions de gaz à effet de serre de l’U.E par rapport à leur niveau de 1990 ;

la consommation d’énergie finale de l’Union ;-

gie. Ce dernier objectif, en principe non contraignant, est resté assez flou jusqu’à l’adoption de la « Directive relative à l’efficacité énergétique » du 25 octobre 2012

-tion d’énergie primaire de l’Union par rapport à son niveau actuel.

La sagesse populaire sait bien que « l’on ne court pas trois lièvres à la fois »… surtout s’il arrive que deux d’entre eux partent quelquefois dans des directions opposées comme on le verra plus loin. Fort heureuse-ment, à long terme, un seul objectif subsiste : réduire

de l’U.E. en 2050 par rapport à leur niveau de 1990, grâce en particulier à « une production d’électricité à niveau d’émissions pratiquement nul ». L’unicité de cet objectif (le « facteur 4 ») résulte de la conviction que la contrainte climatique interviendra avant la contrainte d’épuisement des ressources énergétiques, conviction que confortent aujourd’hui les perspectives de dévelop-pement des hydrocarbures non conventionnels.

La maîtrise des émissions de gaz à effet de serre, apparaît donc comme l’objectif majeur d’une transition énergétique inéluctable, l’amélioration de l’efficacité énergétique et le développement des EnR étant, en bonne logique, des leviers permettant d’atteindre cet objectif, si possible au moindre coût économique et sociétal. Au-delà de l’indispensable sobriété énergé-tique, la « décarbonation » aussi poussée que possible des productions et consommations d’énergie apparaît

donc comme un objectif prioritaire. Il en est ainsi en particulier de la production de l’électricité qui devra être l’un des vecteurs de cette « décarbonation ».

Comment intégrer une forte proportion d’EnR dans le mix électrique européen ?

Sachant que la production d’électricité à partir de bio-masse restera limitée et ne posera pas de problème par-ticulier d’intégration dans le système électrique et que les énergies marines joueront, pour des raisons de coût, un rôle modeste dans les toutes prochaines décennies, les EnR électrogènes à prendre en considération ici sont l’éolien et le photovoltaïque. Les productions de ces deux types d’équipement présentent des caractéris-tiques communes :

-ginal de production est pratiquement nul. Il en est de même de son « contenu en CO2 » ;

qu’elle dépend de données météorologiques (vitesse du vent, ensoleillement) sur lesquelles le gestionnaire de réseau n’a pas prise : tout au plus peut-il écrêter la puissance produite s’il la juge excessive (pour des raisons techniques ou économiques) et si le contrat avec le producteur le permet ;

-tiques » accusées. Il y a, en moyenne, plus de vent l’hiver que l’été, ce qui est une bonne chose sous nos climats où la demande électrique est plus forte en hiver. Par contre le photovoltaïque produit surtout l’été et, bien sûr, dans la journée ;

importantes. Les aléas (vitesse des vents, ensoleil-lement) qui feront s’écarter ces productions de leur valeur horo-saisonnière moyenne sont imprévisibles longtemps à l’avance mais grâce aux progrès des pré-visions météorologiques, on peut les cerner avec une précision de plus en plus satisfaisante si l’on raisonne à plus court terme, par exemple, le jour J pour le jour J+1.

Dès lors, le problème extrêmement complexe de l’inté-gration de ces sources de production éminemment fluc-tuantes dans le système électrique se pose à deux niveaux :

-ment gérer « au mieux » (idéalement, en toute sécurité, au moindre coût et en émettant le moins de CO2 pos-sible), les autres moyens dont on dispose (hydraulique, stations de transfert d’énergie par pompage, centrales

jphauet
Rectangle
jphauet
Texte tapé à la machine
Vous voulez... Vous abonner à la REE ? Acheter un numéro ? Cliquer ICI Ou bien téléphoner au 01 56 90 37 04