36
ÉNERGIE ÉNERGIE TELECOMMUNICATIONS TELECOMMUNICATIONS SIGNAL SIGNAL COMPOSANTS COMPOSANTS AUTOMATIQUE AUTOMATIQUE INFORMATIQUE INFORMATIQUE Numéro 2016 EDITORIAL Le calcul à haute performance Ruptures et enjeux Gérard Roucairol www.see.asso.fr 1 ISSN 1265-6534 DOSSIERS La lutte contre le réchauffement climatique passe par la prise en compte d’un prix du carbone Par Jacques Percebois L'ARTI C L E INVITÉ Des avions plus électriques MEA'2015 MORE ELECTRIC AIRCRAFT Cet aperçu gratuit permet aux lecteurs ou aux futurs lecteurs de la REE de découvrir le sommaire et les principaux articles du numéro 2016-1 de la revue, publié en janvier 2016. Pour acheter le numéro ou s'abonner, se rendre à la dernière page.

Aperçu du numéro 2016-1 de la REE (janvier 2016)

Embed Size (px)

DESCRIPTION

Cet aperçu permet de découvrir le sommaire et les principaux articles du numéro REE 2016-1 publié en janvier 2016 - Pour s'abonner, merci de vous rendre à la dernière page.

Citation preview

ÉNERGIEÉNERGIE TELECOMMUNICATIONSTELECOMMUNICATIONS SIGNALSIGNAL COMPOSANTSCOMPOSANTS AUTOMATIQUEAUTOMATIQUE INFORMATIQUEINFORMATIQUE

Nu

mér

o

2

016

EDITORIAL Le calcul à haute performance

Ruptures et enjeuxGérard Roucairol

www.see.asso.fr

1

ISSN

126

5-65

34

DOSSIERS

La lutte contre le réchauffement climatique passe par la prise en compte d’un prix du carbonePar Jacques Percebois

L'ARTICLE INVITÉ

Des avions plus électriques

ME

A'2

015

M

ORE

ELEC

TRIC

AIR

CRAF

T

Cet aperçu gratuit permet aux lecteurs ou aux futurs lecteurs de la REE dedécouvrir le sommaire et les principaux articles du numéro 2016-1 de la revue,publié en janvier 2016. Pour acheter le numéro ou s'abonner, se rendre à ladernière page.

��

��

���������� ���������� ����������������������������������������

��������������������������������� ������������� !�"#�������

$������������������������%�&'���

�������������� �� ����������������� �������������� ������������� ������������������������������� !��"#� �$��%&#�����'���� ������ �����������������(����������� �������������)�������������

���*�����$ +������,�����-$��'�$���.�� ���/������������� ���0������������� ��� �������������%&#� ���'����1��������*�����$ +�������,�����-$���-�� ��� �0������������ ���2 ������������ ��� 0������������� ����3���� �4��-�#������ (�,�� �� �- ���"���$����������������������������*�� ���$ +����� ��$-��"�-��$�� �%&#�����'������%&#� �������-����.������*���-5�"-�$ �� ����#$����� 4-���%��$��'�����-6���"��%���-�����7����"���%��$��%���%����-��� " �����

�������������� �������������������� ������������ � �

�������������� ��������� ��������� ������������ ���������������� �����!�!"�������#�����������#���������� �

$��%������������������ � �&���������� �"%' ��(��#���������������� ��������!����)������� �!��*+����!��,��������� �

��������-������� ������������� ��� $��������!�-��� ���.�!� ��� ������ �-������ �����������(�!��������� ���������� �

������������ �������������� � ��������� �����/�������!��� �� ������� �0������������ �%��������1/����2��"������3��!��

���.�������(��������� �45*46*6789��-� ���������:��# ��������#�!!%��� ;���.���������' ��-� ��!��!�������������!��.�!������������!��������-�!�������������������������

����������� ����������������-�����7�$��'���,� )��-��%��$8�� ��$�����$ ��,�)0)2.�9�� ����%�5� (�, �������,���$���..� 0(�/��.)� )�,����:���������!��

�������������������������� ����!"#"��

REE N°1/2016 � 1

D e profondes ruptures sont en cours, tant tech-nologiques qu’économiques ou d’usage, qui ont déjà, ou vont avoir, un impact considé-rable sur l’architecture des ordinateurs et la

manière de s’en servir, sur la structure de l’industrie ainsi que sur les usages de la haute performance. Mais au-delà c’est l’ensemble de l’informatique et plus généralement du numé-rique qui est concerné tant il est vrai, et l’histoire l’a montré, que, dans tous les domaines, les applications existantes ont toujours besoin de faire plus et plus vite et que l’augmentation de la puissance de calcul rend possible de nouvelles applica-tions. De ce point de vue, ce qui se passe dans le domaine du calcul intensif préfigure des évolutions profondes de l’en-semble des technologies et des marchés de l’informatique.

Si on examine l’axe des évolutions technologiques, la rupture majeure provient du fait que l’augmentation de la puissance informatique ne peut plus désormais reposer sur l’accroisse-ment de la fréquence des microprocesseurs. En effet l’aug-mentation considérable de la consommation électrique et de la dissipation thermique qui résulte de l’accroissement de cette fréquence ont conduit les fabricants de semi-conduc-teurs à limiter cette fréquence à 3 ou 4 GHz.

La seule manière d’augmenter la vitesse d’un traitement infor-matique consiste donc à essayer d’effectuer en même temps, c’est-à-dire « en parallèle », plusieurs tâches que comporte ce traitement. Pour cela on va pouvoir bénéficier du proces-sus encore soutenu de miniaturisation des transistors afin de disposer, sur un circuit intégré, de plusieurs cœurs de proces-seurs, à terme de plusieurs centaines, puis de regrouper ces circuits au sein de plusieurs dizaines de milliers de serveurs interconnectés au sein d’une même machine qui permettra d’atteindre des puissances extrêmes comme l’exaflop (le mil-liard de milliards d’opérations arithmétiques à la seconde).

La mise en œuvre de telles architectures, dites « massivement parallèles », pose de nombreux problèmes technologiques pour limiter la consommation énergétique et pour assurer la résilience de ces architectures. Mais l’une des difficultés essentielles est liée à l’exploitation par le logiciel de telles architectures. Il va falloir concevoir des algorithmes capables de s’accommoder de niveaux très élevés de parallélisme ainsi

qu’écrire et mettre au point des programmes parallèles dont la complexité va croître de manière considérable. Cette diffi-culté est majeure et il faut constater que la très grande majo-rité des logiciels existants, qui sont séquentiels ou présentent un faible taux de parallélisme, ne peuvent absolument pas ti-rer parti de ces futures architectures. Il en résulte notamment que pour un industriel fournisseur de technologie, la taille de sa base installée n’est plus un garant de sa position future. En effet de nouveaux circuits intégrés de traitement vont devoir être inventés, de nouvelles architectures de machines vont être mises en œuvre, de nouveaux logiciels de base ou inter-giciels vont devoir être conçus et de nouvelles applications vont devoir être créées de toute pièce sans que pour l’instant aucun standard n’existe. Compte tenu de la multiplicité des pistes technologiques qui vont conduire à l’élaboration des futurs systèmes informatiques, on peut aussi constater que la traditionnelle indépendance entre le matériel et le logiciel qui s’est décantée au bout de plusieurs dizaines d’années de dé-veloppement des marchés de l’informatique, va être remise en cause. De nouveaux paramètres de changement de ce marché vont donc être introduits qui impacteront probable-ment très fortement l’industrie des progiciels et des services.

Dans ce contexte, il est clair que des opportunités consi-dérables apparaissent pour modifier en profondeur le jeu d’acteurs qui s’est installé au sein du marché mondial de l’informatique. Notre pays est bien placé pour tirer parti de ces opportunités. En effet la France est l’un des rares pays dans le monde et le seul en Europe à disposer d’acteurs industriels « leaders » qui couvrent une très grande partie de la chaîne de valeur du calcul intensif. Cette chaîne, qui va de la conception de supercalculateurs à des usages pion-niers par de grands utilisateurs en passant par l’élaboration, la vente d’applications et le service, peut en outre tirer bé-néfice d’une recherche technologique publique au meilleur niveau mondial.

Si on analyse l’axe des évolutions d’usage du calcul à haute performance, on peut remarquer qu’historiquement c’est la simulation numérique qui a guidé le recours au calcul inten-sif et ceci dans quelques domaines d’application : la défense, la recherche, la météo pour le secteur public, l’industrie manufacturière (automobile, aéronautique) et l’énergie

Le calcul à haute performanceRuptures et enjeux

EDITORIAL GÉRARD ROUCAIROL

2 ��REE N°1/2016

pour le secteur privé. De plus ces usages ont été principa-lement le fait de grandes organisations au sein de l’Etat ou de grandes entreprises du secteur privé. Les méthodes de simulation quant à elles ont le plus souvent reposé sur une modélisation mathématique aussi exacte que possible de processus physiques. Dans le futur, les trois paramètres que nous venons de citer (domaines d’application, méthodes de simulation, caractérisation des utilisateurs) vont évoluer très fortement pour démultiplier très largement les usages du calcul intensif.

En ce qui concerne les méthodes, outre l’emploi d’algo-rithmes plus classiques de fouilles de données, la capacité de collecter des informations générées sur Internet en très grande quantité favorise l’éclosion de méthodes d’autoap-prentissage. Ces méthodes rendues possibles par la puis-sance de calcul maintenant disponible, conduisent à une modélisation devenue statistique des processus à la source des données correspondantes (Big Data). Quelles que soient les méthodes de simulation utilisées, les domaines d’usage vont être très largement étendus à ceux par exemple de la santé, de l’urbanisation, de l’agroalimentaire, des matériaux, du multimédia, de l’analyse de risque, de l’analyse marketing, de la cosmétique, de la chimie, de la sociologie…

Le déploiement des infrastructures de cloud, en transformant un coût d’investissement nécessairement élevé pour des supercalculateurs, en un coût de fonctionnement et d’achat de services à la demande, va permettre de « démocratiser »

l’accès au calcul intensif au bénéfice des PME et des ETI tout en accélérant la diversification des domaines d’applications.

On le voit, les ruptures et opportunités associées à l’évolu-tion du calcul à haute performance sont considérables tout autant que leurs impacts sur la structure de l’industrie tant utilisatrice que productrice de technologies. En France le plan industriel « Supercalculateurs » dont je suis le chef de file, est à même de positionner notre pays dans le groupe de tête de la compétition mondiale et ceci sur tous les plans : technologies matérielles, diversification des usages, diversifi-cation et élargissement des utilisateurs, formation. Au-delà il convient de préparer une évolution encore plus radicale qui va concerner les fondements mêmes du calcul informatique et les matériaux qui vont le mettre en œuvre. La recherche fondamentale doit absolument s’organiser au sein d’un effort à la fois significatif et multidisciplinaire pour préparer le futur du numérique et la place de notre pays dans ce domaine.

Gérard Roucairol a débuté sa carrière professionnelle comme professeur d’Informatique à l’université Pierre et

Marie Curie, puis à l’université Paris Sud et enfin à l’Ecole normale supérieure. En 1984, il rejoint le groupe Bull pour

en prendre la Direction scientifique et est à l’origine du repo-sitionnement de Bull sur les supercalculateurs. Depuis 2009,

il préside l’association Teratec. Il a été président de l’Acadé-mie des technologies et, depuis 2014, il préside le Conseil

scientifique de l’Institut Mines-Télécom.

Une machine Bull du centre de calcul civil du CEA - © CEA/P.STROPPA

4 ��REE N°1/2016

sommaireNuméro 1 ����

1 EDITORIAL Le calcul à haute performance - Ruptures et Enjeux

Par Gérard Roucairol

4 SOMMAIRE

6 FLASH INFOS La propagation dans la troposphère pour les systèmes spatiaux

de télécommunications à très haut débit en bandes Ka et Q/V10 Filtrage non-linéaire pour la navigation inertielle13 La technologie RF SOI dans 100% de nos smartphones16 Capteurs inertiels à atomes froids : principe et applications19 L’ordinateur quantique D-WAVE. Mythe ou réalité 21 Un Wi-Fi pour l’internet des objets : le 802.11 ah22 Un stockage électrique par batteries de 10 MW mis en service

en Irlande23 Une neuvième planète dans le système solaire ?

26 A RETENIR Congrès et manifestations

28 VIENT DE PARAÎTRE La REE vous recommande

30 ARTICLE INVITÉ La lutte contre le réchauffement climatique passe par la prise

en compte d’un prix du carbone Par Jacques Percebois

38 LES GRANDS DOSSIERS Le démantèlement des installations nucléaires Introduction Par Jean-Pierre Hauet

41 Le démantèlement des installations nucléaires à la Direction de l’énergie nucléaire du CEA

Par Laurence Piketty

49 Plan opérationnel sur un chantier de démantèlement Par Cyril Moitrier, Samuel Blanchard, Yves Soulabaille

58 Recherche et innovation pour l’assainissement-démantèlement Par Christine Georges

64 Optimiser globalement la gestion des déchets radioactifs de démantèlement

Par Michel Dutzer, Frédéric Legée

p. 1

p. 38

p. 30

p. 70

Photo de couverture : © Onera

REE N°1/2016 � 5

70 Dossier MEA 2015 Des avions plus électriques Introduction

Par Florent Christophe, Jean-Charles Gautherot

72 Dimensionnement optimal d’un réseau électrique aéronautique Par Djamel Hadbi, Xavier Roboam, Bruno Sareni, Nicolas

Retière, Frédéric Wurtz

80 Key Drivers for Aeronautic Batteries Par Florence Fusalba, Jean Oriol, Eric Pinton

86 Electric Distributed Propulsion for Small Business Aircraft Par Jean Hermetz, Michael Ridel

96 GROS PLAN SUR … La mesure du temps aujourd’hui Par Emeric de Clercq, Thomas Zanon-Willette, Ouali Acef

107 RETOUR SUR ... L’introduction des antennes actives dans les chasseurs Le programme de coopération européen AMSAR Par Marc Leconte

115 ENSEIGNEMENT & RECHERCHE De fulgurantes innovations à Lille ? Par Pierre Giorgini

122 Echos de l’enseignement supérieur Par Bernard Ayrault

125 CHRONIQUE Propos de B. Ay, chroniqueur Par Bernard Ayrault

126 LIBRES PROPOS Le numérique… Que de questions ! Par Gérard Théry

131 SEE EN DIRECT La vie de l'association

http://cisea2016.sciencesconf.org

CISEA’16First Conference

on Intelligent Systems &

Electronic ApplicationsIoT, smart sensors, smart power

Cré

dits

pho

tos

: ©Tr

onic

o, A

nger

s Lo

ire T

ouris

me.

June 7-9 2016 Angers, France

6 � REE N°1/2016

FLASHINFOS

La propagation dans la troposphère pour les systèmes spatiaux de télécom-munications à très haut débit en bandes Ka et Q/VNicolas JeanninIngénieur de rechercheDépartement Electromagnétisme et radarONERA ToulouseGrand Prix de l’Electronique Général Ferrié 2015 décerné par la SEE

Le Grand Prix de l’Electronique Général Ferriérécompense des travaux ayant contribué aux progrès de la radioélectricité, de l’électronique et de leurs applications. Décerné depuis 1949, il commémore les travaux du Général Ferrié, pionnier de l’utilisation de la radio auquel on doit des réalisations remar-rrquables telles que la liaison Côte d’Azur-Corse dès 1901 et la première station radiophonique commer-rrciale de la Tour Eiffel.

Systèmes de télécommunications par satellite

à très haut débit et la bande Ka et Q/V

Les systèmes de télécommunications par satellite

constituent l’une des possibilités pour assurer la fourni-

ture de services multimédia haut débit aux zones non ou

mal desservies par les réseaux de télécommunications

terrestres. Il faut à cet effet qu’ils puissent proposer des

débits de données par utilisateur du même ordre de

grandeur que ceux proposés par les réseaux terrestres, à

un coût comparable. Cela requiert une capacité par satel-

lite de plusieurs centaines de gigabits par seconde, sur

une zone de couverture continentale. Afin d’atteindre ce

débit, il est nécessaire de pouvoir moduler l’information

sur de larges bandes de fréquence. Les bandes de fré-

quence utilisées traditionnellement par les télécommu-

nications par satellite sont saturées et ne sont pas suffi-

samment larges pour obtenir les capacités ciblées. A cet

effet, une migration de ces systèmes depuis les bandes C

(3-8 GHz) et Ku (11-17 GHz) vers la bande Ka (20-

30 GHz) ou Q/V (40-50 GHz) a été initiée il y a quelques

années.

Une illustration du principe de fonctionnement de ces

systèmes est donnée dans la figure 1. Les stations sol de

l’opérateur envoient un signal modulé contenant les don-

nées vers le satellite qui amplifie le signal et le transpose

en fréquence pour le renvoyer vers les cellules de la cou-

verture utilisateur desservies. Les utilisateurs dans cette

couverture se partagent le flux de données. Les bandes

de fréquence disponibles pour le système sont réutilisées

par les différentes stations sol, la directivité des antennes

et l’espacement géographique permettant de limiter les

interférences à un niveau raisonnable. Du côté utilisateur,

les faisceaux utilisent uniquement une fraction de la

bande disponible afin de limiter les interférences inter-

faisceaux. La réutilisation de fréquence est conçue pour

que deux faisceaux utilisant la même fréquence ne soient

pas adjacents.

L’utilisation de la bande Q/V et Ka permet de limi-

ter le nombre de stations sol côté opérateur et de fais-

La SEE décerne chaque année un certain nombre de Grands Prix destinés à récompenser et à faire

connaître des travaux scientifiques et techniques de premier plan réalisés en France dans les domaines de

sa compétence. Dans certains cas, la SEE s’allie à d’autres organismes pour sélectionner et honorer les lau-

réats. La cérémonie annuelle des Grands Prix 2015 a été présidée par François Gerin, président de la SEE,

et Erich Spitz, membre de l’Académie des Sciences et de l’Académie des technologies, président du Comité

des Grades et Distinctions.

La REE est heureuse de publier ci-après un ensemble d’articles écrits par les lauréats et destinés à pré-

senter les travaux qui leur ont valu d’être distingués.

Figure 1 : Schéma de principe d’un système satellitairemulti-faisceaux.

REE N°1/2016 � 7

FLASHINFOS

ceaux côté utilisateur, à un nombre raisonnable mais

suffisant pour obtenir les débits de données visés.

En effet, la bande de modulation disponible est supé-

rieure d’au moins un ordre de grandeur à celle offerte

par les fréquences plus basses. Outre la problématique

liée au développement de composants RF spatiaux, les

fortes pertes de propagation dans la troposphère, particu-

lièrement en présence de pluie, ont longtemps constitué

un frein à l’utilisation de ces bandes. En effet les pertes

atmosphériques augmentent avec la fréquence et ne

peuvent plus être compensées avec une marge statique

de puissance pour assurer une disponibilité satisfaisante.

De ce fait, il est impératif d’utiliser des méthodes de

compensation adaptatives des affaiblissements. L’opti-

misation de ces systèmes requiert une connaissance

statistique de ces affaiblissements de propagation. Cette

connaissance peut être obtenue par le biais de mesures

des fluctuations de puissance d’un signal émis par un

satellite induites par les variations des conditions météo-

rologiques. Néanmoins, ces mesures sont spécifiques à

la géométrie de la liaison, à la zone climatique et à la

fréquence et ont été conduites sur un nombre réduit de

sites. Par conséquent, en complément de ces mesures,

des modèles capables de reproduire les caractéristiques

statistiques de ces observations doivent être développés

pour fournir des entrées aux simulateurs systèmes.

Effets de propagation dans la troposphère

Les ondes électromagnétiques sont affectées par dif-

férents phénomènes lors de leur propagation dans la tro-

posphère (couche inférieure de l’atmosphère), en fonc-

tion des conditions météorologiques. Ces phénomèmes,

à savoir l'atténuation dans les gaz et les hydrométéores, la

dépolarisation et la scintillation, ont globalement tendance

à augmenter fortement avec la fréquence et deviennent

très sensibles au-delà de 10 GHz. L’oxygène et la vapeur

d’eau atmosphérique causent des atténuations pouvant al-

ler jusqu’à quelques décibels en bande Q/V. En présence

d’hydrométéores (gouttelettes d’eau liquide nuageuse ou

gouttes de pluie), une fraction de la puissance des ondes

incidentes est absorbée ou diffusée (diffusion de Mie et

Rayleigh suivant le rapport entre la longueur d’onde et la

dimension de la particule). La variation en fonction de la

fréquence de ces atténuations spécifiques, dans diverses

conditions atmosphériques est illustrée par la figure 2.

Les liaisons en bande Ka ou Q/V peuvent subir des

atténuations de plusieurs dizaines de décibels en pré-

sence de précipitations (ces liaisons ont généralement

une longueur de parcours sous la pluie de 5 à 10 km).

En outre, en présence d’hydrométéores dissymétriques,

l’onde peut également être dépolarisée, ce qui est source

d’interférence d’une polarisation orthogonale sur l’autre.

Par ailleurs, les fluctuations d’indice de réfraction dues

à la turbulence atmosphérique causent également une

scintillation qui se manifeste par des fluctuations rapides

du signal.

Pour évaluer la disponibilité d’une liaison terre-espace

en fonction de la marge disponible pour compenser ces

effets de propagation, des modèles ont été développés

par la commission 3 de l’Union internationale des télé-

communications, secteur Radiocommunication (UIT-R).

En bande Ku ces marges de puissance sont générale-

ment de quelques dB pour garantir une disponibilité de

99,99 % en zone tempérée. Un exemple des marges

nécessaires pour opérer un lien satellite à 50 GHz avec

une disponibilité de 99,5 % est présenté figure 3.

(a) (b)

Figure 2 : Atténuation spécifique (dB/km) en fonction de la fréquence causée par les gaz (a) et par la pluie (b).

8 ��REE N°1/2016

FLASHINFOS

Cette disponibilité de 99,5 % est déjà jugée insuffi-

sante pour la majorité des applications et nécessite pour

être obtenue d’avoir en bande Q/V une marge de puis-

sance dépassant la dizaine de décibels sur la majorité

de l’Europe. Garder une telle marge de puissance pour

compenser des affaiblissements qui sont peu fréquents

(la probabilité de précipitations est proche de 5 % en

zone tempérée) est insoutenable vu les limitations de

puissance à bord des satellites.

Systèmes adaptatifs de compensation

des affaiblissements

Pour compenser ces pertes de propagation, sans pour

autant utiliser une marge de puissance trop importante,

différents mécanismes adaptatifs, ont été développés

pour s’accommoder de la montée en fréquence des trans-

missions par satellite.

La solution la plus intuitive consiste à faire varier la

puissance d’émission en fonction des conditions de pro-

pagation. Néanmoins cette solution est limitée à quelques

décibels dans la mesure où elle requiert un surdimension-

nement coûteux des amplificateurs au sol ou à bord.

Une autre technique utilisée consiste à faire varier la

modulation et le codage de la liaison en fonction de l’état

du canal de propagation. Ainsi en cas de dégradation de

l’état du canal, des modulations et codages plus robustes,

permettant de s’accommoder de rapports signal à bruit

plus faible, peuvent être utilisés. En contrepartie l’effica-

cité spectrale de la liaison (débit d’information par unité

de bande de modulation) et donc son débit sont dimi-

nués. Cela permet dans la plupart des cas de ne pas avoir

une interruption totale du service en cas de mauvaises

conditions météorologiques mais seulement une baisse

de la capacité de la liaison.

Enfin, pour les réseaux de stations sol des opérateurs

pour lesquels les liaisons sont susceptibles d’utiliser la

bande Q/V, il est possible d’éviter dans la plupart des

cas les indisponibilités en ajoutant au réseau une ou plu-

sieurs stations sol de redondance, capables de prendre

le relais d’autres stations sol. En effet ces stations sol

sont espacées de plusieurs dizaines de kilomètres et les

pertes de propagation sont faiblement corrélées. Dès lors

la faible probabilité de subir de fortes précipitations et

la combinatoire font que la probabilité d’avoir simultané-

ment plus de stations sol avec de mauvaises conditions

de propagation que de stations redondantes est extrê-

mement faible. Ces mécanismes de diversité permettent

d’obtenir des disponibilités comparables à celles que l’on

pourrait obtenir à des fréquences plus basses [2].

Ces différentes techniques adaptatives permettent de

garder des disponibilités intéressantes. Néanmoins leur

dimensionnement requiert une connaissance des carac-

téristiques du canal de propagation, pour l’optimisation

des boucles de contrôle ou pour l’estimation de perfor-

mances globales du système.

Modélisation du canal de propagation

Pour acquérir cette connaissance du canal de pro-

pagation, différentes campagnes de mesures, visant à

mesurer à partir d’un récepteur au sol les fluctuations de

puissance d’un signal non modulé émis par un satellite

(comme illustré par la figure 4), ont été menées.

Ces expérimentations permettent de caractériser les

propriétés statistiques du canal de propagation. Cepen-

dant, ces mesures sont insuffisantes pour le dimension-

nement système car elles ne couvrent pas l’ensemble

des configurations qui peuvent être rencontrées en

termes de fréquence, élévation de la liaison et climat.

Pour pallier ces insuffisances, des modèles permet-

tant de calculer les distributions d’affaiblissement pour

des liaisons avec des caractéristiques géographiques et

radioélectriques arbitraires ont été développés et standar-

disés par l’UIT-R comme illustré par la figure 3. Ces mo-

dèles reposent sur l’utilisation de paramètres climatiques

calculés sur des bases de données de réanalyses. Ces

réanalyses météorologiques, comme celle du CEPMMT

(Centre européen de prévision météorologique à moyen

terme), sont calculées en rejouant sur de longues durées

des modèles météorologiques globaux contraints par les

observations météorologiques passées.

Figure 3 : Carte d’atténuation dépassée 0.5 % du temps sur l’Europe pour un lien avec un satellite géostationnaire

à 50 GHz, calculée par la Rec. UIT-R P. 618 [1].

Cette disponibilité de 99,5 % est déjà jugée insuffi-

sante pour la majorité des applications et nécessite pour

être obtenue d’avoir en bande Q/V une marge de puis-

sance dépassant la dizaine de décibels sur la majorité

de l’Europe. Garder une telle marge de puissance pour

compenser des affaiblissements qui sont peu fréquents

(la probabilité de précipitations est proche de 5 % en

zone tempérée) est insoutenable vu les limitations de

puissance à bord des satellites.

Systèmes adaptatifs de compensation

des affaiblissements

Pour compenser ces pertes de propagation, sans pour

autant utiliser une marge de puissance trop importante,

différents mécanismes adaptatifs, ont été développés

pour s’accommoder de la montée en fréquence des trans-

missions par satellite.

La solution la plus intuitive consiste à faire varier la

puissance d’émission en fonction des conditions de pro-

pagation. Néanmoins cette solution est limitée à quelques

décibels dans la mesure où elle requiert un surdimension-

nement coûteux des amplificateurs au sol ou à bord.

Une autre technique utilisée consiste à faire varier la

modulation et le codage de la liaison en fonction de l’état

du canal de propagation. Ainsi en cas de dégradation de

l’état du canal, des modulations et codages plus robustes,

permettant de s’accommoder de rapports signal à bruit

plus faible, peuvent être utilisés. En contrepartie l’effica-

cité spectrale de la liaison (débit d’information par unité

de bande de modulation) et donc son débit sont dimi-

nués. Cela permet dans la plupart des cas de ne pas avoir

une interruption totale du service en cas de mauvaises

conditions météorologiques mais seulement une baisse

de la capacité de la liaison.

Enfin, pour les réseaux de stations sol des opérateurs

pour lesquels les liaisons sont susceptibles d’utiliser la

bande Q/V, il est possible d’éviter dans la plupart des

cas les indisponibilités en ajoutant au réseau une ou plu-

sieurs stations sol de redondance, capables de prendre

le relais d’autres stations sol. En effet ces stations sol

sont espacées de plusieurs dizaines de kilomètres et les

pertes de propagation sont faiblement corrélées. Dès lors

la faible probabilité de subir de fortes précipitations et

la combinatoire font que la probabilité d’avoir simultané-

ment plus de stations sol avec de mauvaises conditions

de propagation que de stations redondantes est extrê-

mement faible. Ces mécanismes de diversité permettent

d’obtenir des disponibilités comparables à celles que l’on

pourrait obtenir à des fréquences plus basses [2].

Ces différentes techniques adaptatives permettent de

garder des disponibilités intéressantes. Néanmoins leur

dimensionnement requiert une connaissance des carac-

téristiques du canal de propagation, pour l’optimisation

des boucles de contrôle ou pour l’estimation de perfor-rr

mances globales du système.

Modélisation du canal de propagation

Pour acquérir cette connaissance du canal de pro-

pagation, différentes campagnes de mesures, visant à

mesurer à partir d’un récepteur au sol les fluctuations de

puissance d’un signal non modulé émis par un satellite

(comme illustré par la figure 4), ont été menées.

Ces expérimentations permettent de caractériser les

propriétés statistiques du canal de propagation. Cepen-

dant, ces mesures sont insuffisantes pour le dimension-

nement système car elles ne couvrent pas l’ensemble

des configurations qui peuvent être rencontrées en

termes de fréquence, élévation de la liaison et climat.

Pour pallier ces insuffisances, des modèles permet-

tant de calculer les distributions d’affaiblissement pour

des liaisons avec des caractéristiques géographiques et

radioélectriques arbitraires ont été développés et standar-

disés par l’UIT-R comme illustré par la figure 3. Ces mo-

dèles reposent sur l’utilisation de paramètres climatiques

calculés sur des bases de données de réanalyses. Ces

réanalyses météorologiques, comme celle du CEPMMT

(Centre européen de prévision météorologique à moyen

terme), sont calculées en rejouant sur de longues durées

des modèles météorologiques globaux contraints par les

observations météorologiques passées.

Figure 3 : Carte d’atténuation dépassée 0.5 % du temps sur l’Europe pour un lien avec un satellite géostationnaire

à 50 GHz, calculée par la Rec. UIT-R P. 618 [1].

30 ��REE N°1/2016

La lutte contre le réchauffement climatiquepasse par la prise en compte

d’un prix du carbone

L'ARTICLE INVITÉ

CO2 emissions may be considered as a negative externality that must be taken into account in the energy choices.The COP21, held in Paris late 2015, did not adopt an explicit carbon price but prompted most countries of the world to commit to reductions in greenhouse gases, which leads to retain an implicit carbon price. It is first necessary to estimate the cost of reducing these emissions and the social value linked to this reduction of CO2 emissions. You must then choose which public policy is the most efficient tool: carbon tax, shadow price, quotas market, “cap and trade” system, “bonus-malus” system.The introduction of a carbon tax also raises equity issues within countries and between developed and developing countries. There are already countries where such systems, notably carbon taxes and quota markets, are in place. The introduction of a carbon tax of about 30 euros per ton of CO2 would allow to change the “merit order” power plants logic in Europe and tomake natural gas plants more competitive than coal plants.

ABSTRACT

JACQUES PERCEBOISProfesseur émériteà l’université de Montpellier CREDENet Chaire Economie du climat

Introduction

L a dégradation du climat, qui se traduit en par-rr

ticulier par le réchauffement de la tempéra-

ture moyenne du Globe, peut être considérée

comme une externalité négative, au sens défini

par Arthur-Cecil Pigou (1920) ; cette externalité doit être in-

ternalisée. Une externalité est un coût qui n’est pas répercuté

dans le prix des produits observé sur le marché et qui est à

la charge de la collectivité dans son ensemble. Le coût social

est alors supérieur au coût privé. Ignorer cela, c’est ne pas

comptabiliser tous les coûts dans le processus de choix des

investissements énergétiques et c’est donc faire des choix

infra-optimaux. Il faut donner une valeur, donc un prix, à la

tonne de carbone (ou à la tonne de CO2) qui n’est pas émise

et qui ne dégradera pas l’environnement ou, ce qui revient au

même, faire payer ce prix à ceux qui continueront à émettre

du carbone. On raisonne en général par tonne de CO2 plutôt

que par tonne de carbone. Rappelons qu’une tonne de car-rr

bone équivaut à 3,666 tonnes de CO2.

Les biens environnementaux mondiaux, que ce soient

les ressources marines dans les eaux internationales, la bio-

diversité ou le climat, se caractérisent par une rivalité des

agents au niveau de l’usage et par la « non-excluabilité » de

ces agents puisque l’accès à ces ressources est générale-

ment libre. La « Tragédie des Communs » de Hardin (1968)

insiste sur le fait que, pour de tels biens, il y a conflit entre

l’intérêt individuel et l’intérêt collectif. C’est le problème dit

du « passager clandestin » (ou free rider) déjà mentionné par

Aristote : « l’homme prend le plus grand soin de ce qui lui est

propre, il a tendance à négliger ce qui lui est commun ». Il se

préoccupe donc peu de l’intérêt des autres contemporains

et encore moins de celui des générations suivantes. Il faut

dès lors développer l’information du public en montrant que

l’intérêt des générations futures sera compromis si les géné-

rations présentes ne prennent pas soin des ressources com-

munes et c’est le rôle des « lanceurs d’alerte » ou de l’Etat. On

peut parfois compter sur un sentiment altruiste des individus

ou sur un sentiment de culpabilité qui en est l’autre face si

rien n’est fait, mais cela ne suffit pas. La puissance publique

se doit d’intervenir pour « internaliser » ces externalités mais

elle doit le faire à un niveau mondial pour que ce soit efficace

puisque le problème est mondial.

Plusieurs questions se posent alors :

-

jourd’hui pris en compte dans le calcul économique, suite à

Comment évaluer le prix du carbone ?

Il existe plusieurs approches pour calculer la valeur d’une

tonne de carbone ou d’une tonne de CO2 :

1. L’approche en termes de « coût de dommage marginal

évité » : c’est le bénéfice tiré d’une réduction des émis-

sions de CO2 pour la collectivité. On se limite avec cette

REE N°1/2016 � 31

L'ARTICLE INVITÉ

approche aux avantages obtenus du fait de la réduction

des émissions, indépendamment des coûts supportés

mais il est souvent difficile de donner une valeur moné-

taire à ces avantages. Quelle est la valeur d’un site non

alors parfois à la méthode des « prix hédonistes » : on

compare par exemple le prix d’un logement avec vue sur

une forêt à celui d’un logement sans vue pour déterminer

la valeur de cette forêt.

2. L’approche en termes de « coût d’abattement » : c’est

le coût supporté pour réduire les émissions de CO2 mais

il convient alors de distinguer le coût total, le coût moyen

et le coût marginal de cet abattement. C’est le coût mar-

ginal qui guide les comportements. Au-delà d’un certain

seuil de réduction, le coût marginal d’abattement s’accroît

très rapidement. C’est une approche de type coût-effica-

cité puisque l’on se donne un objectif de réduction des

émissions considéré ne varietur et que l’on calcule le coût

marginal et par ricochet le coût moyen et le coût total des

efforts entrepris pour atteindre l’objectif (Keller 2009).

3. L’approche en termes de « valeur sociale du carbone » :

on procède à une analyse coûts-avantages en déterminant

le point d’intersection entre la courbe de coût marginal

d’abattement et la courbe de bénéfice marginal lié aux

émissions évitées. Cela revient à utiliser simultanément

les deux approches précédentes. On a intérêt à réduire les

émissions de CO2 jusqu’au point où le bénéfice marginal

de la réduction est égal au coût marginal de cette réduc-

tion. En pratique il existe une asymétrie car la courbe du

bénéfice marginal est plus difficile à tracer que celle du

coût marginal. Cette approche coût-bénéfice est illustrée

dans le schéma donné figure 1. Elle fournit le taux optimal

de taxation : un pollueur a intérêt à dépolluer tant que le

coût unitaire de dépollution est inférieur à la taxe payée

par unité de polluant déversé ; il a intérêt à payer la taxe si

le coût unitaire de dépollution lui est supérieur.

4. L’approche en termes de « prix notionnel » ou « prix

tutélaire » : c’est une valeur fixée « politiquement » par

la collectivité. Cela correspond à une vision téléologique

ou normative des choix. Le décideur public peut fixer un

prix arbitraire pour la tonne de carbone émise. Ce « prix

fictif » (“shadow price” dans la littérature anglo-saxonne)

sert à orienter les choix d’investissement. Ce n’est pas un

prix réellement payé donc cela ne génère pas de rentrées

fiscales pour la collectivité, mais cela sert à pénaliser les

investissements émetteurs de CO2. Beaucoup d’opéra-

teurs énergétiques recourent aujourd’hui à cette approche

(cas du pétrolier Total par exemple). Le rapport Nicholas

Stern (2007) avait proposé une valeur tutélaire de 150

à 200 USD /t de CO2 et le rapport Quinet (2009) une

valeur de 100 �/t de CO2. On est loin des chiffres obser-

vés sur le marché européen du CO2 (7 à 8 �/t de CO2).

Cette valeur tutélaire peut se transformer en taxe carbone

si la puissance publique décide de l’imposer aux divers

opérateurs ; le recouvrement de la taxe fournira alors des

recettes publiques qui pourront être affectées au finan-

cement de certaines actions environnementales. Mais si

l’Etat demeure maître du prix, il ignore au départ l’impact

que cette taxe aura sur la quantité des émissions puisqu’il

existe en général une incertitude sur l’allure de la courbe

de coût marginal de réduction des émissions.

5. L’approche en termes de « prix du marché » : c’est le

cas lorsque la valeur du carbone est fixée par le marché

du CO2. La collectivité publique fixe un volume d’émis-

sions de CO2 à ne pas dépasser et autorise les émetteurs

à échanger leurs quotas via des certificats. On déterminera

ainsi ex post le niveau du prix d’équilibre de la tonne de

CO2. Cela concerne par exemple les électriciens et certains

Figure 1 : Détermination du taux de taxation optimal en fonction de l’approche coût-bénéfice.

32 ��REE N°1/2016

L'ARTICLE INVITÉ

industriels en France qui se voient attribuer un volume de

quotas gratuits. Le prix du CO2 est fixé par la rencontre entre

la demande et l’offre de certificats de CO2 sur ce marché. En

cas de non-respect des quotas, des amendes sont prévues.

Si l’amende est libératoire, elle correspond au prix-plafond

du certificat ; le pollueur préfèrera payer l’amende plutôt

que d’acheter des certificats dont le prix serait supérieur à

l’amende. Si l’amende n’est pas libératoire, le pollueur qui a

pollué sans quota devra à la fois payer l’amende et acquérir

des quotas sur le marché. Une partie des quotas attribués

au départ peut être gratuite mais ce n’est pas le cas pour

tous les quotas. C’est le système mis en place au sein de

l’Union européenne avec le marché européen d’échange

des quotas (European Trading System ou ETS). C’est aussi

le cas du Mécanisme de Développement Propre associé au

protocole de Kyoto : des investissements réalisés dans des

pays en développement pour réduire les émissions de CO2

peuvent être comptabilisés comme des efforts de réduc-

tion dans le pays de départ. Les échanges de quotas fixent

ainsi le prix du carbone sans que l’on sache a priori quel

sera ce prix (Cf. Hansen et Percebois 2015). A noter qu’une

« banque centrale » peut, comme sur le marché monétaire,

intervenir pour faire monter ou baisser le prix d’équilibre en

achetant ou en vendant des certificats (logique dite “d’open

market”).

Comment internaliser le prix du carbone ?

Il existe plusieurs façons de prendre en compte en

pratique le prix du carbone dans le calcul économique et

cette question a soulevé de nombreux débats théoriques.

A. C. Pigou militait pour l’instauration d’une taxe correspon-

dant au coût supporté par les victimes des externalités ;

40 ans plus tard, Ronald Coase (1960) a critiqué la « taxe

pigouvienne » et a proposé d’attribuer des droits de propriété

de l’environnement aux agents économiques, ces droits pou-

vant donner lieu à échange sur un marché. Les pollueurs

disposent d’un quota d’émissions qu’ils ne peuvent pas

dépasser mais rien ne les empêche d’acheter des quotas à

d’autres agents ou de vendre leurs quotas s’ils ne les utilisent

pas. Le système génère des coûts de transaction mais évite

certains effets pervers liés à l’instauration d’une taxe uni-

forme (hausse des prix TTC) car cela permet une meilleure

allocation des ressources. Le débat a été relancé en 1974

par Weitzman qui a démontré qu’en situation d’incertitude

concernant la forme des courbes de coûts et d’avantages,

l’approche par les quantités (quotas) est collectivement pré-

férable lorsque la pente de la courbe de coût marginal des

dommages est supérieure à celle de la courbe de coût mar-

ginal de réduction des émissions ; et inversement l’approche

par les prix (la taxe) est préférable si la pente du coût margi-

nal des dommages est plus faible que la pente de la courbe

de coût marginal d’abattement. En pratique plusieurs solu-

tions sont alternativement ou conjointement utilisées :

1. La réglementation c’est-à-dire la fixation de normes.

L’Etat fixe des normes de pollution et doit sanctionner ceux

qui ne respectent pas les normes. Ce système est coûteux

puisqu’il faut faire des contrôles et il n’incite pas les pol-

lueurs à faire mieux que la norme.

2. L’instauration d’une taxe carbone par les pouvoirs pu-

blics : chaque tonne de CO2 émise supporte la taxe, ce

qui incite les pollueurs à réduire leurs émissions tant que

le coût de réduction demeure inférieur à la taxe. La fixa-

tion d’un prix du carbone détermine le montant optimal de

pollution. Deux approches sont alors possibles à l’échelle

mondiale :

- une taxe sur le CO2 unique et applicable à tous les pays

et/ou tous les secteurs d’activité ; mais cela soulève un

problème d’équité : il faut prévoir des compensations

sous forme de transferts monétaires pour les pays et/

ou les secteurs qui subiraient de trop fortes hausses de

leurs coûts de production. On peut par exemple envisa-

ger de créer un « Fonds Vert » pour permettre aux pays

en développement de supporter ces coûts de réduction

des émissions ; c’est le cas du « Fonds Vert » de 100 Md

USD promis à Lima en décembre 2014 et qui a été au

cœur des débats de la COP 21 en décembre 2015.

- une taxe sur le CO2 différenciée selon les pays et/ou les

secteurs pour permettre de tenir compte des spécificités

de chaque pays et/ou de chaque secteur.

Une question se pose ensuite : quelle affectation faut-il

donner à cette taxe ; faut-il réduire en contrepartie d’autres

-

vestissements dans l’efficacité énergétique ou la promotion

des effets distributifs qu’il faut examiner ; certains agents se-

ront gagnants, d’autres perdants. Compenser la taxe carbone

par une réduction de l’impôt sur le revenu, une baisse de la

CSG ou une baisse de la TVA n’aura pas les mêmes effets

sur les diverses catégories sociales. Utiliser le produit de la

taxe pour promouvoir le photovoltaïque ou favoriser les éco-

nomies d’énergie dans l’habitat n’aura pas le même impact

sur l’économie. Les effets d’une taxe carbone sur le revenu

des ménages dépendent de la part du revenu affecté aux

dépenses énergétiques et diverses études ont montré que

les ménages les plus modestes sont ceux qui supporteront

la charge relative la plus forte, ceci en raison principalement

des coûts liés au chauffage et au transport (Keller, 2009).

On peut faire le même type d’observation lorsque l’on com-

pare la situation des pays en développement à celle des pays

industrialisés. Une taxe carbone uniforme au niveau mon-

dial aurait un impact relatif plus fort sur le prix du ciment en

Inde comparativement à ce que l’on observerait en Europe et

industriels en France qui se voient attribuer un volume de

quotas gratuits. Le prix du CO2 est fixé par la rencontre entre

la demande et l’offre de certificats de CO2 sur ce marché. En

cas de non-respect des quotas, des amendes sont prévues.

Si l’amende est libératoire, elle correspond au prix-plafond

du certificat ; le pollueur préfèrera payer l’amende plutôt

que d’acheter des certificats dont le prix serait supérieur à

l’amende. Si l’amende n’est pas libératoire, le pollueur qui a

pollué sans quota devra à la fois payer l’amende et acquérir

des quotas sur le marché. Une partie des quotas attribués

au départ peut être gratuite mais ce n’est pas le cas pour

tous les quotas. C’est le système mis en place au sein de

l’Union européenne avec le marché européen d’échange

des quotas (European Trading System ou ETS). C’est aussi

le cas du Mécanisme de Développement Propre associé au

protocole de Kyoto : des investissements réalisés dans des

pays en développement pour réduire les émissions de CO2

peuvent être comptabilisés comme des efforts de réduc-

tion dans le pays de départ. Les échanges de quotas fixent

ainsi le prix du carbone sans que l’on sache a priori quel

sera ce prix (Cf. Hansen et Percebois 2015). A noter qu’une

« banque centrale » peut, comme sur le marché monétaire,

intervenir pour faire monter ou baisser le prix d’équilibre en

achetant ou en vendant des certificats (logique dite “d’open

market”).

Comment internaliser le prix du carbone ?

Il existe plusieurs façons de prendre en compte en

pratique le prix du carbone dans le calcul économique et

cette question a soulevé de nombreux débats théoriques.

A. C. Pigou militait pour l’instauration d’une taxe correspon-

dant au coût supporté par les victimes des externalités ;

40 ans plus tard, Ronald Coase (1960) a critiqué la « taxe

pigouvienne » et a proposé d’attribuer des droits de propriété

de l’environnement aux agents économiques, ces droits pou-

vant donner lieu à échange sur un marché. Les pollueurs

disposent d’un quota d’émissions qu’ils ne peuvent pas

dépasser mais rien ne les empêche d’acheter des quotas à

d’autres agents ou de vendre leurs quotas s’ils ne les utilisent

pas. Le système génère des coûts de transaction mais évite

certains effets pervers liés à l’instauration d’une taxe uni-

forme (hausse des prix TTC) car cela permet une meilleure

allocation des ressources. Le débat a été relancé en 1974

par Weitzman qui a démontré qu’en situation d’incertitude

concernant la forme des courbes de coûts et d’avantages,

l’approche par les quantités (quotas) est collectivement pré-

férable lorsque la pente de la courbe de coût marginal des

dommages est supérieure à celle de la courbe de coût mar-rr

ginal de réduction des émissions ; et inversement l’approche

par les prix (la taxe) est préférable si la pente du coût margi-

nal des dommages est plus faible que la pente de la courbe

de coût marginal d’abattement. En pratique plusieurs solu-

tions sont alternativement ou conjointement utilisées :

1. La réglementation c’est-à-dire la fixation de normes.

L’Etat fixe des normes de pollution et doit sanctionner ceux

qui ne respectent pas les normes. Ce système est coûteux

puisqu’il faut faire des contrôles et il n’incite pas les pol-

lueurs à faire mieux que la norme.

2. L’instauration d’une taxe carbone par les pouvoirs pu-

blics : chaque tonne de CO2 émise supporte la taxe, ce

qui incite les pollueurs à réduire leurs émissions tant que

le coût de réduction demeure inférieur à la taxe. La fixa-

tion d’un prix du carbone détermine le montant optimal de

pollution. Deux approches sont alors possibles à l’échelle

mondiale :

- une taxe sur le CO2 unique et applicable à tous les pays

et/ou tous les secteurs d’activité ; mais cela soulève un

problème d’équité : il faut prévoir des compensations

sous forme de transferts monétaires pour les pays et/

ou les secteurs qui subiraient de trop fortes hausses de

leurs coûts de production. On peut par exemple envisa-

ger de créer un « Fonds Vert » pour permettre aux pays

en développement de supporter ces coûts de réduction

des émissions ; c’est le cas du « Fonds Vert » de 100 Md

USD promis à Lima en décembre 2014 et qui a été au

cœur des débats de la COP 21 en décembre 2015.

- une taxe sur le CO2 différenciée selon les pays et/ou les

secteurs pour permettre de tenir compte des spécificités

de chaque pays et/ou de chaque secteur.

Une question se pose ensuite : quelle affectation faut-il

donner à cette taxe ; faut-il réduire en contrepartie d’autres

-

vestissements dans l’efficacité énergétique ou la promotion

des effets distributifs qu’il faut examiner ; certains agents se-

ront gagnants, d’autres perdants. Compenser la taxe carbone

par une réduction de l’impôt sur le revenu, une baisse de la

CSG ou une baisse de la TVA n’aura pas les mêmes effets

sur les diverses catégories sociales. Utiliser le produit de la

taxe pour promouvoir le photovoltaïque ou favoriser les éco-

nomies d’énergie dans l’habitat n’aura pas le même impact

sur l’économie. Les effets d’une taxe carbone sur le revenu

des ménages dépendent de la part du revenu affecté aux

dépenses énergétiques et diverses études ont montré que

les ménages les plus modestes sont ceux qui supporteront

la charge relative la plus forte, ceci en raison principalement

des coûts liés au chauffage et au transport (Keller, 2009).

On peut faire le même type d’observation lorsque l’on com-

pare la situation des pays en développement à celle des pays

industrialisés. Une taxe carbone uniforme au niveau mon-

dial aurait un impact relatif plus fort sur le prix du ciment en

Inde comparativement à ce que l’on observerait en Europe et

38 ��REE N°1/2016

Le démantèlement des installations

nucléaires vise à en réduire la pollution,

radioactive ou non, jusqu’à des niveaux

considérés comme étant sans risque

pour l’homme et pour l’environnement,

compte tenu des prévisions de réuti-

lisation des sites ou bâtiments et en

l’état de la réglementation.

En France, ce sont les exploitants

nucléaires qui ont la responsabilité de mener l’en-

semble des opérations nécessaires, dont l’ampleur

dépend de l’utilisation future du site. Ces opérations

doivent être menées dans des délais aussi courts

que possible, dans des conditions économiquement

acceptables. Elles sont cependant complexes et

longues, avec des échéances parfois lointaines qui

nécessitent la mise en œuvre par les exploitants de

véritables stratégies techniques et financières.

Ces opérations sont essentielles à plusieurs titres :

-

tallation nucléaire en rendant possible son

déclassement après que toutes les mesures

d’assainissement ont été prises, y compris celles

concernant l’état des sols ; il est donc plus correct

de parler « d’assainissement – démantèlement »

que de « démantèlement » ;

commençant par une évaluation aussi précise que

possible de la situation, préalable indispensable à

la définition d’une stratégie répondant aux spéci-

ficités de l’installation ;

un délai aussi court que possible après l’arrêt de

l’installation, elles s’étalent nécessairement sur

le « temps long » (20 ans, 30 ans, voire plus) afin

notamment de permettre et de faciliter la manipu-

lation des éléments les plus radioactifs ;

difficiles à chiffrer avec précision, compte tenu d’un

retour d’expérience encore limité ;

confiance que l’on peut porter à la filière nucléaire

dans son ensemble.

Comme dans toute opération de

déconstruction, le problème ne se cir-

conscrit pas à la remise en état des

sites concernés. Se pose également le

problème du traitement, du recyclage

ou du stockage des produits de dé-

construction dont certains vont conser-

ver pendant une période plus ou moins

longue un niveau de radioactivité signi-

ficatif. La stratégie de démantèlement

doit donc être conçue en fonction de la façon dont

les déchets pourront être conditionnés, transpor-

tés, traités, réutilisés et le cas échéant stockés.

Au niveau national, les grands acteurs de la

stratégie de démantèlement sont d’une part les

établissements exploitant ou ayant exploité des

installations nucléaires de base : EDF, AREVA et le

CEA et d’autre part l’Andra (Agence nationale pour

la gestion des déchets radioactifs).

Au sein d’EDF, 12 installations nucléaires sont

aujourd’hui arrêtées1 correspondant à quatre fi-

lières différentes : Brennilis (réacteur à eau lourde

fonctionnant à l’uranium non enrichi), les réacteurs

graphite-gaz, Superphénix et le réacteur de Chooz

A, tête de série du démantèlement de la filière des

réacteurs à eau pressurisée.

Chez AREVA, ce sont sept installations qui sont

actuellement arrêtées dont l’usine de la Hague

UP2 800 et l’usine Georges Besse 1, mise à l’arrêt

en 2012 et qui devrait être progressivement dé-

mantelée entre 2020 et 2032.

Au sein du CEA, la situation est particulièrement

complexe du fait de la diversité des installations,

souvent construites dans les premiers temps de

l’épopée du nucléaire français, à une époque où les

règles de construction et d’exploitation n’avaient

pas la rigueur qu’on leur connaît aujourd’hui. Vingt

deux installations nucléaires civiles, la plupart des

1 Les chiffres qui suivent, relatifs au nombre d’installations arrê-tées ou en exploitation, sont extraits du rapport 2014 de la Cour des Comptes sur le coût de production de l’électricité nucléaire.

LES GRANDS DOSSIERS Introduction

Le démantèlement des installations nucléaires

Jean-Pierre Hauet

REE N°1/2016 � 39

Introduction LES GRANDS DOSSIERS

installations de recherche, seraient ainsi arrêtées au

sein du Commissariat dont les sites emblématiques

de Fontenay-aux-Roses et de Marcoule, l’un et

l’autre ayant servi de berceaux au nucléaire français.

Au total, ce sont plus d’une trentaine d’installa-

tions qui sont effectivement engagées dans la voie

du démantèlement avec des problématiques très

diverses et des calendriers qui s’étalent jusqu'au

delà de 2030. Pour les installations EDF déjà arrê-

tées, il était estimé à fin 2011 que l’avancement

physique de leur démantèlement était de 32,7 %.

Puis viendra, le moment venu, le démantèle-

ment des installations en exploitation aujourd’hui :

62 pour EDF (dont 58 réacteurs), 11 pour Areva

et 22 pour le CEA. L’enjeu financier de ces opéra-

tions est important ; il a été estimé par la Cour des

comptes, à la fin 2013, à 22 448 M� en charges

restantes pour les 74 installations d’EDF concer-

nées dont 2 890 M� pour les 12 déjà arrêtées et

19 558 M� pour celles qui le seront un jour. En

ordre de grandeur, il est estimé que le coût de

démantèlement d’un site standard de quatre réac-

teurs de 900 MW s’élève à 1 Md�.

Pour Areva, les charges restantes de démantè-

lement sont évaluées à 7 873 M� dont 5 045 M�

pour les installations en exploitation. Au sein du

CEA, ces charges sont estimées pour les installa-

tions civiles à 3 789 M� dont 1 245 M� pour les

installations en exploitation.

Au total, selon la Cour des comptes, l’enjeu

du démantèlement est, « en reste à payer », de

34,3 Md� pour l’ensemble des installations concer-

nées. Ce chiffre peut paraître très élevé, d’autant

plus qu’il donne fréquemment matière à débat,

ayant été revu plusieurs fois à la hausse au cours

des années qui précèdent. Cependant, cet effort

donne lieu à la constitution de provisions sur plu-

sieurs dizaines d’années dont le montant est régu-

lièrement analysé avec la plus grande attention par

la Cour des comptes. Les provisions constituées à

fin 2013 atteignaient 19,6 Md� et sont incrémen-

tées de 515 M� chaque année.

Au total, rapportées au coût total moyen de pro-

duction du parc nucléaire, les charges de démantèle-

ment n’en constituent finalement qu’une part assez

faible que la Cour des comptes évaluait en 2014, par

la méthode du coût courant économique (CCE), aux

environs de 1,6 % du coût de production du kWh

nucléaire, dans l’hypothèse d’une durée de vie de

tous les réacteurs de 50 ans2. C’est dire qu’un ajus-

tement à la hausse des charges de démantèlement,

fût-il significatif, n’affecterait pas notablement la ren-

tabilité économique de la filière nucléaire.

L’ensemble des opérations de démantèlement

se fait sous le contrôle étroit de l’ASN (Autorité de

sûreté nucléaire) qui émet périodiquement des

avis sur les prescriptions à respecter et instruit les

demandes de déclassement des installations nu-

cléaires, en application de l’article 40 du décret du

20 novembre 2007. Le Parlement exerce également

un contrôle vigilant de ces activités, dans le cadre

de la loi du 13 juin 2006 relative à la transparence

et à la sécurité en matière nucléaire. La loi sur la

transition énergétique et la croissance verte du

17 août 2015 a précisé et renforcé dans son article

127 les clauses applicables à l’arrêt définitif, au dé-

mantèlement et au déclassement des installations

nucléaires de base.

Même si la plupart des chantiers engagés sont

encore loin d’être achevés, il existe dès à présent une

diversité d’expériences qui permet de comparer les

méthodes et de valider les techniques. L’industrie

française s’est ainsi d’ores et déjà constituée une base

de références solide dans le domaine du démantè-

lement, véritable domaine technologique de pointe

associant des compétences très diverses en matière

de réalisation d’opérations délicates en milieu hos-

tile (simulation numérique des stratégies, robotique,

découpe…), d’évaluation et de décontamination des

sols, de caractérisation, conditionnement, transport

et stockage des effluents et des déchets, etc.

On conçoit que ces opérations nécessitent la

mise au point d’outils, de méthodes et de moyens

très innovants dont certains ont d’ailleurs pu être

testés dans le cadre des opérations qui ont fait suite

à l’accident de Fukushima. Elles nécessitent égale-

ment des personnels très qualifiés et entraînés à

mener, sans précipitation, des opérations difficiles

dans un environnement hostile.

2 Le chiffre de 1,6 % n’a trait qu’au démantèlement proprement dit. L’ensemble des charges futures, incluant la gestion des dé-chets et du combustible usé conduit à 7,5 %.

40 ��REE N°1/2016

Le présent dossier, publié en deux parties, vise à

montrer la contribution de nos grands acteurs dans

ce domaine où la France s’est déjà forgé une forte

réputation. Un premier article de Laurence Piketty,yy

directrice de l’assainissement et du démantèle-

ment nucléaire au CEA, présente la problématique

et la stratégie générale du démantèlement au sein

du CEA. Un deuxième article, de Cyril Moitrier,rr

Samuel Blanchard et Yves Soulabaille, présente

l’avancement des grands chantiers d’assainissement

et de démantèlement au sein du CEA, en prenant

l’exemple des installations de

Marcoule, site historique de l’in-

dustrie nucléaire française où le

programme UP1 constitue l’un

des plus grands chantiers de

démantèlement du monde. Un

troisième article, de Christine

Georges, chef de programme

R&D pour l’assainissement-dé-

mantèlement au CEA, décrit

les recherches en cours dans le domaine de l’assai-

nissement-démantèlement et les avancées tech-

nologiques auxquelles on peut s’attendre au cours

des prochaines années. En fin, un article de Michel

Dutzer, directeur industriel adjoint de l’Andra et rr

Frédéric Legée, adjoint au directeur industriel de

l’Andra, explique comment il est possible d’opti-

miser l’optimisation de la gestion des déchets en

concevant et en menant les opérations de démantè-

lement de façon coordonnée avec celles de prise en

charge, de valorisation ou de stockage des déchets.

Dans un prochain numéro,

nous publierons deux articles

sur la stratégie d’EDF en ma-

tière de démantèlement et sur

les premiers retours d’expé-

rience du démantèlement de

Chooz A, installation-pilote en

matière de démantèlement des

réacteurs à eau pressurisée. �

Le démantèlement des installations nucléaires à la Direction de l’énergie nucléaire du CEAPar Laurence Piketty ...................................................................................................................................................... p. 41Les chantiers d’assainissement et de démantèlement du CEA Exemple d’un des lots du programme UP1 de MarcoulePar Cyril Moitrier, Samuel Blanchard, Yves Soulabaille .............................................................................. p. 49Recherche et innovation pour l’assainissement-démantèlement Par Christine Georges ...................................................................................................................................................p. 58Optimiser globalement la gestion des déchets radioactifs de démantèlementPar Michel Dutzer, Frédéric Legée ......................................................................................................................... p. 64

LES ARTICLES

LES GRANDS DOSSIERS Introduction

Jean-Pierre Hauet est ingénieur au

corps des Mines. Il est associate partner

de KB Intelligence. Au cours de sa carrière,

il a dirigé les Laboratoires de Marcoussis

du groupe Alcatel-Alsthom et a été Chief

Technology Officer du Groupe ALSTOM.

Il est membre émérite de la SEE et rédac-cc

teur en chef de la REE.

REE N°1/2016 ��41

LE DÉMANTÈLEMENT DES CENTRALES NUCLÉAIRES DOSSIER 1

Le démantèlement des installations nucléaires à la Direction de l’énergie

nucléaire du CEA Par Laurence Piketty

Directrice de l’Assainissement et du démantèlement nucléaire au CEA

Since its creation in 1945, CEA has carried out research programs on civil use of nuclear. CEA has set up and operates various types of installations from research to industry.

There are currently 22 facilities which are in the process of being dismantled by CEA. Dealing with these instal-lations is a long-term programme which is carefully planned and financed in order to optimise its management. The stake for dismantling is to show that we manage rigorously the fuel cycle « back end » with dismantling of shutdown nuclear facilities and also retrieval, conditioning of legacy wastes.CEA’s objective is to carry out its entire Dismantling and Decommissioning program in respect of safety, security, cost and duration with the priority to dismantle the nuclear facilities enclosed in cities, like Grenoble and Fonte-nay- aux-Roses and to dismantle UP1 processing facility in Marcoule, which is one of the biggest D&D project in France and in Europe.The CEA’s strategy is carried out under the umbrella of two 2006 laws: Transparency and Nuclear Safety and Waste management.The feedback experience of CEA could benefit for future dismantling projects, in France and abroad. CEA has also been developing R&D actions for specific issues such as characterization or operation in hostile environment. CEA is convinced that management of the nuclear facilities end-of-life is a key issue for public acceptance.

ABSTRACT

Figure 1 : Opération de découpe d’une cuve dans un sas chantier d’une installation du CEA Saclay en cours de démantèlement.

Crédit photo : CEA.

42 ��REE N°1/2016

LE DÉMANTÈLEMENT DES CENTRALES NUCLÉAIRESDOSSIER 1

Introduction Les activités d’assainissement et de

démantèlement des installations nu-

cléaires en fin de vie constituent pour la

filière nucléaire un enjeu majeur, dont le

bon déroulement confortera la crédibilité

de la filière dans sa capacité à mener à

bien l’ensemble du cycle de vie des ins-

tallations nucléaires. Le démantèlement

représente également un enjeu tech-

nique, industriel et financier considérable.

En France, de nombreuses instal-

lations nucléaires (réacteurs de pro-

duction d’électricité ou expérimentaux,

installations du cycle du combustible,

laboratoires, installations de traitement

d’effluents ou de déchets radioactifs, etc.)

ont été construites depuis les années 50.

Les plus anciennes sont progressivement

arrêtées, puis démantelées.

En 2013, le parc nucléaire français

était composé de 125 installations, dont

plus d’une trentaine en cours de déman-

tèlement, principalement au CEA, chez

EDF et AREVA :

-

loppement (R&D) à Grenoble, Fontenay-

aux-Roses, Marcoule, Saclay (figure 1) et

Cadarache pour le CEA civil ;

réacteurs uranium naturel-graphite-

gaz, Superphénix et un réacteur à eau

pressurisée (Chooz A) ;

Eurodif pour AREVA.

Le démantèlement couvre la réalisa-

tion des activités techniques et admi-

nistratives pour atteindre un état final

prédéfini. Ces activités comprennent

notamment des opérations de démon-

tage d’équipements, d’assainissement

des locaux et des sols, de démantèle-

ment de structures de génie civil, de

traitement, de conditionnement, d’éva-

cuation et d’entreposage de déchets

radioactifs.

L’objectif prioritaire pour mener à

bien ces opérations de démantèlement

consiste à les piloter dans le respect des

règles de sûreté et de minimisation de

l’impact sur l'environnement. Ceci doit

aussi être conduit dans une optique de

développement durable et dans une

logique de maîtrise des coûts à termi-

naison et de tenue des délais, en tirant

sur ce dernier point le bénéfice du retour

d’expérience des travaux réalisés.

Ces opérations recouvrent :

arrêtées ;

déchets (RCD), des effluents anciens

et des combustibles usés ;

-

toires ou l’entreposage sur sites en

attente du stockage définitif.

Périmètres de l’assainisse-ment-démantèlement et de la reprise et du condition-nement des déchets anciens au CEA-DEN

Aujourd’hui, la Direction de l’énergie

nucléaire du CEA (CEA-DEN) est res-

ponsable sur les centres civils de l’assai-

nissement et du démantèlement de 22

soit près des deux tiers des installations

françaises en cours de démantèlement.

L’ensemble des opérations d’assai-

nissement-démantèlement, de RCD, de

traitement/entreposage/transport des

déchets, matières, effluents et combus-

tibles usés, représentent en tout pour le

CEA-DEN plus de 100 projets, de gra-

nulométries différentes. Ils sont menés

de front, avec une priorité donnée aux

opérations conduites sur les sites CEA

de Fontenay-aux-Roses et de Marcoule,

notamment sur l’ancienne usine de trai-

tement des combustibles usés appelée1, ainsi qu’aux opérations de reprise

et conditionnement des déchets anciens

menées à Marcoule et à Cadarache.

1 UP1, mise en service en juillet 1958 à Marcouleet exploitée jusqu’en 1997, avait été construiteau départ pour retraiter le combustible des ré-acteurs G1, G2 et G3 et en récupérer le pluto-nium pour des usages militaires. Dès 1965, lesactivités civiles de l’usine UP1 ont débuté avecle retraitement des combustibles nucléaires dela filière uranium naturel graphite-gaz.

Encadré 1 : Les catégories de déchets radioactifs.Encadré 1 : Les catégories de déchets radioactifs

Les catégories de déchets radioactifsIl existe quatre grandes catégories de déchets radioactifs en fonction de leur

niveau de radioactivité et de leur durée de vie :

France) ;

de Morvilliers et de Soulaines, gérés par l’Agence nationale de gestion des

déchets radioactifs (Andra).

de gestion définitive. Ils sont actuellement conditionnés et entreposés par leurs

producteurs, dans l’attente d’un site de stockage définitif. À terme, ils devraient

être stockés dans des formations géologiques à grande profondeur. C’est le

projet Cigéo dont l’Andra est maître d’ouvrage. Il en va de même pour les dé-

chets FA-VL pour lesquels l’Andra étudie un projet de stockage en subsurface.

REE N°1/2016 � 43

Le démantèlement des installations nucléaires à la Direction de l’énergie nucléaire du CEA

Ces activités mobilisent plus de 850

salariés du CEA et entre 2 000 et 2 500

salariés d’entreprises prestataires, selon

les années.

Des installations variées en termes d’échelles et de spécificités techniques

En parallèle, la Direction des applica-

tions militaires (DAM) du CEA conduit

elle aussi des chantiers d’assainissement-

démantèlement sur les installations du

CEA relevant de sa responsabilité.

La spécificité du CEA-DEN réside

dans la grande variété d’installations

qu’il exploite : réacteurs expérimentaux,

laboratoires de chimie, stations de traite-

ment d’effluents et de déchets, etc. Le

démantèlement de chaque installation

est de ce fait un cas particulier et il n’y

a pas « d’effet de série ». Les opérations

qui peuvent présenter un risque radio-

logique pour les opérateurs sont effec-

tuées à distance au moyen d’engins

robotisés, souvent développés au sein

même du CEA.

La complexité de ces chantiers est

encore accrue par l’ancienneté des ins-

tallations à démanteler. Certaines ont été

la traçabilité de leurs activités n’a pas tou-

-

tions réglementaires successives rendent

inévitables les évolutions des scénarios

de démantèlement, à plus forte raison

pour des chantiers de haute activité radio-

logique et de long terme, dont certains

peuvent durer plus de 30 ans.

Financement

Le financement est assuré de manière

pluriannuelle à travers un financement

dédié : le CEA se conforme à l’article 20

des matières et déchets radioactifs. Il

impose aux exploitants nucléaires d’éva-

luer de manière prudente les charges de

démantèlement de leurs installations et

celles de la gestion des combustibles

usés et déchets radioactifs, de constituer

les provisions afférentes et d’affecter à

titre exclusif à la couverture de ces pro-

visions les actifs nécessaires, présentant

un degré de sécurité et de liquidité suffi-

sant pour répondre à leur objet.

et le CEA ont mis en place des modalités

de gestion de fonds dédiés et des procé-

dures associées : le financement de ces

fonds est régi par une convention-cadre

Des incertitudes significatives sub-

sistent au niveau de l’évaluation des

charges, liées à cinq causes principales

susceptibles de conduire à réévaluer les

scénarios des opérations et par voie de

conséquence les coûts à terminaison

des projets d’assainissement-démantè-

lement et de reprise et conditionnement

des déchets anciens. Ces cinq causes

exogènes sont les suivantes :

initial2. Ainsi, certaines opérations en

cours ont mis en évidence des problé-

matiques non prévues, des difficultés

techniques et des évolutions des don-

nées d’entrée, qui modifient de façon

importante le déroulement contrac-

tuel et le scénario des opérations de

démantèlement ;

et réglementaires ou des durées d’ins-

truction des dossiers plus longues que

complémentaires de sûreté3 génèrent

des travaux significatifs d’amélioration

de la sûreté y compris dans les installa-

tions en cours ou en voie de démantèle-

ment. Autre exemple, la règlementation

amiante de 2012 induit des contraintes

qui viennent s’additionner à la réglemen-

tation propre aux installations nucléaires ;

2 Par état initial, on entend état précis de l’instal-lation au démarrage des opérations d’assainis-sement et de démantèlement.

3 Demandées par l’Autorité de sûreté nucléaire (ASN) aux exploitants nucléaires suite à l’acci-dent de Fukushima.

déchets radioactifs, en particulier du

MA-VL, et des spécifications de condi-

tionnement des déchets. Il existe par

exemple un risque de non-acceptation

de certains colis de déchets MA-VL

ainsi qu’un risque de décalage de la

mise en service industrielle du stoc-

kage Cigéo ; la décision de construire

un site de subsurface pour les colis

de déchets FA-VL n’a par ailleurs pas

encore été prise ;

final, pour les installations démantelées

et assainies, avant leur déclassement.

Ce point est actuellement en cours de

discussion avec les autorités de sûreté ;

-

nancières en cas d’augmentation des

charges, conduit à modifier le planning

des opérations ainsi qu’à des surcoûts

à terminaison.

Stratégie de démantèlement au CEA

L’arrêt progressif des installations nu-

cléaires du CEA est dû soit à leur obso-

lescence technique, soit au fait qu’elles

ne correspondent plus aux normes ac-

tuelles de sûreté, soit à l’évolution des

programmes du CEA-DEN.

La stratégie du CEA est conforme aux

recommandations des autorités de sûre-

té nucléaire : démantèlement immédiat,

chaque fois que cela est réalisable, afin

de diminuer les risques le plus rapide-

ment possible. Dans un contexte budgé-

taire contraint, et devant l’augmentation

progressive des installations à l’arrêt, le

CEA priorise le démantèlement des ins-

tallations présentant les risques radiolo-

giques les plus importants.

La stratégie de démantèlement du

CEA repose, pour l’état final recherché

à l’issue des opérations de démantè-

lement, sur une installation assainie,

c’est-à-dire dont la radioactivité résiduelle

a été enlevée. Si, pour des raisons tech-

Ces activités mobilisent plus de 850

salariés du CEA et entre 2 000 et 2 500

salariés d’entreprises prestataires, selon

les années.

Des installations variées en termes d’échelleset de spécificités techniques

En parallèle, la Direction des applica-

tions militaires (DAM) du CEA conduit

elle aussi des chantiers d’assainissement-

démantèlement sur les installations du

CEA relevant de sa responsabilité.

La spécificité du CEA-DEN réside

dans la grande variété d’installations

qu’il exploite : réacteurs expérimentaux,

laboratoires de chimie, stations de traite-

ment d’effluents et de déchets, etc. Le

démantèlement de chaque installation

est de ce fait un cas particulier et il n’y

a pas « d’effet de série ». Les opérations

qui peuvent présenter un risque radio-

logique pour les opérateurs sont effec-

tuées à distance au moyen d’engins

robotisés, souvent développés au sein

même du CEA.

La complexité de ces chantiers est

encore accrue par l’ancienneté des ins-

tallations à démanteler. Certaines ont été

la traçabilité de leurs activités n’a pas tou-

-

tions réglementaires successives rendent

inévitables les évolutions des scénarios

de démantèlement, à plus forte raison

pour des chantiers de haute activité radio-

logique et de long terme, dont certains

peuvent durer plus de 30 ans.

Financement

Le financement est assuré de manière

pluriannuelle à travers un financement

dédié : le CEA se conforme à l’article 20

des matières et déchets radioactifs. Il

impose aux exploitants nucléaires d’éva-

luer de manière prudente les charges de

démantèlement de leurs installations et

celles de la gestion des combustibles

usés et déchets radioactifs, de constituer

les provisions afférentes et d’affecter à

titre exclusif à la couverture de ces pro-

visions les actifs nécessaires, présentant

un degré de sécurité et de liquidité suffi-

sant pour répondre à leur objet.

et le CEA ont mis en place des modalités

de gestion de fonds dédiés et des procé-

dures associées : le financement de ces

fonds est régi par une convention-cadre

Des incertitudes significatives sub-

sistent au niveau de l’évaluation des

charges, liées à cinq causes principales

susceptibles de conduire à réévaluer les

scénarios des opérations et par voie de

conséquence les coûts à terminaison

des projets d’assainissement-démantè-

lement et de reprise et conditionnement

des déchets anciens. Ces cinq causes

exogènes sont les suivantes :

initial2. Ainsi, certaines opérations en

cours ont mis en évidence des problé-

matiques non prévues, des difficultés

techniques et des évolutions des don-

nées d’entrée, qui modifient de façon

importante le déroulement contrac-

tuel et le scénario des opérations de

démantèlement ;

et réglementaires ou des durées d’ins-

truction des dossiers plus longues que

complémentaires de sûreté3 génèrent

des travaux significatifs d’amélioration

de la sûreté y compris dans les installa-

tions en cours ou en voie de démantèle-

ment. Autre exemple, la règlementation

amiante de 2012 induit des contraintes

qui viennent s’additionner à la réglemen-

tation propre aux installations nucléaires ;

2 Par état initial, on entend état précis de l’instal-lation au démarrage des opérations d’assainis-sement et de démantèlement.

3 Demandées par l’Autorité de sûreté nucléaire(ASN) aux exploitants nucléaires suite à l’acci-dent de Fukushima.

déchets radioactifs, en particulier du

MA-VL, et des spécifications de condi-

tionnement des déchets. Il existe par

exemple un risque de non-acceptation

de certains colis de déchets MA-VL

ainsi qu’un risque de décalage de la

mise en service industrielle du stoc-

kage Cigéo ; la décision de construire

un site de subsurface pour les colis

de déchets FA-VL n’a par ailleurs pas

encore été prise ;

final, pour les installations démantelées

et assainies, avant leur déclassement.

Ce point est actuellement en cours de

discussion avec les autorités de sûreté ;

-

nancières en cas d’augmentation des

charges, conduit à modifier le planning

des opérations ainsi qu’à des surcoûts

à terminaison.

Stratégie de démantèlement au CEA

L’arrêt progressif des installations nu-

cléaires du CEA est dû soit à leur obso-

lescence technique, soit au fait qu’elles

ne correspondent plus aux normes ac-

tuelles de sûreté, soit à l’évolution des

programmes du CEA-DEN.

La stratégie du CEA est conforme aux

recommandations des autorités de sûre-

té nucléaire : démantèlement immédiat,

chaque fois que cela est réalisable, afin

de diminuer les risques le plus rapide-

ment possible. Dans un contexte budgé-

taire contraint, et devant l’augmentation

progressive des installations à l’arrêt, le

CEA priorise le démantèlement des ins-

tallations présentant les risques radiolo-

giques les plus importants.

La stratégie de démantèlement du

CEA repose, pour l’état final recherché

à l’issue des opérations de démantè-

lement, sur une installation assainie,

c’est-à-dire dont la radioactivité résiduelle

a été enlevée. Si, pour des raisons tech-

MEA 2015

L’avion tout électrique

est déjà une réalité, comme

en témoignent les vols très

médiatisés de Solarimpulse

ou de l’E-fan ; le premier

n’est toutefois qu’un dé-

monstrateur technologique

qui n’aura pas de prolon-

gement commercial avant

longtemps, tandis que le

second est déjà en phase de production – comme

plusieurs concurrents étrangers de même gabarit

– et s’attaque au créneau des écoles de pilotage.

Il souffre cependant d’une autonomie encore trop

réduite pour percer réellement dans le monde de

l’aviation générale.

Mais les investissements de l’automobile pour

développer des batteries à plus forte densité

d’énergie auront à l’évidence des retombées sur

l’aéronautique, et ce d’autant plus que la moto-

risation électrique se prête au fractionnement,

qui peut concrétiser l’un des rêves des aérody-

namiciens, « l’aspiration de couche limite », qui

renforce dans un large domaine de vol l’effica-

cité des voilures. Cette propriété justifie une

étape intermédiaire à la propulsion décarbonée,

envisagée même pour des avions de transport

beaucoup plus lourds que les précédents : la pro-

pulsion hybride. Celle-ci exploitera le principe de

la motorisation électrique répartie sur une grande

partie de la voilure, associée à une production

électrique par une pile à combustible alimentée

en kérosène, en attendant la mise au point de

procédés fiables de production, distribution et

stockage de l’hydrogène, développés eux aussi

pour les transports terrestres1.

Sans attendre l’exploitation des ruptures tech-

nologiques que nous venons d’évoquer – mais dont

la mise en œuvre nécessitera de longues étapes de

1 Voir le dossier sur ce sujet dans l’édition 2015-2 de la REE

démonstration de sécurité

avant l’indispensable certi-

fication aéronautique – des

progrès incrémentaux sont

régulièrement enregistrés

depuis plusieurs années

pour réduire la consom-

mation de kérosène. Ces

progrès se traduisent par

du « plus électrique » dans

les modèles récemment mis en service, comme

le Boeing 787 qui dispose à bord de plus de

1 MW soit cinq fois plus que ses équivalents de

la génération précédente. Cette évolution se tra-

duit notamment par le remplacement de tout ou

partie des équipements hydrauliques (trains, com-

mandes de vol) et à air comprimé (conditionne-

ment d’air par prélèvement moteur) qui ont fait

leurs preuves depuis des décennies mais sont

loin de présenter la souplesse, la maintenabilité,

les possibilités d’allègement liées aux générateurs,

moteurs ou actuateurs électriques, et à l’électro-

nique de puissance actuellement disponibles. En

outre, le “green taxiing” est désormais possible

grâce à la motorisation électrique du train avant,

permettant le roulage au sol « réacteurs éteints » ce

qui présente un avantage environnemental certain

pour les usagers et les riverains des aéroports, ain-

si qu’un gain en consommation qui peut atteindre

5 % sur des vols court courrier.

La conférence More Electric Aircraft organisée

conjointement par 3AF et SEE en février 2015

à Toulouse a réuni 260 participants avec une

centaine de présentations et une quinzaine de

stands industriels qui ont permis une couverture

exhaustive de l’état de l’art en Europe et au-delà,

ainsi que des perspectives de ce vaste domaine.

Nous avons retenu quelques-unes de ces pré-

sentations pour constituer le présent dossier,

après mise à jour et compléments éventuels par

leurs auteurs.

Introduction

70 ��REE N°1/2016

L’avion plus électrique, ���������� ������ ����� ��

Florent Christophe

Jean-Charles Gautherot

Introduction MEA 2015

Une équipe de chercheurs grenoblois et toulou-

sains – qui entretient des collaborations régulières

avec Airbus – présente dans le premier document

une méthodologie de concep-

tion optimisée des filtres que

le réseau électrique doit incor-

porer pour faire face à la pro-

blématique de l’électronique

de puissance et des charges

non linéaires introduisant des

taux d’harmoniques impor-

tants en présence de fortes va-

riations de charge rencontrées

dans l’avion plus électrique.

Le document normatif RTCA

DO160 qui sert de base à la

qualification des équipements

et systèmes aéronautiques est

d’ailleurs régulièrement mis à

jour pour prendre en compte

ces évolutions.

Le document rédigé par

des chercheurs du CEA-Tech

présente l’état de l’art et les

perspectives d’évolution des

différentes technologies de

batteries et évoque au pas-

sage celle des piles à combus-

tible. L’augmentation d’énergie

massique des batteries par un

facteur 2 à 5 selon l’échéance considérée, élargit clai-

rement leur domaine d’application en aéronautique,

mais des verrous potentiels sont identifiés, liés aux

conditions d’environnement, à

la sécurité, au nombre maximal

de cycles et au coût des consti-

tuants.

Un exercice de prospec-

tive, conduit conjointement

avec le CEA, a servi de point

de départ aux travaux de

l’ONERA qui expose, dans la

dernière présentation de ce

dossier, une vision moyen

terme d’aviation légère tout

électrique qui s’élargit au

transport régional et précise

l’ensemble des technologies

critiques qui restent à adap-

ter ou à mettre au point.

Nul doute que la pro-

chaine édition de la confé-

rence More Electric Aircraft, à

Bordeaux début février 2017,

apportera de nouvelles infor-

mations autant sur les déve-

loppements industriels en

cours que sur les travaux des

laboratoires de recherche. �

Dimensionnement optimal d'un réseau électrique aéronautiquePar D. Hadbi, X. Roboam, B Sareni, N. Retiere, F. Wurtz ............................................................................. p. 72Key Drivers for Aeronautic BatteriesPar Florence Fusalba, Jean Oriol & Eric Pinton ........................................................................................... p. 80Electric Distributed Propulsion for Small Business AircraftPar Jean Hermetz, Michael Ridel ........................................................................................................................ p. 86

LES ARTICLES

REE N°1/2016 � 71

Florent Christophe, membre émérite SEE, edirige le département DEMR - Electroma-

gnétisme et radar, à l’ONERA Toulouse, dont

l’équipe Compatibilité électromagnétique

est impliquée dans des travaux sur l’avion

plus électrique et la prospective vers le tout

électrique. Il est membre du Conseil de

la science et de la technologie de l’OTAN.

Ancien président du groupe régional

Midi-Pyrénées de la SEE, il a créé ce qui

est devenu le cycle des conférences More

Electric Aircraft organisées conjointement

par 3AF et SEE en alternance entre Toulouse

(2009, 2015) et Bordeaux (2012, 2017).

Jean-Charles Gautherot, membre senior tde la SEE et de la 3AF, retraité de la DGA, a

dirigé le département Environnement élec-cc

tromagnétique puis la division Equipements

et systèmes du CEAT (Centre d’essais aéro-

nautique de Toulouse, à présent DGA/TA)

qui avait notamment en charge la qualifica-

tion en environnements mécanique, clima-

tique et électromagnétique (foudre, champs

forts, CEM) des systèmes électroniques

embarqués sur aéronefs militaires. Compte

tenu de ces compétences, il a été également

sollicité par les autorités de certification

pour divers programmes civils (A320, A340,

hélicoptères divers…) notamment lors de la

mise en service de systèmes électroniques

critiques ou essentiels (calculateurs de

commandes de vol électriques, régulation

moteur pleine autorité, etc.).

DES AVIONS PLUS ÉLECTRIQUESMEA 2015

72 ��REE N°1/2016

IntroductionDans le contexte de l’avion plus électrique [1], les réseaux

électriques embarqués sont en pleine évolution du fait de

l’intégration continue de nouvelles technologies qui modi-

fient en profondeur les architectures et le fonctionnement

de ces systèmes [2], [3]. Cette évolution nécessite une mise

à jour des méthodes et outils utilisés tout au long de la du-

rée de vie d’un système et en particulier dans la phase de

conception [4], [5].

Conventionnellement, on se base sur des approches

d’analyse et sur l’expertise des équipes d’ingénierie avec

une pénétration progressive des méthodes d’optimisation

à l’échelle locale, pour quelques équipements [6]. Chaque

sous-système du réseau est dimensionné indépendamment

des autres sous-systèmes par son équipementier qui utilise

son propre modèle et ses propres outils, cette approche de

conception classique est connue sous le nom de « l’approche

mécaniste ».

L’approche diamétralement opposée à cette vision mé-

caniste consiste à regrouper l’ensemble des sous-systèmes

dans un seul modèle géré par une seule et unique boucle

d’optimisation. Cette approche s’appelle « l’approche glo-

bale ». Elle permet d’appréhender tous les couplages entre

les différents sous-systèmes pour converger vers le résultat

optimal mais présente un double inconvénient :

pratique : la complexité des réseaux électriques ne permet

pas de résoudre l’ensemble du problème au sein d’une

seule et même boucle.

équipementiers avec une intégration de tous les modèles

de conception au sein d’un unique processus (et d’une

unique plate-forme) [2], [7].

La recherche de compromis entre résultat globalement

optimal, complexité de résolution et collaboration modé-

rée nous a conduit à réfléchir à différentes approches inter-

médiaires entre les deux visions précédentes en exploitant

différentes pistes : le séquencement des optimisations sous-

systèmes, l’échantillonnage des variables globales [3] et enfin

l’optimisation multiniveau [8].

Cas d’étude pour la conception optimale d’un réseau électrique de bord simplifié

Les réseaux électriques embarqués concentrent un

nombre élevé de sources et de charges connectées à diffé-

rents bus. Volontairement très simplifié, l’objet du cas d’étude

est d’illustrer l’applicabilité des méthodes d’optimisation au

regard de la complexité finale du système. Dans notre travail

de formulation des approches de conception pour l’optimi-

sation système, nous nous sommes limités, dans un premier

temps, à un cas d’étude très simplifié d’un réseau 540 V

HVDC, mono-source mono-charge (figure 1). Le lecteur

trouvera dans [7] l’application des méthodes d’optimisation

collaboratives les plus prometteuses au cas d’un réseau plus

représentatif de la réalité.

La source représente un canal de génération 40 kVA qui

d'un redresseur triphasé à diodes et d’un filtre de sortie capa-

Dimensionnement optimal d’un réseau électrique aéronautique

Comparaison entre différentes stratégies de conceptionPar Djamel Hadbi1, 2, Xavier Roboam 1, Bruno Sareni1, Nicolas Retière2, Frederic Wurtz2

Université de Toulouse, LAPLACE, UMR CNRS-INPT-UPS1, Université de Grenoble Alpes, G2Elab2

Electric aircraft network is a complex system containing high number of subsystems provided by dif-ferent suppliers which must cooperate in safe and light weight operation. In the current state, the

network conceptual design is based on standards defined by the aircraft manufacturer, each subsystem being designed separately by suppliers, according to these standards but without any other collaboration. With this classical approach called “mechanistic approach”, the whole weight of the aircraft network is overestimated which leads to additional operating cost with fuel burn penalty.To face this problem, many optimization based design strategies are studied. In this paper, three original ap-proaches are presented: the Extended Pareto Front Method (EPFM), a sequential collaborative approach and the multilevel design approach. These approaches are discussed regarding the top goal which is the weight minimi-zation but also the required computation and collaboration costs. A simplified case study of High Voltage Direct current (HVDC) filters sizing is used to establish the comparison between these approaches.

ABSTRACT

REE N°1/2016 � 73

Dimensionnement optimal d’un réseau électrique aéronautique

citif. La charge comprend un moteur à grande vitesse d’une

de type LC avec une capacité amortie. Le dimensionnement

du réseau se limite aux filtres, c’est pourquoi les convertis-

seurs et les machines tournantes ont été remplacés par des

sources de courant représentant les harmoniques typiques

du courant redresseur côté continu [Ired] et du courant ondu-

leur [Iond] côté continu (figure 2) [7].

Les spectres harmoniques des courants du redresseur et de

l’onduleur considérés ont été construits sur la base des don-

nées de chaque sous-système résumées dans le tableau 1.

Nous nous sommes limités à un nombre réduit de fréquences

caractéristiques pour lesquelles les contraintes sont les plus

critiques pour le dimensionnement [7].

L’approche mécaniste (classique)Dans l’approche classique, chaque sous-système est di-

mensionné séparément. L’équipementier utilise ses propres

modèles et outils pour optimiser localement le dimensionne-

ment du sous-système au regard de la norme uniquement.

Dans l’optimisation mécaniste de la source, l’équipemen-

tier considère ainsi un état de pollution du courant de bus

qu’il assimile au pire cas de pollution autorisé par la norme

et cherche à minimiser la masse du filtre en respectant la

contrainte sur la qualité de la tension [9]. Il agit sur la seule

variable de décision : la capacité Cs (figure 3).

Cette optimisation, comme l’ensemble des optimisations

présentées dans cet article, a été faite dans l’environnement

CADES [10]. La masse obtenue est de 2,17 kg, les niveaux

des harmoniques de tension et de courant vus par la source

sont donnés dans la figure 4.

Dans l’optimisation mécaniste de la charge, l’équipemen-

tier considère une tension de bus dont la pollution est assimi-

lée au pire cas de la norme. Il minimise la masse du filtre en

respectant les contraintes de qualité sur le courant absorbé

par le filtre côté DC et cela en agissant sur les variables de

décision : C2C , C22 1, L11 et R (figure 5) [9].

Figure 1 : Illustration du cas d’étude simplifié.

Figure 2 : Réseau électrique simplifié.

Tableau 2 : Valeurs des harmoniques qui polluent le réseau.

Figure 3 : Description schématique du problème d’optimisationmécaniste de la source.

Tableau 1 : Fréquences caractéristiques du système.

DES AVIONS PLUS ÉLECTRIQUESMEA 2015

74 � REE N°1/2016

Approche globale

La masse obtenue est de 2,24 kg ; les niveaux des har-rr

moniques de tension et de courant vus par la charge sont

donnés dans la figure 6.

Dans les deux cas (source et charge), on constate qu’une

(et une seule) fréquence caractéristique se trouve en butée

à l’issue de l’optimisation.

Approche globaleDans cette approche, les deux filtres sont considérés

comme un seul système, il est donc nécessaire de partager

les modèles des équipementiers pour construire le modèle

système. L’ensemble est optimisé simultanément par le

même outil, l’objectif est de minimiser la masse totale des

filtres en respectant les contraintes de qualité sur la tension

et sur le courant et cela en agissant sur tous les paramètres

des filtres : Cs , C2C , C1 , L et R (figure 7) [9].

Figure 4 : Harmoniques de tension et de courant vus par la source dans l’optimisation mécaniste.

Figure 5 : Description schématique du problème d’optimisation mécaniste de la charge.

Figure 6 : Harmoniques de tension et de courant vus par la chargedans l’optimisation mécaniste.

Figure 7 : Description schématique du problème d’optimisation globale du système.

96 ��REE N°1/2016

GROS PLAN SUR

IntroductionQu’est-ce que le temps ?

Nous n’en savons rien et

donc nous laisserons

cette question aux philo-

sophes et aux théoriciens.

Nous adopterons le point

de vue d’Einstein qui écri-

vait : « Il semblerait qu’on

pourrait écarter les diffi-

cultés concernant la défi-

nition du « temps » si l’on

substituait à ce dernier terme l’expression « position de la petite

aiguille de ma montre ». Une telle définition suffit en effet si elle

concerne uniquement le lieu où se trouve l’horloge »1. Nous

savons en effet mesurer le temps, ou plutôt mesurer un temps

écoulé, c’est-à-dire une durée, de même qu’on mesure une dis-

tance entre deux points. Et de même qu’on peut situer un point

dans l’espace connaissant sa distance à des points de référence,

on peut dater un événement à partir du temps écoulé entre cet

événement et un événement de référence.

Pour mesurer une grandeur physique, il faut une unité

et un instrument de mesure. Il y a deux façons possibles :

utiliser un phénomène continu et si possible linéaire (gno-

mon, horloges basées sur l’écoulement d’un fluide, bougies, 14C, angle de rotation de la terre, etc.), ou un phénomène

périodique dont on compte les périodes (jours, lunaisons,

crues du Nil, pouls, oscillations d’un pendule, vibrations mé-

caniques, onde, etc.). Ce comptage établit ce qu’on appelle

une échelle de temps à partir de laquelle on peut mesurer

une durée ou dater un évènement.

Dans cet article, nous allons tout d’abord rappeler quelle

est l’unité de temps avant de passer en revue quelques ins-

truments de mesure : les horloges.

L’unité de temps L’unité de temps est la seconde, unité de base du sys-

tème international (SI), de symbole s. Son nom provient de

1 Einstein – Sur l’électrodynamique des corps en mouvement – Œuvres choisies, Editions du Seuil.

la francisation écourtée

de l’expression latine

médiévale minutum

secunda, qui signifiait

littéralement minute

de second rang, c’est-

à-dire seconde division

de l’heure, minutum

signifiant petite partie

Première définition

Il semble que la se-

conde ait été définie la première fois autour de l’an mil par

Al-Biruni, originaire de l’Etat du Khwarizm (aujourd’hui situé

en Ouzbékistan) à partir de la durée séparant deux nouvelles

lunes, comme la 1/86 400e partie du jour moyen ; c’est-à-

dire 1/(24 x 60 x 60). La division du jour moyen en 24 heures

remonterait aux Egyptiens qui divisaient la journée et la nuit

en 12 heures (de durées inégales) chacune, et la division

en soixante serait un héritage des babyloniens. Jour moyen

parce qu’on savait déjà à l’époque de Ptolémée (Alexandrie,

IIe siècle) que la durée du jour varie au cours de l’année,

d’environ 30 min ; c’est la fameuse équation du temps que

connaissent bien les amateurs de cadrans solaires. Ce temps

« corrigé » n’est valable qu’au méridien du lieu. A la fin du XIXe

siècle, et jusqu’au début du XXe siècle, il a progressivement

été convenu d’une « heure universelle » correspondant au

méridien de Greenwich, c’est le temps universel (TU ou UT)

défini comme le temps solaire moyen pour le méridien ori-

gine, augmenté de 12 heures. Augmenté de 12 h, parce que

pour les astronomes il est 0 h en temps solaire à midi.

Cette définition de la seconde devait perdurer jusqu’en

1960. Curieusement elle est restée tacite et, à notre connais-

sance, n’a jamais été énoncée officiellement par une institu-

tion internationale.

Deuxième définition et première définition officielle

On savait que la vitesse de rotation de la Terre subit une

lente décroissance, de quelques ms par siècle, due aux effets

La mesure du temps aujourd’hui

This is a short review of the state of the art of the measurement of time in the metrology laboratories. After a brief recall of the successive definitions of the second, now defined on an atomic transition of the caesium atom,

we present today atomic clocks: the Cs beam clock, still the workhorse of time metrology, and the Cs fountain clock based on cold atoms, which revolutionized the field. A promising new generation based on higher frequency transitions is coming, the optical clocks, the strontium clock is given as an example. Afterwards a few methods of clock comparison and clock signal dissemination are addressed.

ABSTRACT

E. de Clercq SYRTE,

Observatoire de Paris

T. Zanon-Willette Observatoire

de Paris et UPMC

O. Acef SYRTE,

Observatoire de Paris

REE N°1/2016 � 97

La mesure du temps aujourd’hui

de marées. Ainsi, au temps des dinosaures, la durée du jour

devait être inférieure à vingt de nos heures actuelles. Elle

deviendrait égale à 28 jours actuels dans quelques milliards

d’années, lorsque la Terre présentera toujours la même face

à la Lune, en attendant qu’elle présente toujours la même

face au Soleil. Dans les années 30, il fut mis en évidence

des irrégularités plus importantes dans la rotation de la Terre,

de quelques dizaines de ms par an, liées au fait que la Terre

n’est pas un solide indéformable, aux effets atmosphériques,

aux courants marins, etc. C’est pourquoi il fut décidé de défi-

nir la seconde à partir de la révolution de la Terre autour du

soleil (sa période est une année tropique). La 11e Conférence

générale des poids et mesures (CGPM) ratifiait la nouvelle

définition en 1960 :

« La seconde est la fraction 1/31 556 925, 9747 de l’an-

née tropique pour 1900 janvier 0 à 12 heures de temps

des éphémérides ».

C’est la seconde des éphémérides, et l’échelle de temps

associée est le temps des éphémérides (TE, ou ET). L’écri-

ture « 1900 janvier 0 à 12 heures » traduite en langage cou-

rant est le 31 décembre 1899 à midi. L’étrangeté de cette

définition tient au fait que l’année tropique 1900 n’était pas

mesurée mais calculée à partir d’une équation décrivant une

année tropique moyenne de durée dépendante du temps,

d’où la référence à une année tropique « instantanée ».

La durée de l’année tropique 1900 est environ 365 jours

(de 86 400 s), 5 h, 48 min, 45,97 s. Cette définition n’était

pas pratique ; en réalité c’était le mouvement orbital de la

Lune qui était observé et avait l’inconvénient qu’une mesure

de temps devait attendre quelques années pour être raccor-

dée avec précision à la seconde du SI. Un autre inconvénient

est qu’elle est basée sur la durée moyenne de la seconde des

XVIIIe et XIXe siècles, durée inférieure à celle de la seconde

de temps moyen en 1960. Cette différence explique, pour

une majeure partie, la fréquence à laquelle on est obligé de

rajouter des secondes intercalaires de nos jours.

Troisième définitionSuite aux travaux de physique fondamentale menés dans

les années 30-40 à l’université Columbia (Etats-Unis) par

Rabi, Zacharias, Ramsey et leur équipe sur la résonance ma-

gnétique et les jets atomiques et moléculaires, Zacharias dé-

veloppa le premier prototype commercial d’horloge atomique

à césium en 1955, l’Atomichron. La même année Essen et

Paris réalisaient au National Physical Laboratory (Angleterre)

la première horloge à césium de laboratoire qu’ils compa-

raient indirectement via un oscillateur à quartz à une échelle

de temps provisoire de l’observatoire de Greenwich. Le résul-

tat publié sous le titre “An atomic standard of frequency and

time interval” (Nature, vol. 176, p. 280, 1955) donne pour

la fréquence du Cs : 9 192 631 830 ±10 c/s (cycles par

seconde), soit une exactitude relative de 1´10-9. Après trois

ans de mesure en collaboration avec Markowitz et Hall de

l’Observatoire naval de Washington (USNO), ils publiaient

une nouvelle mesure en termes de seconde des éphémé-

rides : « 9 192 631 770 ± 20 cycles per second (of E.T.) at

1957.0 » (Physical Review Letters, vol. 1, p. 105, 1958), dont

l’exactitude était surtout limitée par la détermination de la

seconde des éphémérides. En 1967, la 13e Conférence géné-

rale des poids et mesures abrogea la précédente définition et

décida en se basant sur cette mesure, que :

« La seconde est la durée de 9 192 631 770 périodes de

la radiation correspondant à la transition entre les deux

niveaux hyperfins de l’état fondamental de l’atome de

césium 133 ».

Lors de sa session de 1997 le Comité international des

poids et mesures a précisé que : « Cette définition se réfère

à un atome de césium au repos, à une température de 0 K ».

L’exactitude relative des horloges à césium était alors de

l’ordre de 10-12. Cette définition repose sur l’hypothèse que

tous les atomes de Cs sont identiques et que leurs propriétés

sont invariantes dans le temps et l’espace. L’échelle de temps

associée est le temps atomique international (TAI). Sa stabi-

lité et sa pérennité sont assurées par environ 300 horloges à

césium commerciales et 100 masers à hydrogène, apparte-

nant à plus de 70 laboratoires de métrologie répartis dans le

monde entier. En France, c’est le laboratoire Systèmes de ré-

férence temps espace (LNE-SYRTE) de l’Observatoire de Pa-

ris qui est chargé par le Laboratoire national de métrologie et

d’essais (LNE) de la responsabilité des références nationales

de temps et de fréquence. A partir des données d’intercom-

paraison de l’ensemble de ces horloges, le Bureau interna-

tional des poids et mesures (BIPM) établit une moyenne

pondérée, appelée temps atomique international (TAI),

dont l’exactitude de l’intervalle unitaire (la seconde du TAI)

est assurée par quelques horloges ou étalons primaires. En

2014, deux horloges à jet atomique et 11 horloges à fontaine

atomique (voir plus loin) ont ainsi contribué à l’exactitude. Le

TAI est une échelle de temps papier, accessible avec retard,

c’est-à-dire que le BIPM diffuse chaque mois le résultat sous

la forme d’avance ou retard de chaque horloge par rapport

au TAI tous les cinq jours du mois précédent. Pour s’y raccor-

der il faut donc raccorder son horloge à une horloge partici-

pant au TAI. L’exactitude de la seconde du TAI est d’environ

2.10-16.

Si l’on reprend la citation d’Einstein, chaque horloge ne

donne que son temps propre. En effet, alors que Galilée et

Newton considéraient un temps absolu, la relativité donne

98 ��REE N°1/2016

GROS PLAN SUR

au temps une signification uniquement locale, c’est le temps

propre. En relativité générale, au-delà du voisinage immédiat

de l’horloge, avant de parler de temps, il faut d’abord défi-

nir un système de coordonnées spatio-temporel ; le temps

correspondant est le temps-coordonnée. Le TAI est ainsi

un temps-coordonnée défini sur le géoïde en rotation. La

seconde du SI est une seconde de temps propre, alors que

l’intervalle unitaire de l’échelle de temps TAI est une seconde

de temps-coordonnée.

Afin de conserver une échelle de temps liée à la rota-

tion de la Terre tout en bénéficiant des propriétés du TAI,

le Temps universel coordonné (UTC) a été créé. L’UTC est

identique au TAI dont il diffère par un nombre entier de

secondes afin de rester en accord avec le temps défini par

la rotation de la Terre à mieux que 0,9 s près. Depuis le

1er juillet 2015, UTC = TAI-36 s. UTC (souvent improprement

appelé temps GMT) est la base légale de l’heure dans la

plupart des pays du monde, par exemple, en France, l’heure

d’hiver est UTC + 1.

Les horloges actuelles Principes

Les horloges atomiques sont basées sur la relation de Bohr

�E = hv reliant la différence d’énergie �E entre deux niveaux

atomiques à la fréquence de l’onde absorbée ou émise lors

d’une transition d’un niveau à l’autre, où h est la constante

de Planck (h ��6,63 x 10-34 J.s). La fréquence d’une transi-

tion atomique est caractéristique d’une espèce atomique. Son

caractère immuable en fait une référence de fréquence. Pour

une utilisation pratique, on emploie un oscillateur local, à partir

duquel on génère une onde électromagnétique de fréquence

aussi proche que possible de la fréquence atomique (la fré-

quence est une grandeur sur laquelle on sait réaliser les quatre

opérations arithmétiques), avec laquelle on va interroger les

atomes. Si l’on est suffisamment proche de la résonance, le

nombre d’atomes changeant d’état est proportionnel à la dif-

férence entre la fréquence d’interrogation et la fréquence ato-

mique (le désaccord). En détectant ces atomes on obtient un

signal utilisable pour corriger la fréquence de l’oscillateur qui

est ainsi calée sur la référence atomique et délivre aux utili-

sateurs une fréquence stable et connue (figure 1). On a ainsi

réalisé un étalon atomique de fréquence. Une horloge ato-

mique est obtenue en comptant les périodes de l’oscillateur.

Ceci est l’analogue de l’horloge à balancier de Huygens (XVIIe

siècle), le pendule est remplacé par l’atome, les engrenages

par la chaîne de multiplication de fréquence entre l’oscillateur

et l’atome, les aiguilles par le signal de l’oscillateur ou un comp-

teur placé derrière totalisant les périodes d’oscillation.

La qualité de l’horloge est d’autant meilleure que la transi-

tion utilisée, de fréquence �, est étroite, c’est-à-dire possède

un grand facteur de qualité défini comme Q = �/��, où ��

est la largeur de la transition atomique. Pour obtenir des raies

Figure 1 : Schéma de principe d’une horloge atomique. La fréquence f d’un oscillateur local est multipliée par un nombre rationnel k pour interroger une résonance atomique. Le signal d’erreur est utlisé pour asservir la fréquence de l’oscillateur.

au temps une signification uniquement locale, c’est le temps

propre. En relativité générale, au-delà du voisinage immédiat

de l’horloge, avant de parler de temps, il faut d’abord défi-

nir un système de coordonnées spatio-temporel ; le temps

correspondant est le temps-coordonnée. Le TAI est ainsi

un temps-coordonnée défini sur le géoïde en rotation. La

seconde du SI est une seconde de temps propre, alors que

l’intervalle unitaire de l’échelle de temps TAI est une seconde

de temps-coordonnée.

Afin de conserver une échelle de temps liée à la rota-

tion de la Terre tout en bénéficiant des propriétés du TAI,

le Temps universel coordonné (UTC) a été créé. L’UTC est

identique au TAI dont il diffère par un nombre entier de

secondes afin de rester en accord avec le temps défini par

la rotation de la Terre à mieux que 0,9 s près. Depuis le

1er juillet 2015, UTC = TAI-36 s. UTC (souvent improprementr

appelé temps GMT) est la base légale de l’heure dans la

plupart des pays du monde, par exemple, en France, l’heure

d’hiver est UTC + 1.

Les horloges actuelles Principes

Les horloges atomiques sont basées sur la relation de Bohr

�E = E hv reliant la différence d’énergiev �E �� entre deux niveaux

atomiques à la fréquence de l’onde absorbée ou émise lors

d’une transition d’un niveau à l’autre, où h est la constante

de Planck (h(( ��6,63 x 10-34 J.s). La fréquence d’une transi-

tion atomique est caractéristique d’une espèce atomique. Son

caractère immuable en fait une référence de fréquence. Pour

une utilisation pratique, on emploie un oscillateur local, à partir

duquel on génère une onde électromagnétique de fréquence

aussi proche que possible de la fréquence atomique (la fré-

quence est une grandeur sur laquelle on sait réaliser les quatre

opérations arithmétiques), avec laquelle on va interroger les

atomes. Si l’on est suffisamment proche de la résonance, le

nombre d’atomes changeant d’état est proportionnel à la dif-ff

férence entre la fréquence d’interrogation et la fréquence ato-

mique (le désaccord). En détectant ces atomes on obtient un

signal utilisable pour corriger la fréquence de l’oscillateur qui

est ainsi calée sur la référence atomique et délivre aux utili-

sateurs une fréquence stable et connue (figure 1). On a ainsi

réalisé un étalon atomique de fréquence. Une horloge ato-

mique est obtenue en comptant les périodes de l’oscillateur.

Ceci est l’analogue de l’horloge à balancier de Huygens (XVIIe

siècle), le pendule est remplacé par l’atome, les engrenages

par la chaîne de multiplication de fréquence entre l’oscillateur

et l’atome, les aiguilles par le signal de l’oscillateur ou un comp-

teur placé derrière totalisant les périodes d’oscillation.

La qualité de l’horloge est d’autant meilleure que la transi-

tion utilisée, de fréquence �, est étroite, c’est-à-dire possède�

un grand facteur de qualité défini comme Q = �/� �// �� , où� ���

est la largeur de la transition atomique. Pour obtenir des raies

Figure 1 : Schéma de principe d’une horloge atomique. La fréquence f d’un oscillateur local est multipliée par un nombre rationnelf k pour interrogerkune résonance atomique. Le signal d’erreur est utlisé pour asservir la fréquence de l’oscillateur.

REE N°1/2016 � 107

RETOUR SUR ❱❱❱❱❱❱❱❱❱

Marc LeconteMembre émérite de la SEE

IntroductionDans les années 90, appuyé par les services offi-

ciels, un programme européen de développement

d’une technologie d’antennes actives destinées aux

chasseurs aéroportés fut lancé par trois industriels eu-

ropéens. Après l’échec, quelques années auparavant,

d’un programme commun de chasseur européen,

ce programme de haute technologie, appelé AMSAR

(Airborne Multimode Solid-state Active-array Radar),

souleva de grandes espérances quant aux possibili-

tés de coopération des industries de défense euro-

péenne. Le programme concernait, dans le domaine

militaire uniquement, les radars aéroportés de pointe

avant des chasseurs. Les antennes actives des radars

au sol ou ceux des segments aéroportés autres que

celui des chasseurs ont connu un développement dif-

férent. Le programme AMSAR, véritable programme

fondateur, s’achèvera sur des réussites techniques

indéniables mais se heurtera à la réalité des stratégies

et des ambitions nationales. Nous lui consacrons ce

« Retour sur », de ses prémices à sa conclusion inter-rr

venue il y a seulement quelques années.

Les radars aéroportés après-guerre.Les premiers radars aéroportés ont été mis au

point au cours de la deuxième guerre mondiale. Les

contraintes étaient connues : pour embarquer des an-

tennes dans un chasseur, il fallait en diminuer la taille

et par conséquent augmenter la fréquence, ce qui

imposait des circuits électroniques d’un rendement

plus faible et de technologie plus onéreuse.

Après la guerre, l’évolution vers des chasseurs à

réaction plus rapides et les demandes de détection

radar vers des distances de plus en plus grandes se

sont traduites par des évolutions majeures des formes

d’onde et par une course à la puissance moyenne

émise qui conditionnait en grande partie la portée ra-

dar. Les échos de sol (clutter) limitaient largement les

performances des radars à basse fréquence de récur-rr

rence (BFR) issus de la guerre. La détection vers le bas

(look down) était en particulier très problématique et

limitait les capacités opérationnelles d’interception

et de poursuite. L’utilisation du doppler à impulsion

avec une fréquence de récurrence élevée (HFR) per-rr

mettait d’étaler le spectre des échos de sol et ainsi

de détecter et de traiter des cibles à basse altitude.

L’introduction des antennes actives dans les chasseurs Le programme de coopération européen AMSAR

The phased array antennae became preeminent in the fire control radar from the 70's. Facing the competition of United States, European industry developed skills in the monolithic integrated circuits to serve as a brick for modules using passiveand active phased arrays. AMSAR was an X-band, phased, active-array, steerable radar based on gallium arsenide (GaAs) MMIC (Monolithic Microwave Integrated Circuit) technology. The programme, started in 1993, contributed greatly to the deve-lopment of active antennas for next generation fighters in the 2000's.

ABSTRACT

Figure 1 : Configuration d’une antenne réseau classique à fente. Le faisceau est lié par construction au plateau rayonnant

108 ��REE N°1/2016

❱❱❱❱❱❱❱❱❱❱❱ RETOUR SUR

Avec des filtres appropriés, il était possible également

de rejeter les échos de sol liés à la vitesse du chasseur,

qui désensibilisaient les récepteurs. Dans les années 50,

Westinghouse développa le premier doppler à impulsion aé-

roporté. Les chasseurs américains comme le F-15 et le F-16

commencèrent à être équipés de radar doppler à impulsions

au cours des années 60. Les services techniques et l’état-

major de l’armée de l’air, en France, furent très intéressés par

l’introduction de ce type de radar sur les chasseurs français.

C’est le Mirage 2000 qui accueillit le premier radar doppler à

impulsion RDI. Commandé en 1976, Il était prévu d’en équi-

per les Mirages dans les années 80.

Les antennes à balayage électroniqueClassiquement les antennes radar des chasseurs étaient

constituées d’un réseau d’éléments rayonnants qui, selon les

qualités mécaniques de la structure, assuraient un diagramme

de rayonnement dont la direction dépendait du déphasage

relatif entre les éléments et de la direction du plateau mobile

actionné par des servomécanismes (figure 1). C’est la raison

pour laquelle on les appelle des antennes à réseaux pha-

sés. Ces antennes ont connu une grande longévité ; elles ont

équipé et équipent encore plusieurs générations de chas-

seurs parmi lesquels figurent les Mirages français, les F-16 de

première génération, les F-15, les Tornados anglais, les Mig

russes et quelques autres. Il faut rappeler que ces antennes

réseaux existent depuis la deuxième guerre mondiale avec

les grands radars de défense aérienne allemands. S’il était

possible de changer le déphasage obtenu par construction, le

faisceau pouvait changer de direction. Ce cas s’est rencontré

dans certains radars allemands dans lesquels la commande

du déphasage était manuelle (par un levier). Ainsi, sans

modifier la position de l’antenne, il était possible de chan-

ger la direction du faisceau. Par la suite les commandes de

déphasage sont devenues électroniques ce qui conférait au

faisceau des caractéristiques de mobilité nouvelles qu’on a

appelé agilité du faisceau.

Il existe deux grands types d’antennes à balayage électro-

nique que nous allons détailler.

Les antennes électroniques passives : PESA

Ces antennes réseaux sont constituées par des éléments

rayonnants dont la commande de déphasage s’effectue

de manière électronique. L’ensemble des commandes de

déphasage, calculées par un pointeur, oriente le faisceau

dans la direction désirée. Cette commande ne requiert pas

de puissance et elle est donc économe en consommation

comme tout circuit d’électronique de commande. L’avantage

du balayage électronique est de pouvoir pointer le faisceau

dans n’importe quelle direction de manière quasi-instanta-

née sans avoir à positionner une lourde antenne par des

servomécanismes. Le gain en temps de réponse est immé-

diat et permet alors d’envisager des fonctions de détection

simultanée qui n’étaient pas envisageables auparavant avec

une antenne mécanique. L’émetteur du radar est unique et

peut même être hérité d’une version précédente à balayage

mécanique.

Cette solution présente cependant quelques inconvé-

nients importants. En effet le passage de l’émission à travers

les éléments déphaseurs entraine des pertes de puissance

à l’émission qui sont directement préjudiciables à la portée

du radar. La qualité des déphaseurs et des modules passifs a

donc représenté un défi technologique pour le passage aux

antennes à balayage électronique. Plusieurs radars de pointe

avant ont été développés avec ce type d’antenne. C’est le

cas par exemple des premiers RBE2 du Rafale (figure 2) du

Rafale mais aussi de beaucoup de radars russes (figure 3).

Les Américains sauteront ce palier pour passer directement à

Figure 2 : Configuration d’antenne passive du RBE2 avec des lentilles sur les deux axes.

Figure 3 : Configuration d’antenne passive avec déphaseurs à ferrite – Cas des radars passifs russes.

REE N°1/2016 � 109

L’introduction des antennes actives dans les chasseurs

l’antenne active, nous y reviendrons plus loin. Le passage par

cette technologie avait cependant l’avantage, dans l’optique

d‘une phase intermédiaire, de développer un dispositif de

pointage réutilisable lors du passage à une antenne active.

Les antennes électroniques actives AESA

Le stade suivant les PESA, dans une optique de progrès

technologique, correspond au stade ultime de numérisation

du radar. En effet, les antennes électroniques actives (AESA)

font disparaitre l’émetteur unique pour le discrétiser dans ce

qu’on appelle des modules T/R (pour transmission/ récep-

tion). Le réseau phasé devient lui-même son propre émet-

teur réparti dans les centaines voire les milliers de modules

de l’antenne (figure 4). L’amélioration la plus évidente réside

dans le fait que les pertes en émission par les déphaseurs

de l’antenne passive n’existent plus. Il y donc un gain en

puissance mais qui dépend évidemment de la puissance de

chaque module. Chacun d’eux peut être considéré comme

un mini-radar comportant un émetteur, un récepteur et un

circulateur, sorte d’aiguillage qui ferme le récepteur quand il y

a émission. Nous savons depuis les débuts des radars aéro-

portés que pour embarquer des antennes de taille raison-

nable dans une pointe avant il faut une fréquence d’émission

élevée qui est généralement, pour les radars dont nous par-

lons, de l’ordre de 10 GHz (longueur d’onde de 3 cm), autre-

ment appelée bande X. Les émetteurs de puissance à cette

fréquence utilisent des tubes spéciaux comme le magnétron,

le klystron ou encore les tubes à ondes progressives. La puis-

sance demandée à un module actif était moindre que celle

d’un émetteur unique mais demeurait cependant élevée et

le recours à des fréquences de l’ordre d’une dizaine de GHz

nécessitait des composants hyperfréquences nouveaux par

rapport aux transistors de puissance au silicium classiques.

Corrélativement, ces contraintes augmentaient de manière

considérable le coût de développement et surtout de pro-

duction des modules actifs. La miniaturisation et sa consé-

quence le conditionnement thermique posaient un défi

technologique et industriel qui était encore plus accentué

quand le radar était destiné à être embarqué à bord d’un

chasseur. En conséquence les radars aéroportés de pointe

avant seront les derniers à passer d’une antenne classique ou

passive à l’antenne active, au terme d’un très gros effort de

développement technologique et industriel.

Développement des modules actifsLes premiers développements exploratoires furent améri-

cains et lancés dans les années 60. L’US Air Force commanda

à la firme Texas deux maquettes d’antennes actives appe-

lée MERA (Molecular Electronic Radar Application) et RASSR

(Reliable Advanced Solid-State Radar). Ces maquettes étaient

constituées respectivement de 604 et 1 648 modules actifs.

Les premiers résultats de cette étude conclurent que les com-

posants de l’époque ne permettaient pas d’obtenir les puis-

sances nécessaires à un radar de pointe avant. Il fallut donc

définir une nouvelle filière de composants microélectroniques

hybrides qui furent développés en technologie de semi-

conducteurs AsGa (arséniure de gallium). Le coût de cette

technologie s’avérant vite très élevé, les Américains décidèrent

en conséquence de lancer un grand programme de dévelop-

pement technologique des semi-conducteurs hybrides en

AsGa.

Le plan MIMIC

A partir des années 1980, les Etats-Unis, par le canal de

la DARPA (leur organisme de recherche fédéral), financèrent

les industriels du radar tels Hughes Electronics et Texas

Instruments afin de développer et de maîtriser la technolo-

gie des circuits intégrés en hyperfréquence basée sur l’arsé-

niure de gallium. Dès la fin des années 80, la DARPA lança le

programme MIMIC (Microwave/Millimeter-wave Monolithic

Integrated Circuits) qui se déclinait en trois phases pour une

enveloppe globale de 500 MUSD. De nombreux industriels

reçurent des contrats pour des recherches qui devaient très

largement irriguer les développements des radars à antennes

actives du F-22, F/A-18, F-15, F-16 et JSF. Certains industriels

valoriseront également ces recherches dans le domaine civil.

Ce plan permit d’élaborer une stratégie de production

flexible associée à une baisse de coûts liée à une production

massive et une standardisation des architectures. Peu à peu,

la puissance des circuits et leur rendement augmentèrent per-

mettant aux antennes actives aéroportées de concurrencer

Figure 4 : Configuration d’antenne active à une voie de réception. Cas du RBE2 et des radars US qui peuvent comporter plus

de 1 000 modules. Le nombre de modules est en général secret.

l’antenne active, nous y reviendrons plus loin. Le passage par

cette technologie avait cependant l’avantage, dans l’optique

d‘une phase intermédiaire, de développer un dispositif de

pointage réutilisable lors du passage à une antenne active.

Les antennes électroniques actives AESA

Le stade suivant les PESA, dans une optique de progrès

technologique, correspond au stade ultime de numérisation

du radar. En effet, les antennes électroniques actives (AESA)

font disparaitre l’émetteur unique pour le discrétiser dans ce

qu’on appelle des modules T/R (pour transmission/ récep-

tion). Le réseau phasé devient lui-même son propre émet-

teur réparti dans les centaines voire les milliers de modules

de l’antenne (figure 4). L’amélioration la plus évidente réside

dans le fait que les pertes en émission par les déphaseurs

de l’antenne passive n’existent plus. Il y donc un gain en

puissance mais qui dépend évidemment de la puissance de

chaque module. Chacun d’eux peut être considéré comme

un mini-radar comportant un émetteur, un récepteur et un

circulateur, sorte d’aiguillage qui ferme le récepteur quand il y

a émission. Nous savons depuis les débuts des radars aéro-

portés que pour embarquer des antennes de taille raison-

nable dans une pointe avant il faut une fréquence d’émission

élevée qui est généralement, pour les radars dont nous par-

lons, de l’ordre de 10 GHz (longueur d’onde de 3 cm), autre-

ment appelée bande X. Les émetteurs de puissance à cette

fréquence utilisent des tubes spéciaux comme le magnétron,

le klystron ou encore les tubes à ondes progressives. La puis-

sance demandée à un module actif était moindre que celle

d’un émetteur unique mais demeurait cependant élevée et

le recours à des fréquences de l’ordre d’une dizaine de GHz

nécessitait des composants hyperfréquences nouveaux par

rapport aux transistors de puissance au silicium classiques.

Corrélativement, ces contraintes augmentaient de manière

considérable le coût de développement et surtout de pro-

duction des modules actifs. La miniaturisation et sa consé-

quence le conditionnement thermique posaient un défi

technologique et industriel qui était encore plus accentué

quand le radar était destiné à être embarqué à bord d’un

chasseur. En conséquence les radars aéroportés de pointe

avant seront les derniers à passer d’une antenne classique ou

passive à l’antenne active, au terme d’un très gros effort de

développement technologique et industriel.

Développement des modules actifsLes premiers développements exploratoires furent améri-

cains et lancés dans les années 60. L’US Air Force commanda

à la firme Texas deux maquettes d’antennes actives appe-

lée MERA (Molecular Electronic Radar Application) et RASSR

(Reliable Advanced Solid-State Radar). Ces maquettes étaient

constituées respectivement de 604 et 1 648 modules actifs.

Les premiers résultats de cette étude conclurent que les com-

posants de l’époque ne permettaient pas d’obtenir les puis-

sances nécessaires à un radar de pointe avant. Il fallut donc

définir une nouvelle filière de composants microélectroniques

hybrides qui furent développés en technologie de semi-

conducteurs AsGa (arséniure de gallium). Le coût de cette

technologie s’avérant vite très élevé, les Américains décidèrent

en conséquence de lancer un grand programme de dévelop-

pement technologique des semi-conducteurs hybrides en

AsGa.

Le plan MIMIC

A partir des années 1980, les Etats-Unis, par le canal de

la DARPA (leur organisme de recherche fédéral), financèrent

les industriels du radar tels Hughes Electronics et Texas

Instruments afin de développer et de maîtriser la technolo-

gie des circuits intégrés en hyperfréquence basée sur l’arsé-

niure de gallium. Dès la fin des années 80, la DARPA lança le

programme MIMIC (Microwave/Millimeter-wave Monolithic

Integrated Circuits) qui se déclinait en trois phases pour une

enveloppe globale de 500 MUSD. De nombreux industriels

reçurent des contrats pour des recherches qui devaient très

largement irriguer les développements des radars à antennes

actives du F-22, F/A-18, F-15, F-16 et JSF. Certains industriels

valoriseront également ces recherches dans le domaine civil.

Ce plan permit d’élaborer une stratégie de production

flexible associée à une baisse de coûts liée à une production

massive et une standardisation des architectures. Peu à peu,

la puissance des circuits et leur rendement augmentèrent per-rr

mettant aux antennes actives aéroportées de concurrencer

Figure 4 : Configuration d’antenne active à une voie de réception. Cas du RBE2 et des radars US qui peuvent comporter plus

de 1 000 modules. Le nombre de modules est en général secret.

REE N°1/2016 � 115

ENSEIGNEMENT & RECHERCHE

REE : Pierre Giorgini, vous avez publié il y a plus d’un an un ouvrage remarqué, La transition fulgurante1, qui vous a valu récemment le Prix MERI décerné par l’espace éthique des en-treprises de santé ; vous y abordez la rapide transformation affectant le monde contemporain, à un point tel qu’on peut globalement la qualifier d’anthropologique. Quelles en sont, à vos yeux, les effets essentiels en matière d’enseignement supérieur et de formation ?Pierre Giorgini : Ce sujet est immensément vaste. Je crois avoir montré, dans La Transition Fulgurante, que la rupture que nous vi-vons est d’ordre épistémologique et que la création de valeur au sens global, c’est-à-dire intégrant toutes les dimensions de la notion de progrès (environnemental, social et humain), se niche de plus en plus au cœur des rencontres improbables, y compris disciplinaires.

Pour moi, l’arbre de la connaissance s’est enfoncé loin dans la terre du mystère de la vie, tel un rhizome de racines alimentant l’expérience sensible et concrète des hommes. Le réductionnisme disciplinaire nous donne l’illusion parfois, que l’extrémité d’une seule racine alimente l’arbre ou, pire, modélise le système global. Mais quiconque est dans l’expérience sensible voit que l’arbre meurt car il est incapable de se régénérer et comprend qu’il faut le réinventer pour faire face à la nouvelle donne sociale, économique et surtout environnementale.

Comment faire remonter l’ensemble de nos forces à la jonction de l’économie et de la philosophie, des sciences et de l’éthique, de la spiritualité et de l’innovation techno-scientifique sans courir le risque d’un retour à des formes d’obscurantisme ? Notre défi est d’ordre épistémologique, si nous voulons sortir du syndrome de l’île de Pâques et cesser de tuer définitivement nos sources de vie, pour vénérer les nouveaux dieux de l’hédonisme généralisé et de la science réduite à son objet.

Un défi épistémologique !

Or les universités continuent de s’écarter des voies créatrices de valeur globale émergeant de l’interdisciplinarité ; la logique discipli-naire est en effet très puissante, presque inscrite dans l’ADN univer-sitaire et stimulée par la chasse aux classements internationaux. Elles risquent alors de ne plus pouvoir jouer, dans les sociétés évoluées, leur rôle séculaire : la recherche désintéressée du vrai et du bien, en aidant à penser le monde. Alors, où se fera cette recherche ? Cette remise en cause risque d’être fulgurante car simultanément l’inter-net transforme son cœur de métier, par exemple avec l’arrivée des MOOC et des SPOC : l’unité de lieu et de temps, pour l’acquisition

1 Pierre Giorgini. La transition fulgurante - Vers un bouleversement systé-mique du monde ? Editions Bayard 2014 408 p. 18,90 �.

des savoirs formels (instruction) et leur transformation en compé-tences, savoir-faire et savoir-être (éducation) n’est plus nécessaire ! Cela impose à l’Université, pour continuer à créer de la valeur ajou-tée, de se transformer rapidement, avec une approche coopérative et maillée, en écosystèmes apprenants, offrant des univers ouverts de partage des savoirs, de réalisation de projets multidisciplinaires, ouverts sur leur territoire et le monde global.

Mais quel bouleversement pour les enseignants-chercheurs et pour l’organisation pédagogique et physique de l’institution ! La question n’est plus seulement « Comment transmettre ? » avec les nouveaux médias ou outils intelligents en réseau, mais « Que trans-mettre ? » pour former à la « liberté responsable », qui est l’apti-tude à penser par soi-même et en interdépendance, de le faire en conscience et en liberté de conscience ; comment donner à chacun les moyens de repérer toutes les formes d’aliénation et de domina-tion, sociales, culturelles et politiques ?

REE : Vous venez de récidiver et, avec La fulgurante recréation2, vous complétez votre réflexion en évoquant et en précisant quelles sont les voies possibles des initiatives indispensables pour répondre aux défis sociétaux ; vous insistez à juste titre sur l’importance des réseaux et de la co-création pour réen-chanter le monde…P. G. : Je tente de montrer dans mes deux ouvrages, que nous sommes au cœur d’une époque incroyable, où tout est possible pour le pire comme pour le meilleur. Mais la rupture est telle que même les mots d’hier, dans leur passage du signifiant au signifié, sont en panne : ils ne font plus sens car le monde de demain ne peut être pensé avec les modèles et les cadres de référence du monde d’hier.

Alors, seule la mise en conférence « chemin faisant » des signifiés, des points de vue moraux, de toutes les parties prenantes, peut nous donner une chance de reconstruire un sens commun, une his-toire commune, une éthique commune. Mais la rupture est telle que seule la fable ou le rêve peuvent l’esquisser et le stimuler.

REE : Mais, pour vous, que disent de l’Université ce rêve et cette fable ?P. G. : Je crois effectivement qu’il faut que partout les universités re-deviennent de véritables laboratoires de la « recréation du monde ». Dans mon rêve, elles sont évidemment « zéro carbone » ; mais surtout elles offrent aux étudiants, quels que soient leur niveau et leur âge, un environnement de créativité permanente, où chacun peut expérimenter sur le campus de nouvelles techniques, de nou-velles postures sociales, économiques, spirituelles, pour inventer le

2 Pierre Giorgini avec Nicolas Vaillant. La fulgurante recréation Préface d’Erik Orsenna de l’Académie française Editions Bayard Janvier 2016 334 p. 16,90 �.

De fulgurantes innovations à Lille ?Entretien avec Pierre Giorgini

Président-recteur de l’Université catholique de Lille (UCL)

116 ��REE N°1/2016

ENSEIGNEMENT & RECHERCHE

nouveau monde. Devenues des socialshops, où cohabitent chercheurs en technosciences comme en sciences humaines, étu-diants, acteurs économiques et sociaux, elles deviennent des es-paces de création, d’expérimentation et d’observation scientifique des initiatives, qui sont analysées, capitalisées dans une recherche-action transdisciplinaire (anthropologie expérimentale par exemple).

Des ateliers, des fablabs, des Tech’shops, sont ouverts aux étu-diants, mais aussi à quiconque, ayant idée, talent ou envie d’ap-prendre, de fabriquer, de créer une activité (entreprise, association, communauté…). Ils sont équipés des machines les plus sophisti-quées (imprimantes 3D, découpe laser, etc.), les plus traditionnelles (tour à bois, machines à coudre, à broder, à polir…), mais aussi les plus simples (broyeurs de matériaux, de récupération pour car-touches 3D, récupération du bois, plastique…) Ils mettent égale-ment à disposition des utilisateurs équipements microélectroniques et informatiques, instruments de musique, d’enregistrement, de pro-duction audiovisuelle, de création artistique, de synthèse 3D… Des incubateurs de création (entreprises, associations, start-up, entrepre-nariat, etc.) sont installés à proximité.

L’Université devient une véritable ruche, une agora des rencontres improbables. Des panels étudiants/professeurs, animés en réseau, prennent, après débats contradictoires, les décisions les plus structu-rantes sur l’avenir, l’équipement et le fonctionnement de l’institution.

REE : Mais avant l’Université, il y a l’École. Comment celle-ci peut-elle préparer à cette fable ?P. G. : Dans mon rêve, l’École s’est également profondément réfor-mée. Elle a basé son développement et sa pédagogie sur les quatre principes fondateurs de la recréation définis dans La Fulgurante recréation, à savoir l’altérité, la résilience, la ré-inventivité, en ayant revisité son espace de reliance.

Elle est devenue une école de la reliance, c’est-à-dire une école de la connexion qui fait sens et système (voir les travaux de Marcel Bolle de Bal et d’Edgar Morin), une école de la connexion finalisée, qui induit une appartenance signifiante à des réseaux, des commu-nautés de destin, des associations, des sociétés formelles (territoire, état, continent, planète), en mettant en évidence à chaque fois les liens de coresponsabilité, car nos comportements portent une part de responsabilité universelle ; cela consiste à apprendre, non plus par une entrée disciplinaire, mais essentiellement en analysant l’espace de reliance temporelle (histoire, philosophie, économie, sociologie, art…), physique (géographie, géopolitique, économie...) et virtuelle (communautés thématiques, co-créatives...) pour tout projet, sujet ou objet prétexte à l’étude ou à l’action collective. Une pédagogie inversée par problème est généralisée et sert de fil rouge à une reconstruction disciplinaire plus linéaire.

Quatre principes pour recréer l’école !

Très tôt, les apprenants utilisent les ressources média (internet, MOOC, SPOC…) pour acquérir les savoirs nécessaires et les sociali-ser au sein de l’école en leur donnant du sens au travers des groupes apprenants. Les corpus disciplinaires sont ensuite reconstruits a pos-

teriori avec les compléments théoriques supplémentaires néces-saires pour « charpenter la discipline ». Les situations d’apprentissage à partir de situations réelles sont privilégiées. Les acteurs locaux, tels que mairies, services de l’État (police, justice), entreprises, associa-tions, etc., sont fortement impliquées.

L’école est devenue une école de la résilience où s’apprennent la frustration, la patience et le manque assumé, la lenteur de l’accom-plissement d’un désir, le regard positif sur les fragilités et les handi-caps. Des situations difficiles, réelles ou simulées, sont identifiées. Grâce aux nouvelles technologies, des pédagogies d’apprentissage basées sur des temps longs d’investigation, de recherche, d’élabora-tion de solutions en co-création, sont mises en place. Les créations artistiques ou sportives qui demandent souvent des efforts longs et frustrants sont privilégiées ; une vraie éducation à la consommation responsable, mettant chacun en situation d’évaluer les conséquences globales de ses choix. L’école devient celle de la pensée globale.

Une école de l’altérité est née, où chacun apprend à reconnaître et entrer en relation avec l’autre, différent sur le plan culturel et reli-gieux, et à définir avec lui, avec eux, les termes de la modération réci-proque permettant un vivre ensemble. Des pédagogies inversées centrées sur l’analyse des tensions internes à la classe, aux commu-nautés, à partir de disciplines telles que la philosophie, l’histoire, la géopolitique, l’art, permettent de comprendre et d’expérimenter en quoi l’altérité, c’est-à-dire le caractère de ce qui est autre, constitue le cœur de la montée en humanité de chacun.

Enfin une école de la réinventivité, de l’émergence co-créative, est en place. L’école devient très tôt dans la scolarité un écosystème, siège de rencontres improbables, favorisant l’émergence co-créative de solutions, de projets, de résolution de problèmes réels ou simu-lés. Les apprenants sont mis en situation de ré-instituer totalement ou partiellement leurs modes collectifs d’apprentissage et de vie dans l’école. Des groupes tirés au sort deviennent délibératifs sur des sujets de vie de l’école ou de société, à condition d’accepter de travailler leur « capacité démocratique » sur le sujet concerné (wiki-démocratie interne). Cela consiste à réactiver de façon plus volon-tariste la pédagogie institutionnelle, mettant chaque apprenant en situation de réinstituer (choix d’organisation, édition des règles…) les coopérations au sein de l’école en vue des apprentissages. Il s’agit progressivement de sortir l’apprenant du centre du système péda-gogique pour l’ériger comme partenaire à part entière du système centré sur ses apprentissages.

REE : Pour élaborer vos deux ouvrages, vous avez mis en pra-tique une méthode très originale en associant vos collègues des diverses sciences humaines : vous leur donnez la parole pour qu’ils critiquent et mettent en questions vos propres convictions ! Pouvez-vous préciser la richesse, et peut être aus-si les limites, de cette méthode qui renouvelle la maïeutique ?P. G. : Dans La fulgurante recréation, j’ai intitulé un chapitre « Tous facteur Cheval », destiné à faire sentir la rupture épistémologique dans laquelle nous sommes, dans les formes même de construc-tion des savoirs. Le célèbre facteur de Hauterives et son Palais idéal m’est très souvent apparu comme emblématique d’une approche

REE N°1/2016 � 117

ENSEIGNEMENT & RECHERCHE

originale, simple et riche à la fois ; remarquons tout d’abord com-bien la part du rêve et de la continuité est essentielle dans son action quotidienne et inscrite dans la durée : son palais, il a dû l’ima-giner à partir de photos et dessins, des cartes postales, d’images de magazines, mélange de fantasmes et de peurs mais aussi d’émer-veillement et de calcul. Il l’a imaginé mais ne l’a pas construit tel qu’il l’a imaginé ; il l’a fait en l’imaginant et l’a imaginé en le faisant ; il l’a calculé en le faisant et l’a fait parce qu’il l’a calculé…

La combinaison d’un sens qui précède chaque étape de la réalisa-tion, avec le sens renouvelé, altéré par le cheminement de la pensée de l’auteur, faite d’imagination, de mémoire et de rationalité, apparaît lors de la simple visite du palais. La construction s’est faite avec des pierres à la fois glanées au hasard et choisies, mais dans l’ignorance précise de leur rôle futur. C’est cette interaction, ce « faire en mar-chant », cette façon de penser l’œuvre globale en mouvement, en enrichissant à la fois la réalisation et l’étape suivante projetée dans l’imaginaire, qui me fascinent et me donnent l’image de notre huma-nité en construction permanente. Comme celle du modeste facteur drômois, ma pensée vivante est au cœur d’une interaction à la fois créative et rationnelle entre le vécu, le réalisé, l’imaginé et le projeté dans une circularité vivante et enthousiasmante.

Notre monde moderne nous pousse et en même temps il at-tend de nous que nous soyons tous des facteurs Cheval, avec cette capacité de monter en conscience à propos de ce « château d’huma-nité» que nous construisons tous dans le jardin de l’univers, dans une co-élaboration spatiale et temporelle sans limite. Nos cailloux sont la connaissance, notre tournée est notre chemin d’humanité, nos usagers sont nos rencontres, nos cartes postales sont ce que ces rencontres nous permettent d’apprendre et de rêver. L’humanité, c’est cet édifice en construction permanente mais qui ne détruit jamais complètement la forme qui le précède. Ceux qui façonnent l’huma-nité, façonnent en même temps les communautés qui la construisent et les communautés bâtissantes trouvent leur unité dans l’intercom-préhension qu’ont leurs membres de ce qu’ils sont en train de réali-

ser, de la place et du rôle, que chacun a ou souhaite avoir. Alors cette intercompréhension – cette reliance – peut permettre de surmonter les agressions, les effondrements partiels de l’édifice, les accidents de chantiers, les conflits d’intérêt, par la résilience, par l’émergence créative et la ré-inventivité permanente des modes de coopération se nichant au cœur de la relation à ce qui est autre que moi, l’altérité.

Porteur de telles convictions, comment aurais-je pu écrire La fulgurante recréation comme une thèse à développer, comme une argumentation visant à légitimer une hypothèse ? Je pense que l’avenir sera dialectique ou ne sera pas et les prédicats même des théories peuvent être remis en cause. Nous entrons dans l’univers de la complexité et de l’incertitude. Le doute devient, encore plus qu’avant, ferment d’une pensée qui se construit en marchant, mais sans oublier ce qui la fonde et en restant ouverte à la mise en réseau, à la confrontation à d’autres cadres de références, à d’autres disci-plines. Au moment où le fil des grandes lignées disciplinaires est en partie rompu, comment se préserver du retour des obscurantismes cachés derrière un savoir apparent ou une ignorance dissimulée ? En osant l’imposture, mais en acceptant simultanément de la livrer à une mise en conférence contradictoire avec les disciplines basées sur la science !

REE : Depuis bientôt un siècle et demi qu’elle existe, l’UCL comporte diverses composantes, notamment santé, droit, techniques et sciences humaines ; quelles sont les ambitions collectives de l’ensemble de l’UCL et comment articuler la coo-pération interne ?P. G. : L’encyclique du Pape « Laudato si’3 » qui concerne la préser-vation de la maison commune nous offre, comme sur un plateau, la réponse à la question du sens global de l’action de l’UCL, dans des domaines qui paraissent éloignés mais qui pourtant constituent notre

3 NDLR : Le lecteur pourra se référer, à propos de l’encyclique Laudato si’, aux Libres propos de Gilles Bellec parus dans le numéro 2015-5 de la REE.

Figure 1 : Université catholique de Lille (UCL) : les étudiants accueillis dans un édifice néo-classique bien conforme à la tradition des Flandres.

originale, simple et riche à la fois ; remarquons tout d’abord com-bien la part du rêve et de la continuité est essentielle dans son action quotidienne et inscrite dans la durée : son palais, il a dû l’ima-giner à partir de photos et dessins, des cartes postales, d’images demagazines, mélange de fantasmes et de peurs mais aussi d’émer-rrveillement et de calcul. Il l’a imaginé mais ne l’a pas construit tel qu’ill’a imaginé ; il l’a fait en l’imaginant et l’a imaginé en le faisant ; il l’acalculé en le faisant et l’a fait parce qu’il l’a calculé…

La combinaison d’un sens qui précède chaque étape de la réalisa-tion, avec le sens renouvelé, altéré par le cheminement de la penséede l’auteur, faite d’imagination, de mémoire et de rationalité, apparaîtlors de la simple visite du palais. La construction s’est faite avec despierres à la fois glanées au hasard et choisies, mais dans l’ignoranceprécise de leur rôle futur. C’est cette interaction, ce « faire en mar-rrchant », cette façon de penser l’œuvre globale en mouvement, en enrichissant à la fois la réalisation et l’étape suivante projetée dans l’imaginaire, qui me fascinent et me donnent l’image de notre huma-nité en construction permanente. Comme celle du modeste facteur drômois, ma pensée vivante est au cœur d’une interaction à la foiscréative et rationnelle entre le vécu, le réalisé, l’imaginé et le projetédans une circularité vivante et enthousiasmante.

Notre monde moderne nous pousse et en même temps il at-tttend de nous que nous soyons tous des facteurs Cheval, avec cettecapacité de monter en conscience à propos de ce « château d’huma-nité» que nous construisons tous dans le jardin de l’univers, dansune co-élaboration spatiale et temporelle sans limite. Nos caillouxsont la connaissance, notre tournée est notre chemin d’humanité, nos usagers sont nos rencontres, nos cartes postales sont ce que ces rencontres nous permettent d’apprendre et de rêver. L’humanité, c’estcet édifice en construction permanente mais qui ne détruit jamaiscomplètement la forme qui le précède. Ceux qui façonnent l’huma-nité, façonnent en même temps les communautés qui la construisent et les communautés bâtissantes trouvent leur unité dans l’intercom-préhension qu’ont leurs membres de ce qu’ils sont en train de réali-

ser, de la place et du rôle, que chacun a ou souhaite avoir. Alors cette intercompréhension – cette reliance – peut permettre de surmonter les agressions, les effondrements partiels de l’édifice, les accidents de chantiers, les conflits d’intérêt, par la résilience, par l’émergence créative et la ré-inventivité permanente des modes de coopération se nichant au cœur de la relation à ce qui est autre que moi, l’altérité.

Porteur de telles convictions, comment aurais-je pu écrire Lafulgurante recréation comme une thèse à développer, comme une argumentation visant à légitimer une hypothèse ? Je pense quel’avenir sera dialectique ou ne sera pas et les prédicats même des théories peuvent être remis en cause. Nous entrons dans l’univers de la complexité et de l’incertitude. Le doute devient, encore plusqu’avant, ferment d’une pensée qui se construit en marchant, mais sans oublier ce qui la fonde et en restant ouverte à la mise en réseau,à la confrontation à d’autres cadres de références, à d’autres disci-plines. Au moment où le fil des grandes lignées disciplinaires est en partie rompu, comment se préserver du retour des obscurantismes cachés derrière un savoir apparent ou une ignorance dissimulée ?En osant l’imposture, mais en acceptant simultanément de la livrer à une mise en conférence contradictoire avec les disciplines basées sur la science !

REE : Depuis bientôt un siècle et demi qu’elle existe, l’UCL comporte diverses composantes, notamment santé, droit, techniques et sciences humaines ; quelles sont les ambitions collectives de l’ensemble de l’UCL et comment articuler la coo-pération interne ?P. G. : L’encyclique du Pape « Laudato si’3 » qui concerne la préser-rrvation de la maison commune nous offre, comme sur un plateau, la réponse à la question du sens global de l’action de l’UCL, dans des domaines qui paraissent éloignés mais qui pourtant constituent notre

3 NDLR : Le lecteur pourra se référer, à propos de l’encyclique Laudato si’, aux Libres propos de Gilles Bellec parus dans le numéro 2015-5 de la REE.

Figure 1 : Université catholique de Lille (UCL) : les étudiants accueillis dans un édifice néo-classique bien conforme à la tradition des Flandres.

REE N°1/2016 � 125

Il y a quelque témérité

à choisir pour cette

ultime chronique un

titre qui s’inspire d’un

ouvrage qui eut son

heure de célébrité et

que l’on devrait relire :

oserai-je avouer que j’ai entendu parler d’Auguste

Detœuf depuis longtemps, bien avant de suivre

– scolairement – sa voie : enfant, j’allais souvent

en famille dans un village du Valois, qui a depuis

grandi à l’ombre de Roissy. Mon oncle y était à

la fois directeur d’école et secrétaire de mairie ;

grâce à lui j’ai connu deux célébrités locales : le

père Baptiste, maire de la commune, qui me par-rr

la un jour de Jaurès qu’il allait écouter autrefois

quand il militait au syndicat des cochers CGT, et

puis le frère d’Auguste, qui tenait la plus grande

ferme du pays et de qui j’ai compris, il y a plus

de 65 ans, ce que pouvait être, à l’opposé de la

ruralité bocagère, la grande exploitation agricole.

J’ai depuis appris qui était Auguste Detœuf,

polytechnicien (promo 1902), ingénieur général

des ponts et chaussées, artisan de la création

d’Alsthom (1928) et premier président de la

société de 1928 à 1940 : à ce titre, il a été pro-

bablement membre de la SEE et aurait pu tenir,

assurément, la chronique que depuis quelques tt

années je m’efforce d’assurer. Les propos d’O.L.

Barenton, confiseur11 constituent en effet un

ensemble de textes dont beaucoup font pen-

ser à La Bruyère… et certains sont dignes de

Christophe et de son savant Cosinus ! Les pen-

sées, sentences et aphorismes y sont nombreux

et, ensemble, constituent un véritable traité

managérial : on y apprend par exemple, que

réfléchir c’est r attendre quelques jours avant de

ne pas changer d’avis ou encore que consulter

est une façon respectueuse de demander à

quelqu’un d’être de votre avis.

Depuis fort longtemps, je peine devant une

feuille blanche et depuis plus d’un demi-siècle

j’admire le talent de ceux qui régulièrement

savent faire court et original ; le modèle du billet-

tiste restera pour moi Robert Escarpit qui, chaque

après-midi, quelles que fussent les circonstances

de la vie, dictait par téléphone ce qui allait mettre

de l’humour dans la « une » du Monde, alors fort

austère. En acceptant de tenir une « Chronique »

1 Auguste Detoeuf « Propos d'O.L. Barenton, confi-fifiseur » - Editions d'organisation nov. 1982 (230 p. r27,50 �).�

régulière dans REE, en plus d’autres rubriques, j’ai

voulu me prouver à moi-même, la retraite venue

et disposant de temps, qu’écrire est un exercice

à la fois salutaire et abordable.

Je voulais aussi (essayer de) lutter contre

une tendance à l’aboulie et à la procrastination,

sans doute innée, mais que l’âge a tendance à

renforcer. Mais par prudence, j’ai accepté de tenir

dans REE des rubriques qui s’autoalimentent :

avec « Vient de paraître » et les « Echos de l’ensei-

gnement supérieur et de la recherche », on est

assuré que l’actualité viendra sans trêve alimen-

ter l’inspiration, fût-ce au prix de faits divers…

Mais, avec mes débuts journalistiques, j’avais

l’ambition de faire mieux que les échotiers de

la PQR (Presse Quotidienne Régionale) et je

me suis astreint à un travail de documentation,

voire de réflexion, assez chronophage. Il serait

toutefois excessif d’invoquer le temps passé

pour expliquer, a fortiori pour excuser, la façon

extrême dont j’ai parfois respecté les délais fixés

par un comité de rédaction auquel je participe

avec assiduité ! Je persiste à croire, ayant souvent

été le pénultième à fournir ma prose, que j’ai pris

soin de ne jamais entraver ni même retarder la

publication de notre belle revue…

Concernant la « Chronique » elle-même, pour

laquelle l’autonomie et par conséquent l’imagina-

tion sont totales, j’ai pris, dès mon engagement,

le parti-pris d’une formule sécurisante : en choi-

sissant une thématique assez riche pour avoir

inspiré deux auteurs de talents, je tenais un

excellent sujet de chronique !

Je n’en éprouve que plus d’admiration pour

ceux qui régulièrement honorent un rendez-vous

attendu des lecteurs. A propos de la culture scien-

tifique, dont la diffusion me parait essentielle au

sein des sociétés savantes telles que la SEE, qu’il

me soit permis d’affirmer mon admiration pour

ce que font Pierre Barthélémy dans le Monde ou

Jean-Paul Delahaye dans Pour la science...

Parmi mes contributions à la REE, il y a aussi

celles pour lesquelles je n’ai été que l’intermé-

diaire mais qui m’ont donné l’occasion de ren-

contrer des experts ou de correspondre avec eux.

Notre revue sollicite souvent en effet des per-rr

sonnalités trop engagées professionnellement

pour assumer intégralement un article ; alors le

recours à l’interview s’impose, avec des modali-

tés très variées mais qui toujours imposent de

bien connaitre ce que fait et pense votre interlo-

cuteur. Dans tous les cas, la mise en forme finale

impose un travail minutieux associant fidélité à

l’auteur, souci de la langue et respect des règles

typographiques. A cet égard j’avoue, sans glo-

riole mais aussi sans honte, que j’ai très souvent

mérité la satisfaction de mes interlocuteurs et

été fidèle aux enseignements de l’instituteur, qui

m’apprit à respecter l’orthographe et à manier

la langue ; par contre j’ai fait, pour maîtriser la

ponctuation ou mettre à bon escient les majus-

cules, de lents progrès en dépit des amicales et

régulières leçons de notre rédacteur en chef ! Il

m’est même parfois arrivé de me substituer au

signataire, mais la discrétion m’interdit d’en dire

plus et mon aversion du racisme d’imaginer que

j’aurais pu devenir le nègre de qui que ce fût.

Mais comment ne pas mentionner les bien-

faits du travail de chroniqueur, avec la néces-

sité de se documenter et de beaucoup lire, ne

serait-ce que pour lutter contre la tendance à la

sénescence et au vieillissement. Mais l’éloigne-

ment du monde professionnel – déjà 12 ans de

retraite en ce qui me concerne ! – vous prive

insensiblement de sources d’information quoti-

diennes et du dialogue avec vos pairs sans le-

quel il est difficile d’évaluer la pertinence de vos

jugements. Le rythme des découvertes scien-

tifiques comme des évolutions technologiques

– omnia fert aetas ! – et la difficulté à suivre la

recommandation d’Auguste Detœuf à ne jamais

oublier de prévoir l’imprévu, me poussent vers

de nouvelles passions, pour des valeurs moins

fugitives ; la découverte du patrimoine naturel,

historique et architectural de l’Île de France, et

tout spécialement celui de mon Paris natal, va

désormais stimuler mon activité physique et

intellectuelle... �

Bernard Ayrault

En prenant connaissance de

cette « ultime » chronique, digne

des plus grands conteurs, le

comité de rédaction de la REE

a bien du mal à réaliser que ces

lignes marquent le départ de notre ami Bernard

vers de nouvelles passions. Il espère que nos lec-

teurs seront suffisamment nombreux pour lui faire

comprendre que son inspiration n’est pas tarie et

que ses propos sont toujours les bienvenus. Qu’il

soit en tout cas remercié pour l’immense contri-

bution qu’il a apportée au renouveau de la REE. �

Jean-Pierre HauetRédacteur en chef

CHRONIQUE

Propos de B.Ay, chroniqueur

o

h

q

i j j’ i

126 ��REE N°1/2016

LIBRES PROPOS

Gérard Théry Ancien directeur général des télécommunications

L e vaste monde du numérique est pour certain la

planche de salut qui va nous sauver de la crise

que nous vivons.

Alcatel-Lucent est racheté par Nokia. Orange, notre

ancien opérateur historique est attaqué de toutes parts

sur ses métiers traditionnels et peine à se redéployer

sur de nouveaux métiers. Les plus grands acteurs du

numérique affichent des capitalisations considérables,

mais créent de la valeur ajoutée hors de France et hors

d’Europe.

Un constat

Il n’est pas inutile de se placer dans un contexte plus

général. La France enregistre, depuis 35 ans, un quadruple

déclin, économique, industriel, social, technologique.

Déclin économique, dont le signe

majeur est l’endettement, passé de 20 %

du PIB en 1980 à quasiment 100 % en

2015. En quasi équilibre après deux chocs

pétroliers, le budget français affichait voici

peu, un déficit de près de 4 %.

Déclin industriel : la valeur ajoutée

industrielle rapporté au PIB est passée de près de 31 %

en 1980 à moins de 19,4 % en 2014 (sources : Les Échos,

Banque mondiale).

Déclin social : des millions de chômeurs, un niveau

aujourd’hui insupportable.

Déclin technologique : la France se présentait en

1980 avec un avantage technologique indéniable. Un

réseau téléphonique moderne, des technologies de

commutation et de transmission compétitives, fers

de lance de nos exportations, le Minitel et le réseau

Transpac préfigurant les réseaux de consultation futurs,

un projet satellitaire (Télécom 1) et la première ville au

monde câblée en fibre optique, Biarritz, pour tester le

premier service de visiophonie mondial.

En viendrait-on à penser que le général Gamelin,

l’artisan de la débâcle de 1940, a présidé au destin du

pays pendant 35 ans ?

L’interrogation sur le rôle de l’État reste d’actualité.

Il a inspiré jusqu’en 1981, dans sa foi industrialiste, les

plus grandes novations industrielles européennes : le

nucléaire, Ariane, le TGV, Airbus, les Télécoms. Il se

retire dans les années 80, jette son froc aux orties.

À un État inspiré, à qui le reproche fut dit d’être trop

directif et trop puissant, succède un État mollasson,

privé d’inspiration et d’énergie. N’était-il pas possible

d’aborder le nouveau capitalisme et la mondialisation

avec la même lucidité que d’autres pays comme la

Chine, la Corée du sud et un autre pays aussi parfai-

tement libéral que protectionniste et étatique comme

les États-Unis ?

On invoquera, de la part des gouvernants, l’absence

d’une politique économique fondée sur la rigueur qui,

l’Allemagne et d’autres pays européens en ont fait la

démonstration, constitue la clé du développement, de

la prospérité et de la compétitivité.

S’agissant de notre industrie, on discerne une forme

de mépris des classes dirigeantes à l’égard d’activités

réputées sales et polluantes, la financiarisation exces-

sive des comportements des décideurs, la préférence

donnée au revenu de l’actionnaire par rapport au finan-

cement de l’investissement, le choix du

court terme plutôt que du moyen et long

terme… L’intelligence des systèmes poli-

tiques propre à certains pays a manqué :

le retard français est davantage impu-

table à des élites suffisantes et déca-

dentes que le fait de la fatalité.

Les changements structurants des 30 dernières années

Sept changements structurels caractérisent l’évolu-

tion des TIC en 30 ans :

et de mémoire des composants ;

de la communication : l’informatique dès les années

50, les télécoms à partir des années 70, la télévision

beaucoup plus tardivement ;

PC à partir de 1990 ;

le finance ;

du téléphone mobile à partir de 1990 ;

mettant fin à la suprématie des opérateurs historiques ;

à partir de 2000.

Le numérique… Que

de questions !

REE N°1/2016 � 127

LIBRES PROPOS

Autrefois fer de lance de l’ancienne suprématie

technologique française en matière de TIC, l’opéra-

teur historique s’est trouvé marginalisé.

L’État coupable

1998. Le statut de France Télécom est modifié en

vue de l’ouverture du capital et de l’introduction en

bourse. L’entreprise est en sureffectif d’environ 100 000

agents. Aucune mesure sociale de conversion des em-

plois n’est préalablement prise.

Une politique de la concurrence et de la régulation discutable à partir de 2003.

Inspirée en cela des recommandations de Bruxelles,

la politique menée par les autorités françaises chargées

de la régulation et de la concurrence, obéit dès 2003 à

un modèle hyper juridique et despotique dans l’entière

acception du terme. À la tête de ces organismes, de

hauts fonctionnaires, bien abrités derrière leurs bureaux

Louis XV, ignorants de la dure réalité industrielle faite de

conflits, de menaces sur l’emploi, de larmes et de sueur,

d’adaptations douloureuses.

2004. La chasse à l’opérateur historique commence.

France Télécom est contraint de mettre gratuitement à

disposition de nouveaux concurrents son réseau de dis-

tribution pour lancer l’ADSL. Ce réseau a été largement

construit ou rénové de 1975 à 1980, il est quasiment

neuf, il figure à l’actif de l’opérateur et a été évalué à

plusieurs milliards par la Commission de privatisation.

A la suite d’acquisitions hasardeuses, France Télécom

est en quasi dépôt de bilan. L’entreprise est sauvée par

une injection massive de capital venant de l’ERAP et par

le renouvellement de ses dirigeants. Les investissements

en fibre optique, permettant l’accès à des hauts débits

fixes et mobiles, sont oubliés. Leur rentabilité financière

n’est pas jugée suffisante.

Tout est en place pour fabriquer « Grand Corps Malade »

au moment où aux États-Unis, au Japon, en Chine, se

confortent des opérateurs puissants, aux ressources finan-

cières considérables, capables de lancer des investisse-

ments importants. Le prestigieux CNET d’autrefois est ravalé

au rôle de centre d’appui technique subsidiaire d’Orange.

Aujourd’huiLe triomphe du mobile

Le mobile s’impose au détriment du fixe. Le terminal

devient “smart”, il sert autant à s’informer, à réserver,

à jouer, à se distraire, à se faire enregistrer, à payer, à

photographier, à s’exhiber, qu’à téléphoner. Il s’érige en

instrument de communication universel. La plupart des

acteurs industriels et des fournisseurs de service font le

virage sur l’aile de s’adapter presque davantage au termi-

nal mobile qu’au fixe.

Selon le professeur Lionel Nakache, la société hyper-

connectée fonctionne comme le cerveau d’un épilep-

tique. Perte de la perception des différences, appauvris-

sement de la pensée collective, perte de conscience et

perte de l’esprit critique, hallucination et aura épilep-

tique, sensation de bonheur…

Asservis à ces nouveaux usages, nous restons cepen-

dant conscients de nos comportements : aussi multiples

qu’ils soient, ils restent globalement soumis à la pensée,

aux besoins, au doigt et à l’œil. Nous sommes robotisés

avec un reste de cervelle.

Les nouveaux maîtres de l’univers

Naissent et grandissent pendant ces 30 années les

grands monstres américains du logiciel (Microsoft),

du routeur (Cisco), de l’accès multiple (Apple), de la

connaissance (Google), de la communication humaine

(Facebook, Tweeter), de l’accès aux contenus (You

Tube), de l’achat en ligne (Amazon).

Ces hyper puissances disposent d’un pouvoir sans

contre-pouvoir. Leur avance incontestable en matière

d’algorithmes et de gestion du numérique, leur permet

de régner sans partage sur le monde des données infor-

matives, érigeant ainsi une encyclopédie de la satisfac-

tion des besoins, une bibliothèque des bibliothèques

irremplaçable dans la vie professionnelle et personnelle.

D’autres préemptent la vie associative, la communi-

cation sociale, l’hypertrophie de l’égo : « Je me montre

donc je suis, je suis donc je tweete ». Une floraison de

points de vue que reprennent les médias dans leurs

débats : Kevin, Florian, Sibylle, Dylan, Alison, Léonardo,

Nelson, saturent les fréquences. Les médias font leurs

choux gras des blogs, des sites Facebook et des tweets

des hommes politiques. L’avenir du pays, son passé, son

destin, sont absents de ces bavardages.

La plupart de ces monstres américains se sont

construits ex nihilo, financés pendant des années sans

générer le moindre profit, par la seule valorisation du

capital. Leurs actionnaires ont su attendre, leur porte-

feuille a foi dans l’avenir. Sur la rive Est de l’Atlantique,

les grands acteurs européens sont court-termistes

Autrefois fer de lance de l’ancienne suprématie

technologique française en matière de TIC, l’opéra-

teur historique s’est trouvé marginalisé.

L’État coupable

1998. Le statut de France Télécom est modifié en

vue de l’ouverture du capital et de l’introduction en

bourse. L’entreprise est en sureffectif d’environ 100 000

agents. Aucune mesure sociale de conversion des em-

plois n’est préalablement prise.

Une politique de la concurrence et dela régulation discutable à partir de 2003.

Inspirée en cela des recommandations de Bruxelles,

la politique menée par les autorités françaises chargées

de la régulation et de la concurrence, obéit dès 2003 à

un modèle hyper juridique et despotique dans l’entière

acception du terme. À la tête de ces organismes, de

hauts fonctionnaires, bien abrités derrière leurs bureaux

Louis XV, ignorants de la dure réalité industrielle faite de

conflits, de menaces sur l’emploi, de larmes et de sueur,

d’adaptations douloureuses.

2004. La chasse à l’opérateur historique commence.

France Télécom est contraint de mettre gratuitement à

disposition de nouveaux concurrents son réseau de dis-

tribution pour lancer l’ADSL. Ce réseau a été largement

construit ou rénové de 1975 à 1980, il est quasiment

neuf, il figure à l’actif de l’opérateur et a été évalué à

plusieurs milliards par la Commission de privatisation.

A la suite d’acquisitions hasardeuses, France Télécom

est en quasi dépôt de bilan. L’entreprise est sauvée par

une injection massive de capital venant de l’ERAP et par

le renouvellement de ses dirigeants. Les investissements

en fibre optique, permettant l’accès à des hauts débits

fixes et mobiles, sont oubliés. Leur rentabilité financière

n’est pas jugée suffisante.

Tout est en place pour fabriquer « Grand Corps Malade »

au moment où aux États-Unis, au Japon, en Chine, se

confortent des opérateurs puissants, aux ressources finan-

cières considérables, capables de lancer des investisse-

ments importants. Le prestigieux CNET d’autrefois est ravalé

au rôle de centre d’appui technique subsidiaire d’Orange.

Aujourd’huiLe triomphe du mobile

Le mobile s’impose au détriment du fixe. Le terminal

devient “smart”, il sert autant à s’informer, à réserver,

à jouer, à se distraire, à se faire enregistrer, à payer, à

photographier, à s’exhiber, qu’à téléphoner. Il s’érige en

instrument de communication universel. La plupart des

acteurs industriels et des fournisseurs de service font le

virage sur l’aile de s’adapter presque davantage au termi-

nal mobile qu’au fixe.

Selon le professeur Lionel Nakache, la société hyper-rr

connectée fonctionne comme le cerveau d’un épilep-

tique. Perte de la perception des différences, appauvris-

sement de la pensée collective, perte de conscience et

perte de l’esprit critique, hallucination et aura épilep-

tique, sensation de bonheur…

Asservis à ces nouveaux usages, nous restons cepen-

dant conscients de nos comportements : aussi multiples

qu’ils soient, ils restent globalement soumis à la pensée,

aux besoins, au doigt et à l’œil. Nous sommes robotisés

avec un reste de cervelle.

Les nouveaux maîtres de l’univers

Naissent et grandissent pendant ces 30 années les

grands monstres américains du logiciel (Microsoft),

du routeur (Cisco), de l’accès multiple (Apple), de la

connaissance (Google), de la communication humaine

(Facebook, Tweeter), de l’accès aux contenus (You

Tube), de l’achat en ligne (Amazon).

Ces hyper puissances disposent d’un pouvoir sans

contre-pouvoir. Leur avance incontestable en matière

d’algorithmes et de gestion du numérique, leur permet

de régner sans partage sur le monde des données infor-rr

matives, érigeant ainsi une encyclopédie de la satisfac-

tion des besoins, une bibliothèque des bibliothèques

irremplaçable dans la vie professionnelle et personnelle.

D’autres préemptent la vie associative, la communi-

cation sociale, l’hypertrophie de l’égo : « Je me montre

donc je suis, je suis donc je tweete ». Une floraison de

points de vue que reprennent les médias dans leurs

débats : Kevin, Florian, Sibylle, Dylan, Alison, Léonardo,

Nelson, saturent les fréquences. Les médias font leurs

choux gras des blogs, des sites Facebook et des tweets

des hommes politiques. L’avenir du pays, son passé, son

destin, sont absents de ces bavardages.

La plupart de ces monstres américains se sont

construits ex nihilo, financés pendant des années sans

générer le moindre profit, par la seule valorisation du

capital. Leurs actionnaires ont su attendre, leur porte-

feuille a foi dans l’avenir. Sur la rive Est de l’Atlantique,

les grands acteurs européens sont court-termistes

136 ��REE N°1/2016

Impression : Jouve - 53100 Mayenne Dépôt légal : mars 2016

Edition/Administration : SEE - 17, rue de l’Amiral Hamelin - 75783 Paris cedex 16Tél. : 01 5690 3709 - Fax : 01 5690 3719Site Web : www.see.asso.fr

Directeur de la publication :François Gerin

Comité de rédaction : Bernard Ayrault, Alain Brenac,Patrice Collet, André Deschamps, Jean-Pierre Hauet,Jacques Horvilleur, Marc Leconte

Secrétariat de rédaction : Alain Brenac, Aurélie Bazot Tél. : 01 5690 3717

Partenariats Presse & Annonces :Mellyha Bahous - Tél. : 01 5690 3711

Régie publicitaire : FFE - Cyril Monod - Tél. : 01 5336 3787 [email protected]

Promotion et abonnements : 5 numéros : mars, mai, juillet,octobre, décembre. Aurélie Bazot - Tél. : 01 5690 3717 - www.see.asso.fr/reePrix de l’abonnement 2016 :France & UE : 120 � - Etranger (hors UE) : 140 �Tarif spécial adhérent SEE : France & UE : 60 � - Etranger : 70 �Vente au numéro : France & UE : 28 � - Etranger : 30 �

Conception & réalisation graphiqueJC. Malaterre - Tél. : 01 7946 1470

Impression : Jouve - 53100 Mayenne.Siège social : 11 Bd de Sébastopol - 75027 Paris cedex 1Tél. : 01 4476 5440

CPPAP : 1017 G 82069

Copyright : Toute reproduction ou représentation intégrale ou partielle, par quelque procédé que ce soit, des présentes pages publiées faite sans l’autori-sation de l’éditeur, est illicite et constitue une contrefaçon. Toutefois les copiespeuvent être utilisées après autorisation obtenue auprès du CFC - 20 rue des Grands Augustins, 75006 Paris (Tél. : 01 4404 4770) auquel la SEE a donné mandat pour la représenter auprès des utilisateurs (loi du 11 mars 1957, art. 40& 41 et Code Pénal art. 425).

La revue REE est lue par plus de 10 000 ingénieurs et cadres de l’industrie,dirigeants d’entreprises, directeurs des ressources humaines, formateurs...Profitez de ce lectorat ciblé et de qualité pour publier vos annonces (em-plois, stages, manifestations...).

Répertoire des annonceursREE Abonnement 2016 ...................................................................... C 2Schneider Electric ............................................................................. p.3GENERAL CABLE ............................................................................ p.25REE Archives ................................................................................... p.953EI Abonnement 2016 ................................................................... p.114SEE Adhésion 2016 ....................................................................... p.124CIGRÉ .................................................................................................. C3Microwave & RF ................................................................................. C4

Prochains Grands DossiersDossier 1 : L'Afrique et l'électricitéDossier 2 : Avancées sur les câbles électriques :

extraits d'articles issus de JICABLE 2015

Une publication de la

Entre science et vie sociétale,

les éléments du futur

6 CLUBS TECHNIQUES� Automatique, Informatique et Systèmes� Ingénierie des Systèmes d’Information et de Communication� Électronique� Radar, Sonar et Systèmes Radioélectriques� Électrotechnique� Systèmes électriques

12 GROUPES RÉGIONAUX

Conférences nationales et internationales Journées d’études thématiques Conférences-DébatCongrès internationaux, en partenariat ou non, avec d’autressociétés scientifiques

La SEE contribue à l’organisation ������������������ ���������������� ������������ �������������� ���������� et ses Groupes régionaux

Senior et Émerite SEE Prix : Brillouin-Glavieux, Général Ferrié, André Blanc-Lapierre...Médailles : Ampère, Blondel...

La SEE récompense les contributeurs éminents au progrès des sciences et technologies dans ses domaines

Revue de l’Électricité et de l’Électronique (REE) Revue 3EI Monographies Publications électroniques : SEE Actualités

La SEE favorise le partage du savoir, et contribue aux débats sur des problèmes de société en éditant des revues ����� �������� ��������� ��� ������

La SEE fédère un vaste réseau d’experts universitaires et industriels en faveur des ������������� �������� � �������������

La SEE, société savante française fondée en 1883, forte de 3 000 membres, couvre les secteurs de l’Électricité, de l’Électronique et des Technologies de l’Information et de la Communication. Elle a pour vocation

de favoriser et de promouvoir le progrès dans les do-maines : Énergie, Télécom, Signal, Composants, Auto-matique, Informatique.

SOCIÉTÉ DE L’ÉLECTRICITÉ, DE L’ÉLECTRONIQUE ET DES TECHNOLOGIES DE L’INFORMATION ET DE LA COMMUNICATION

d f i t d

17, rue de l’Amiral Hamelin - 75783 Paris cedex 16 Tél. : 01 56 90 37 09/17 - Fax : 01 56 90 37 19

www.see.asso.fr

Vous voulez... Vous abonner à la REE ? Acheter un numéro ? Cliquer ICI Ou bien téléphoner au 01 56 90 37 04