View
214
Download
0
Category
Preview:
DESCRIPTION
Cet aperçu permet de découvrir le sommaire et les principaux articles du numéro REE 2016-1 publié en janvier 2016 - Pour s'abonner, merci de vous rendre à la dernière page.
Citation preview
ÉNERGIEÉNERGIE TELECOMMUNICATIONSTELECOMMUNICATIONS SIGNALSIGNAL COMPOSANTSCOMPOSANTS AUTOMATIQUEAUTOMATIQUE INFORMATIQUEINFORMATIQUE
Nu
mér
o
2
016
EDITORIAL Le calcul à haute performance
Ruptures et enjeuxGérard Roucairol
www.see.asso.fr
1
ISSN
126
5-65
34
DOSSIERS
La lutte contre le réchauffement climatique passe par la prise en compte d’un prix du carbonePar Jacques Percebois
L'ARTICLE INVITÉ
Des avions plus électriques
ME
A'2
015
M
ORE
ELEC
TRIC
AIR
CRAF
T
Cet aperçu gratuit permet aux lecteurs ou aux futurs lecteurs de la REE dedécouvrir le sommaire et les principaux articles du numéro 2016-1 de la revue,publié en janvier 2016. Pour acheter le numéro ou s'abonner, se rendre à ladernière page.
�
�
�
�
�
�
�
�
�
�
��
��
���������� ���������� ����������������������������������������
��������������������������������� ������������� !�"#�������
$������������������������%�&'���
�
�������������� �� ����������������� �������������� ������������� ������������������������������� !��"#� �$��%&#�����'���� ������ �����������������(����������� �������������)�������������
���*�����$ +������,�����-$��'�$���.�� ���/������������� ���0������������� ��� �������������%&#� ���'����1��������*�����$ +�������,�����-$���-�� ��� �0������������ ���2 ������������ ��� 0������������� ����3���� �4��-�#������ (�,�� �� �- ���"���$����������������������������*�� ���$ +����� ��$-��"�-��$�� �%&#�����'������%&#� �������-����.������*���-5�"-�$ �� ����#$����� 4-���%��$��'�����-6���"��%���-�����7����"���%��$��%���%����-��� " �����
�������������� �������������������� ������������ � �
�������������� ��������� ��������� ������������ ���������������� �����!�!"�������#�����������#���������� �
�
�
$��%������������������ � �&���������� �"%' ��(��#���������������� ��������!����)������� �!��*+����!��,��������� �
��������-������� ������������� ��� $��������!�-��� ���.�!� ��� ������ �-������ �����������(�!��������� ���������� �
������������ �������������� � ��������� �����/�������!��� �� ������� �0������������ �%��������1/����2��"������3��!��
���.�������(��������� �45*46*6789��-� ���������:��# ��������#�!!%��� ;���.���������' ��-� ��!��!�������������!��.�!������������!��������-�!�������������������������
����������� ����������������-�����7�$��'���,� )��-��%��$8�� ��$�����$ ��,�)0)2.�9�� ����%�5� (�, �������,���$���..� 0(�/��.)� )�,����:���������!��
�������������������������� ����!"#"��
REE N°1/2016 � 1
D e profondes ruptures sont en cours, tant tech-nologiques qu’économiques ou d’usage, qui ont déjà, ou vont avoir, un impact considé-rable sur l’architecture des ordinateurs et la
manière de s’en servir, sur la structure de l’industrie ainsi que sur les usages de la haute performance. Mais au-delà c’est l’ensemble de l’informatique et plus généralement du numé-rique qui est concerné tant il est vrai, et l’histoire l’a montré, que, dans tous les domaines, les applications existantes ont toujours besoin de faire plus et plus vite et que l’augmentation de la puissance de calcul rend possible de nouvelles applica-tions. De ce point de vue, ce qui se passe dans le domaine du calcul intensif préfigure des évolutions profondes de l’en-semble des technologies et des marchés de l’informatique.
Si on examine l’axe des évolutions technologiques, la rupture majeure provient du fait que l’augmentation de la puissance informatique ne peut plus désormais reposer sur l’accroisse-ment de la fréquence des microprocesseurs. En effet l’aug-mentation considérable de la consommation électrique et de la dissipation thermique qui résulte de l’accroissement de cette fréquence ont conduit les fabricants de semi-conduc-teurs à limiter cette fréquence à 3 ou 4 GHz.
La seule manière d’augmenter la vitesse d’un traitement infor-matique consiste donc à essayer d’effectuer en même temps, c’est-à-dire « en parallèle », plusieurs tâches que comporte ce traitement. Pour cela on va pouvoir bénéficier du proces-sus encore soutenu de miniaturisation des transistors afin de disposer, sur un circuit intégré, de plusieurs cœurs de proces-seurs, à terme de plusieurs centaines, puis de regrouper ces circuits au sein de plusieurs dizaines de milliers de serveurs interconnectés au sein d’une même machine qui permettra d’atteindre des puissances extrêmes comme l’exaflop (le mil-liard de milliards d’opérations arithmétiques à la seconde).
La mise en œuvre de telles architectures, dites « massivement parallèles », pose de nombreux problèmes technologiques pour limiter la consommation énergétique et pour assurer la résilience de ces architectures. Mais l’une des difficultés essentielles est liée à l’exploitation par le logiciel de telles architectures. Il va falloir concevoir des algorithmes capables de s’accommoder de niveaux très élevés de parallélisme ainsi
qu’écrire et mettre au point des programmes parallèles dont la complexité va croître de manière considérable. Cette diffi-culté est majeure et il faut constater que la très grande majo-rité des logiciels existants, qui sont séquentiels ou présentent un faible taux de parallélisme, ne peuvent absolument pas ti-rer parti de ces futures architectures. Il en résulte notamment que pour un industriel fournisseur de technologie, la taille de sa base installée n’est plus un garant de sa position future. En effet de nouveaux circuits intégrés de traitement vont devoir être inventés, de nouvelles architectures de machines vont être mises en œuvre, de nouveaux logiciels de base ou inter-giciels vont devoir être conçus et de nouvelles applications vont devoir être créées de toute pièce sans que pour l’instant aucun standard n’existe. Compte tenu de la multiplicité des pistes technologiques qui vont conduire à l’élaboration des futurs systèmes informatiques, on peut aussi constater que la traditionnelle indépendance entre le matériel et le logiciel qui s’est décantée au bout de plusieurs dizaines d’années de dé-veloppement des marchés de l’informatique, va être remise en cause. De nouveaux paramètres de changement de ce marché vont donc être introduits qui impacteront probable-ment très fortement l’industrie des progiciels et des services.
Dans ce contexte, il est clair que des opportunités consi-dérables apparaissent pour modifier en profondeur le jeu d’acteurs qui s’est installé au sein du marché mondial de l’informatique. Notre pays est bien placé pour tirer parti de ces opportunités. En effet la France est l’un des rares pays dans le monde et le seul en Europe à disposer d’acteurs industriels « leaders » qui couvrent une très grande partie de la chaîne de valeur du calcul intensif. Cette chaîne, qui va de la conception de supercalculateurs à des usages pion-niers par de grands utilisateurs en passant par l’élaboration, la vente d’applications et le service, peut en outre tirer bé-néfice d’une recherche technologique publique au meilleur niveau mondial.
Si on analyse l’axe des évolutions d’usage du calcul à haute performance, on peut remarquer qu’historiquement c’est la simulation numérique qui a guidé le recours au calcul inten-sif et ceci dans quelques domaines d’application : la défense, la recherche, la météo pour le secteur public, l’industrie manufacturière (automobile, aéronautique) et l’énergie
Le calcul à haute performanceRuptures et enjeux
EDITORIAL GÉRARD ROUCAIROL
2 ��REE N°1/2016
pour le secteur privé. De plus ces usages ont été principa-lement le fait de grandes organisations au sein de l’Etat ou de grandes entreprises du secteur privé. Les méthodes de simulation quant à elles ont le plus souvent reposé sur une modélisation mathématique aussi exacte que possible de processus physiques. Dans le futur, les trois paramètres que nous venons de citer (domaines d’application, méthodes de simulation, caractérisation des utilisateurs) vont évoluer très fortement pour démultiplier très largement les usages du calcul intensif.
En ce qui concerne les méthodes, outre l’emploi d’algo-rithmes plus classiques de fouilles de données, la capacité de collecter des informations générées sur Internet en très grande quantité favorise l’éclosion de méthodes d’autoap-prentissage. Ces méthodes rendues possibles par la puis-sance de calcul maintenant disponible, conduisent à une modélisation devenue statistique des processus à la source des données correspondantes (Big Data). Quelles que soient les méthodes de simulation utilisées, les domaines d’usage vont être très largement étendus à ceux par exemple de la santé, de l’urbanisation, de l’agroalimentaire, des matériaux, du multimédia, de l’analyse de risque, de l’analyse marketing, de la cosmétique, de la chimie, de la sociologie…
Le déploiement des infrastructures de cloud, en transformant un coût d’investissement nécessairement élevé pour des supercalculateurs, en un coût de fonctionnement et d’achat de services à la demande, va permettre de « démocratiser »
l’accès au calcul intensif au bénéfice des PME et des ETI tout en accélérant la diversification des domaines d’applications.
On le voit, les ruptures et opportunités associées à l’évolu-tion du calcul à haute performance sont considérables tout autant que leurs impacts sur la structure de l’industrie tant utilisatrice que productrice de technologies. En France le plan industriel « Supercalculateurs » dont je suis le chef de file, est à même de positionner notre pays dans le groupe de tête de la compétition mondiale et ceci sur tous les plans : technologies matérielles, diversification des usages, diversifi-cation et élargissement des utilisateurs, formation. Au-delà il convient de préparer une évolution encore plus radicale qui va concerner les fondements mêmes du calcul informatique et les matériaux qui vont le mettre en œuvre. La recherche fondamentale doit absolument s’organiser au sein d’un effort à la fois significatif et multidisciplinaire pour préparer le futur du numérique et la place de notre pays dans ce domaine.
Gérard Roucairol a débuté sa carrière professionnelle comme professeur d’Informatique à l’université Pierre et
Marie Curie, puis à l’université Paris Sud et enfin à l’Ecole normale supérieure. En 1984, il rejoint le groupe Bull pour
en prendre la Direction scientifique et est à l’origine du repo-sitionnement de Bull sur les supercalculateurs. Depuis 2009,
il préside l’association Teratec. Il a été président de l’Acadé-mie des technologies et, depuis 2014, il préside le Conseil
scientifique de l’Institut Mines-Télécom.
Une machine Bull du centre de calcul civil du CEA - © CEA/P.STROPPA
4 ��REE N°1/2016
sommaireNuméro 1 ����
1 EDITORIAL Le calcul à haute performance - Ruptures et Enjeux
Par Gérard Roucairol
4 SOMMAIRE
6 FLASH INFOS La propagation dans la troposphère pour les systèmes spatiaux
de télécommunications à très haut débit en bandes Ka et Q/V10 Filtrage non-linéaire pour la navigation inertielle13 La technologie RF SOI dans 100% de nos smartphones16 Capteurs inertiels à atomes froids : principe et applications19 L’ordinateur quantique D-WAVE. Mythe ou réalité 21 Un Wi-Fi pour l’internet des objets : le 802.11 ah22 Un stockage électrique par batteries de 10 MW mis en service
en Irlande23 Une neuvième planète dans le système solaire ?
26 A RETENIR Congrès et manifestations
28 VIENT DE PARAÎTRE La REE vous recommande
30 ARTICLE INVITÉ La lutte contre le réchauffement climatique passe par la prise
en compte d’un prix du carbone Par Jacques Percebois
38 LES GRANDS DOSSIERS Le démantèlement des installations nucléaires Introduction Par Jean-Pierre Hauet
41 Le démantèlement des installations nucléaires à la Direction de l’énergie nucléaire du CEA
Par Laurence Piketty
49 Plan opérationnel sur un chantier de démantèlement Par Cyril Moitrier, Samuel Blanchard, Yves Soulabaille
58 Recherche et innovation pour l’assainissement-démantèlement Par Christine Georges
64 Optimiser globalement la gestion des déchets radioactifs de démantèlement
Par Michel Dutzer, Frédéric Legée
p. 1
p. 38
p. 30
p. 70
Photo de couverture : © Onera
REE N°1/2016 � 5
70 Dossier MEA 2015 Des avions plus électriques Introduction
Par Florent Christophe, Jean-Charles Gautherot
72 Dimensionnement optimal d’un réseau électrique aéronautique Par Djamel Hadbi, Xavier Roboam, Bruno Sareni, Nicolas
Retière, Frédéric Wurtz
80 Key Drivers for Aeronautic Batteries Par Florence Fusalba, Jean Oriol, Eric Pinton
86 Electric Distributed Propulsion for Small Business Aircraft Par Jean Hermetz, Michael Ridel
96 GROS PLAN SUR … La mesure du temps aujourd’hui Par Emeric de Clercq, Thomas Zanon-Willette, Ouali Acef
107 RETOUR SUR ... L’introduction des antennes actives dans les chasseurs Le programme de coopération européen AMSAR Par Marc Leconte
115 ENSEIGNEMENT & RECHERCHE De fulgurantes innovations à Lille ? Par Pierre Giorgini
122 Echos de l’enseignement supérieur Par Bernard Ayrault
125 CHRONIQUE Propos de B. Ay, chroniqueur Par Bernard Ayrault
126 LIBRES PROPOS Le numérique… Que de questions ! Par Gérard Théry
131 SEE EN DIRECT La vie de l'association
http://cisea2016.sciencesconf.org
CISEA’16First Conference
on Intelligent Systems &
Electronic ApplicationsIoT, smart sensors, smart power
Cré
dits
pho
tos
: ©Tr
onic
o, A
nger
s Lo
ire T
ouris
me.
June 7-9 2016 Angers, France
6 � REE N°1/2016
FLASHINFOS
La propagation dans la troposphère pour les systèmes spatiaux de télécom-munications à très haut débit en bandes Ka et Q/VNicolas JeanninIngénieur de rechercheDépartement Electromagnétisme et radarONERA ToulouseGrand Prix de l’Electronique Général Ferrié 2015 décerné par la SEE
Le Grand Prix de l’Electronique Général Ferriérécompense des travaux ayant contribué aux progrès de la radioélectricité, de l’électronique et de leurs applications. Décerné depuis 1949, il commémore les travaux du Général Ferrié, pionnier de l’utilisation de la radio auquel on doit des réalisations remar-rrquables telles que la liaison Côte d’Azur-Corse dès 1901 et la première station radiophonique commer-rrciale de la Tour Eiffel.
Systèmes de télécommunications par satellite
à très haut débit et la bande Ka et Q/V
Les systèmes de télécommunications par satellite
constituent l’une des possibilités pour assurer la fourni-
ture de services multimédia haut débit aux zones non ou
mal desservies par les réseaux de télécommunications
terrestres. Il faut à cet effet qu’ils puissent proposer des
débits de données par utilisateur du même ordre de
grandeur que ceux proposés par les réseaux terrestres, à
un coût comparable. Cela requiert une capacité par satel-
lite de plusieurs centaines de gigabits par seconde, sur
une zone de couverture continentale. Afin d’atteindre ce
débit, il est nécessaire de pouvoir moduler l’information
sur de larges bandes de fréquence. Les bandes de fré-
quence utilisées traditionnellement par les télécommu-
nications par satellite sont saturées et ne sont pas suffi-
samment larges pour obtenir les capacités ciblées. A cet
effet, une migration de ces systèmes depuis les bandes C
(3-8 GHz) et Ku (11-17 GHz) vers la bande Ka (20-
30 GHz) ou Q/V (40-50 GHz) a été initiée il y a quelques
années.
Une illustration du principe de fonctionnement de ces
systèmes est donnée dans la figure 1. Les stations sol de
l’opérateur envoient un signal modulé contenant les don-
nées vers le satellite qui amplifie le signal et le transpose
en fréquence pour le renvoyer vers les cellules de la cou-
verture utilisateur desservies. Les utilisateurs dans cette
couverture se partagent le flux de données. Les bandes
de fréquence disponibles pour le système sont réutilisées
par les différentes stations sol, la directivité des antennes
et l’espacement géographique permettant de limiter les
interférences à un niveau raisonnable. Du côté utilisateur,
les faisceaux utilisent uniquement une fraction de la
bande disponible afin de limiter les interférences inter-
faisceaux. La réutilisation de fréquence est conçue pour
que deux faisceaux utilisant la même fréquence ne soient
pas adjacents.
L’utilisation de la bande Q/V et Ka permet de limi-
ter le nombre de stations sol côté opérateur et de fais-
La SEE décerne chaque année un certain nombre de Grands Prix destinés à récompenser et à faire
connaître des travaux scientifiques et techniques de premier plan réalisés en France dans les domaines de
sa compétence. Dans certains cas, la SEE s’allie à d’autres organismes pour sélectionner et honorer les lau-
réats. La cérémonie annuelle des Grands Prix 2015 a été présidée par François Gerin, président de la SEE,
et Erich Spitz, membre de l’Académie des Sciences et de l’Académie des technologies, président du Comité
des Grades et Distinctions.
La REE est heureuse de publier ci-après un ensemble d’articles écrits par les lauréats et destinés à pré-
senter les travaux qui leur ont valu d’être distingués.
Figure 1 : Schéma de principe d’un système satellitairemulti-faisceaux.
REE N°1/2016 � 7
FLASHINFOS
ceaux côté utilisateur, à un nombre raisonnable mais
suffisant pour obtenir les débits de données visés.
En effet, la bande de modulation disponible est supé-
rieure d’au moins un ordre de grandeur à celle offerte
par les fréquences plus basses. Outre la problématique
liée au développement de composants RF spatiaux, les
fortes pertes de propagation dans la troposphère, particu-
lièrement en présence de pluie, ont longtemps constitué
un frein à l’utilisation de ces bandes. En effet les pertes
atmosphériques augmentent avec la fréquence et ne
peuvent plus être compensées avec une marge statique
de puissance pour assurer une disponibilité satisfaisante.
De ce fait, il est impératif d’utiliser des méthodes de
compensation adaptatives des affaiblissements. L’opti-
misation de ces systèmes requiert une connaissance
statistique de ces affaiblissements de propagation. Cette
connaissance peut être obtenue par le biais de mesures
des fluctuations de puissance d’un signal émis par un
satellite induites par les variations des conditions météo-
rologiques. Néanmoins, ces mesures sont spécifiques à
la géométrie de la liaison, à la zone climatique et à la
fréquence et ont été conduites sur un nombre réduit de
sites. Par conséquent, en complément de ces mesures,
des modèles capables de reproduire les caractéristiques
statistiques de ces observations doivent être développés
pour fournir des entrées aux simulateurs systèmes.
Effets de propagation dans la troposphère
Les ondes électromagnétiques sont affectées par dif-
férents phénomènes lors de leur propagation dans la tro-
posphère (couche inférieure de l’atmosphère), en fonc-
tion des conditions météorologiques. Ces phénomèmes,
à savoir l'atténuation dans les gaz et les hydrométéores, la
dépolarisation et la scintillation, ont globalement tendance
à augmenter fortement avec la fréquence et deviennent
très sensibles au-delà de 10 GHz. L’oxygène et la vapeur
d’eau atmosphérique causent des atténuations pouvant al-
ler jusqu’à quelques décibels en bande Q/V. En présence
d’hydrométéores (gouttelettes d’eau liquide nuageuse ou
gouttes de pluie), une fraction de la puissance des ondes
incidentes est absorbée ou diffusée (diffusion de Mie et
Rayleigh suivant le rapport entre la longueur d’onde et la
dimension de la particule). La variation en fonction de la
fréquence de ces atténuations spécifiques, dans diverses
conditions atmosphériques est illustrée par la figure 2.
Les liaisons en bande Ka ou Q/V peuvent subir des
atténuations de plusieurs dizaines de décibels en pré-
sence de précipitations (ces liaisons ont généralement
une longueur de parcours sous la pluie de 5 à 10 km).
En outre, en présence d’hydrométéores dissymétriques,
l’onde peut également être dépolarisée, ce qui est source
d’interférence d’une polarisation orthogonale sur l’autre.
Par ailleurs, les fluctuations d’indice de réfraction dues
à la turbulence atmosphérique causent également une
scintillation qui se manifeste par des fluctuations rapides
du signal.
Pour évaluer la disponibilité d’une liaison terre-espace
en fonction de la marge disponible pour compenser ces
effets de propagation, des modèles ont été développés
par la commission 3 de l’Union internationale des télé-
communications, secteur Radiocommunication (UIT-R).
En bande Ku ces marges de puissance sont générale-
ment de quelques dB pour garantir une disponibilité de
99,99 % en zone tempérée. Un exemple des marges
nécessaires pour opérer un lien satellite à 50 GHz avec
une disponibilité de 99,5 % est présenté figure 3.
(a) (b)
Figure 2 : Atténuation spécifique (dB/km) en fonction de la fréquence causée par les gaz (a) et par la pluie (b).
8 ��REE N°1/2016
FLASHINFOS
Cette disponibilité de 99,5 % est déjà jugée insuffi-
sante pour la majorité des applications et nécessite pour
être obtenue d’avoir en bande Q/V une marge de puis-
sance dépassant la dizaine de décibels sur la majorité
de l’Europe. Garder une telle marge de puissance pour
compenser des affaiblissements qui sont peu fréquents
(la probabilité de précipitations est proche de 5 % en
zone tempérée) est insoutenable vu les limitations de
puissance à bord des satellites.
Systèmes adaptatifs de compensation
des affaiblissements
Pour compenser ces pertes de propagation, sans pour
autant utiliser une marge de puissance trop importante,
différents mécanismes adaptatifs, ont été développés
pour s’accommoder de la montée en fréquence des trans-
missions par satellite.
La solution la plus intuitive consiste à faire varier la
puissance d’émission en fonction des conditions de pro-
pagation. Néanmoins cette solution est limitée à quelques
décibels dans la mesure où elle requiert un surdimension-
nement coûteux des amplificateurs au sol ou à bord.
Une autre technique utilisée consiste à faire varier la
modulation et le codage de la liaison en fonction de l’état
du canal de propagation. Ainsi en cas de dégradation de
l’état du canal, des modulations et codages plus robustes,
permettant de s’accommoder de rapports signal à bruit
plus faible, peuvent être utilisés. En contrepartie l’effica-
cité spectrale de la liaison (débit d’information par unité
de bande de modulation) et donc son débit sont dimi-
nués. Cela permet dans la plupart des cas de ne pas avoir
une interruption totale du service en cas de mauvaises
conditions météorologiques mais seulement une baisse
de la capacité de la liaison.
Enfin, pour les réseaux de stations sol des opérateurs
pour lesquels les liaisons sont susceptibles d’utiliser la
bande Q/V, il est possible d’éviter dans la plupart des
cas les indisponibilités en ajoutant au réseau une ou plu-
sieurs stations sol de redondance, capables de prendre
le relais d’autres stations sol. En effet ces stations sol
sont espacées de plusieurs dizaines de kilomètres et les
pertes de propagation sont faiblement corrélées. Dès lors
la faible probabilité de subir de fortes précipitations et
la combinatoire font que la probabilité d’avoir simultané-
ment plus de stations sol avec de mauvaises conditions
de propagation que de stations redondantes est extrê-
mement faible. Ces mécanismes de diversité permettent
d’obtenir des disponibilités comparables à celles que l’on
pourrait obtenir à des fréquences plus basses [2].
Ces différentes techniques adaptatives permettent de
garder des disponibilités intéressantes. Néanmoins leur
dimensionnement requiert une connaissance des carac-
téristiques du canal de propagation, pour l’optimisation
des boucles de contrôle ou pour l’estimation de perfor-
mances globales du système.
Modélisation du canal de propagation
Pour acquérir cette connaissance du canal de pro-
pagation, différentes campagnes de mesures, visant à
mesurer à partir d’un récepteur au sol les fluctuations de
puissance d’un signal non modulé émis par un satellite
(comme illustré par la figure 4), ont été menées.
Ces expérimentations permettent de caractériser les
propriétés statistiques du canal de propagation. Cepen-
dant, ces mesures sont insuffisantes pour le dimension-
nement système car elles ne couvrent pas l’ensemble
des configurations qui peuvent être rencontrées en
termes de fréquence, élévation de la liaison et climat.
Pour pallier ces insuffisances, des modèles permet-
tant de calculer les distributions d’affaiblissement pour
des liaisons avec des caractéristiques géographiques et
radioélectriques arbitraires ont été développés et standar-
disés par l’UIT-R comme illustré par la figure 3. Ces mo-
dèles reposent sur l’utilisation de paramètres climatiques
calculés sur des bases de données de réanalyses. Ces
réanalyses météorologiques, comme celle du CEPMMT
(Centre européen de prévision météorologique à moyen
terme), sont calculées en rejouant sur de longues durées
des modèles météorologiques globaux contraints par les
observations météorologiques passées.
Figure 3 : Carte d’atténuation dépassée 0.5 % du temps sur l’Europe pour un lien avec un satellite géostationnaire
à 50 GHz, calculée par la Rec. UIT-R P. 618 [1].
Cette disponibilité de 99,5 % est déjà jugée insuffi-
sante pour la majorité des applications et nécessite pour
être obtenue d’avoir en bande Q/V une marge de puis-
sance dépassant la dizaine de décibels sur la majorité
de l’Europe. Garder une telle marge de puissance pour
compenser des affaiblissements qui sont peu fréquents
(la probabilité de précipitations est proche de 5 % en
zone tempérée) est insoutenable vu les limitations de
puissance à bord des satellites.
Systèmes adaptatifs de compensation
des affaiblissements
Pour compenser ces pertes de propagation, sans pour
autant utiliser une marge de puissance trop importante,
différents mécanismes adaptatifs, ont été développés
pour s’accommoder de la montée en fréquence des trans-
missions par satellite.
La solution la plus intuitive consiste à faire varier la
puissance d’émission en fonction des conditions de pro-
pagation. Néanmoins cette solution est limitée à quelques
décibels dans la mesure où elle requiert un surdimension-
nement coûteux des amplificateurs au sol ou à bord.
Une autre technique utilisée consiste à faire varier la
modulation et le codage de la liaison en fonction de l’état
du canal de propagation. Ainsi en cas de dégradation de
l’état du canal, des modulations et codages plus robustes,
permettant de s’accommoder de rapports signal à bruit
plus faible, peuvent être utilisés. En contrepartie l’effica-
cité spectrale de la liaison (débit d’information par unité
de bande de modulation) et donc son débit sont dimi-
nués. Cela permet dans la plupart des cas de ne pas avoir
une interruption totale du service en cas de mauvaises
conditions météorologiques mais seulement une baisse
de la capacité de la liaison.
Enfin, pour les réseaux de stations sol des opérateurs
pour lesquels les liaisons sont susceptibles d’utiliser la
bande Q/V, il est possible d’éviter dans la plupart des
cas les indisponibilités en ajoutant au réseau une ou plu-
sieurs stations sol de redondance, capables de prendre
le relais d’autres stations sol. En effet ces stations sol
sont espacées de plusieurs dizaines de kilomètres et les
pertes de propagation sont faiblement corrélées. Dès lors
la faible probabilité de subir de fortes précipitations et
la combinatoire font que la probabilité d’avoir simultané-
ment plus de stations sol avec de mauvaises conditions
de propagation que de stations redondantes est extrê-
mement faible. Ces mécanismes de diversité permettent
d’obtenir des disponibilités comparables à celles que l’on
pourrait obtenir à des fréquences plus basses [2].
Ces différentes techniques adaptatives permettent de
garder des disponibilités intéressantes. Néanmoins leur
dimensionnement requiert une connaissance des carac-
téristiques du canal de propagation, pour l’optimisation
des boucles de contrôle ou pour l’estimation de perfor-rr
mances globales du système.
Modélisation du canal de propagation
Pour acquérir cette connaissance du canal de pro-
pagation, différentes campagnes de mesures, visant à
mesurer à partir d’un récepteur au sol les fluctuations de
puissance d’un signal non modulé émis par un satellite
(comme illustré par la figure 4), ont été menées.
Ces expérimentations permettent de caractériser les
propriétés statistiques du canal de propagation. Cepen-
dant, ces mesures sont insuffisantes pour le dimension-
nement système car elles ne couvrent pas l’ensemble
des configurations qui peuvent être rencontrées en
termes de fréquence, élévation de la liaison et climat.
Pour pallier ces insuffisances, des modèles permet-
tant de calculer les distributions d’affaiblissement pour
des liaisons avec des caractéristiques géographiques et
radioélectriques arbitraires ont été développés et standar-
disés par l’UIT-R comme illustré par la figure 3. Ces mo-
dèles reposent sur l’utilisation de paramètres climatiques
calculés sur des bases de données de réanalyses. Ces
réanalyses météorologiques, comme celle du CEPMMT
(Centre européen de prévision météorologique à moyen
terme), sont calculées en rejouant sur de longues durées
des modèles météorologiques globaux contraints par les
observations météorologiques passées.
Figure 3 : Carte d’atténuation dépassée 0.5 % du temps sur l’Europe pour un lien avec un satellite géostationnaire
à 50 GHz, calculée par la Rec. UIT-R P. 618 [1].
30 ��REE N°1/2016
La lutte contre le réchauffement climatiquepasse par la prise en compte
d’un prix du carbone
L'ARTICLE INVITÉ
CO2 emissions may be considered as a negative externality that must be taken into account in the energy choices.The COP21, held in Paris late 2015, did not adopt an explicit carbon price but prompted most countries of the world to commit to reductions in greenhouse gases, which leads to retain an implicit carbon price. It is first necessary to estimate the cost of reducing these emissions and the social value linked to this reduction of CO2 emissions. You must then choose which public policy is the most efficient tool: carbon tax, shadow price, quotas market, “cap and trade” system, “bonus-malus” system.The introduction of a carbon tax also raises equity issues within countries and between developed and developing countries. There are already countries where such systems, notably carbon taxes and quota markets, are in place. The introduction of a carbon tax of about 30 euros per ton of CO2 would allow to change the “merit order” power plants logic in Europe and tomake natural gas plants more competitive than coal plants.
ABSTRACT
JACQUES PERCEBOISProfesseur émériteà l’université de Montpellier CREDENet Chaire Economie du climat
Introduction
L a dégradation du climat, qui se traduit en par-rr
ticulier par le réchauffement de la tempéra-
ture moyenne du Globe, peut être considérée
comme une externalité négative, au sens défini
par Arthur-Cecil Pigou (1920) ; cette externalité doit être in-
ternalisée. Une externalité est un coût qui n’est pas répercuté
dans le prix des produits observé sur le marché et qui est à
la charge de la collectivité dans son ensemble. Le coût social
est alors supérieur au coût privé. Ignorer cela, c’est ne pas
comptabiliser tous les coûts dans le processus de choix des
investissements énergétiques et c’est donc faire des choix
infra-optimaux. Il faut donner une valeur, donc un prix, à la
tonne de carbone (ou à la tonne de CO2) qui n’est pas émise
et qui ne dégradera pas l’environnement ou, ce qui revient au
même, faire payer ce prix à ceux qui continueront à émettre
du carbone. On raisonne en général par tonne de CO2 plutôt
que par tonne de carbone. Rappelons qu’une tonne de car-rr
bone équivaut à 3,666 tonnes de CO2.
Les biens environnementaux mondiaux, que ce soient
les ressources marines dans les eaux internationales, la bio-
diversité ou le climat, se caractérisent par une rivalité des
agents au niveau de l’usage et par la « non-excluabilité » de
ces agents puisque l’accès à ces ressources est générale-
ment libre. La « Tragédie des Communs » de Hardin (1968)
insiste sur le fait que, pour de tels biens, il y a conflit entre
l’intérêt individuel et l’intérêt collectif. C’est le problème dit
du « passager clandestin » (ou free rider) déjà mentionné par
Aristote : « l’homme prend le plus grand soin de ce qui lui est
propre, il a tendance à négliger ce qui lui est commun ». Il se
préoccupe donc peu de l’intérêt des autres contemporains
et encore moins de celui des générations suivantes. Il faut
dès lors développer l’information du public en montrant que
l’intérêt des générations futures sera compromis si les géné-
rations présentes ne prennent pas soin des ressources com-
munes et c’est le rôle des « lanceurs d’alerte » ou de l’Etat. On
peut parfois compter sur un sentiment altruiste des individus
ou sur un sentiment de culpabilité qui en est l’autre face si
rien n’est fait, mais cela ne suffit pas. La puissance publique
se doit d’intervenir pour « internaliser » ces externalités mais
elle doit le faire à un niveau mondial pour que ce soit efficace
puisque le problème est mondial.
Plusieurs questions se posent alors :
-
jourd’hui pris en compte dans le calcul économique, suite à
Comment évaluer le prix du carbone ?
Il existe plusieurs approches pour calculer la valeur d’une
tonne de carbone ou d’une tonne de CO2 :
1. L’approche en termes de « coût de dommage marginal
évité » : c’est le bénéfice tiré d’une réduction des émis-
sions de CO2 pour la collectivité. On se limite avec cette
REE N°1/2016 � 31
L'ARTICLE INVITÉ
approche aux avantages obtenus du fait de la réduction
des émissions, indépendamment des coûts supportés
mais il est souvent difficile de donner une valeur moné-
taire à ces avantages. Quelle est la valeur d’un site non
alors parfois à la méthode des « prix hédonistes » : on
compare par exemple le prix d’un logement avec vue sur
une forêt à celui d’un logement sans vue pour déterminer
la valeur de cette forêt.
2. L’approche en termes de « coût d’abattement » : c’est
le coût supporté pour réduire les émissions de CO2 mais
il convient alors de distinguer le coût total, le coût moyen
et le coût marginal de cet abattement. C’est le coût mar-
ginal qui guide les comportements. Au-delà d’un certain
seuil de réduction, le coût marginal d’abattement s’accroît
très rapidement. C’est une approche de type coût-effica-
cité puisque l’on se donne un objectif de réduction des
émissions considéré ne varietur et que l’on calcule le coût
marginal et par ricochet le coût moyen et le coût total des
efforts entrepris pour atteindre l’objectif (Keller 2009).
3. L’approche en termes de « valeur sociale du carbone » :
on procède à une analyse coûts-avantages en déterminant
le point d’intersection entre la courbe de coût marginal
d’abattement et la courbe de bénéfice marginal lié aux
émissions évitées. Cela revient à utiliser simultanément
les deux approches précédentes. On a intérêt à réduire les
émissions de CO2 jusqu’au point où le bénéfice marginal
de la réduction est égal au coût marginal de cette réduc-
tion. En pratique il existe une asymétrie car la courbe du
bénéfice marginal est plus difficile à tracer que celle du
coût marginal. Cette approche coût-bénéfice est illustrée
dans le schéma donné figure 1. Elle fournit le taux optimal
de taxation : un pollueur a intérêt à dépolluer tant que le
coût unitaire de dépollution est inférieur à la taxe payée
par unité de polluant déversé ; il a intérêt à payer la taxe si
le coût unitaire de dépollution lui est supérieur.
4. L’approche en termes de « prix notionnel » ou « prix
tutélaire » : c’est une valeur fixée « politiquement » par
la collectivité. Cela correspond à une vision téléologique
ou normative des choix. Le décideur public peut fixer un
prix arbitraire pour la tonne de carbone émise. Ce « prix
fictif » (“shadow price” dans la littérature anglo-saxonne)
sert à orienter les choix d’investissement. Ce n’est pas un
prix réellement payé donc cela ne génère pas de rentrées
fiscales pour la collectivité, mais cela sert à pénaliser les
investissements émetteurs de CO2. Beaucoup d’opéra-
teurs énergétiques recourent aujourd’hui à cette approche
(cas du pétrolier Total par exemple). Le rapport Nicholas
Stern (2007) avait proposé une valeur tutélaire de 150
à 200 USD /t de CO2 et le rapport Quinet (2009) une
valeur de 100 �/t de CO2. On est loin des chiffres obser-
vés sur le marché européen du CO2 (7 à 8 �/t de CO2).
Cette valeur tutélaire peut se transformer en taxe carbone
si la puissance publique décide de l’imposer aux divers
opérateurs ; le recouvrement de la taxe fournira alors des
recettes publiques qui pourront être affectées au finan-
cement de certaines actions environnementales. Mais si
l’Etat demeure maître du prix, il ignore au départ l’impact
que cette taxe aura sur la quantité des émissions puisqu’il
existe en général une incertitude sur l’allure de la courbe
de coût marginal de réduction des émissions.
5. L’approche en termes de « prix du marché » : c’est le
cas lorsque la valeur du carbone est fixée par le marché
du CO2. La collectivité publique fixe un volume d’émis-
sions de CO2 à ne pas dépasser et autorise les émetteurs
à échanger leurs quotas via des certificats. On déterminera
ainsi ex post le niveau du prix d’équilibre de la tonne de
CO2. Cela concerne par exemple les électriciens et certains
Figure 1 : Détermination du taux de taxation optimal en fonction de l’approche coût-bénéfice.
32 ��REE N°1/2016
L'ARTICLE INVITÉ
industriels en France qui se voient attribuer un volume de
quotas gratuits. Le prix du CO2 est fixé par la rencontre entre
la demande et l’offre de certificats de CO2 sur ce marché. En
cas de non-respect des quotas, des amendes sont prévues.
Si l’amende est libératoire, elle correspond au prix-plafond
du certificat ; le pollueur préfèrera payer l’amende plutôt
que d’acheter des certificats dont le prix serait supérieur à
l’amende. Si l’amende n’est pas libératoire, le pollueur qui a
pollué sans quota devra à la fois payer l’amende et acquérir
des quotas sur le marché. Une partie des quotas attribués
au départ peut être gratuite mais ce n’est pas le cas pour
tous les quotas. C’est le système mis en place au sein de
l’Union européenne avec le marché européen d’échange
des quotas (European Trading System ou ETS). C’est aussi
le cas du Mécanisme de Développement Propre associé au
protocole de Kyoto : des investissements réalisés dans des
pays en développement pour réduire les émissions de CO2
peuvent être comptabilisés comme des efforts de réduc-
tion dans le pays de départ. Les échanges de quotas fixent
ainsi le prix du carbone sans que l’on sache a priori quel
sera ce prix (Cf. Hansen et Percebois 2015). A noter qu’une
« banque centrale » peut, comme sur le marché monétaire,
intervenir pour faire monter ou baisser le prix d’équilibre en
achetant ou en vendant des certificats (logique dite “d’open
market”).
Comment internaliser le prix du carbone ?
Il existe plusieurs façons de prendre en compte en
pratique le prix du carbone dans le calcul économique et
cette question a soulevé de nombreux débats théoriques.
A. C. Pigou militait pour l’instauration d’une taxe correspon-
dant au coût supporté par les victimes des externalités ;
40 ans plus tard, Ronald Coase (1960) a critiqué la « taxe
pigouvienne » et a proposé d’attribuer des droits de propriété
de l’environnement aux agents économiques, ces droits pou-
vant donner lieu à échange sur un marché. Les pollueurs
disposent d’un quota d’émissions qu’ils ne peuvent pas
dépasser mais rien ne les empêche d’acheter des quotas à
d’autres agents ou de vendre leurs quotas s’ils ne les utilisent
pas. Le système génère des coûts de transaction mais évite
certains effets pervers liés à l’instauration d’une taxe uni-
forme (hausse des prix TTC) car cela permet une meilleure
allocation des ressources. Le débat a été relancé en 1974
par Weitzman qui a démontré qu’en situation d’incertitude
concernant la forme des courbes de coûts et d’avantages,
l’approche par les quantités (quotas) est collectivement pré-
férable lorsque la pente de la courbe de coût marginal des
dommages est supérieure à celle de la courbe de coût mar-
ginal de réduction des émissions ; et inversement l’approche
par les prix (la taxe) est préférable si la pente du coût margi-
nal des dommages est plus faible que la pente de la courbe
de coût marginal d’abattement. En pratique plusieurs solu-
tions sont alternativement ou conjointement utilisées :
1. La réglementation c’est-à-dire la fixation de normes.
L’Etat fixe des normes de pollution et doit sanctionner ceux
qui ne respectent pas les normes. Ce système est coûteux
puisqu’il faut faire des contrôles et il n’incite pas les pol-
lueurs à faire mieux que la norme.
2. L’instauration d’une taxe carbone par les pouvoirs pu-
blics : chaque tonne de CO2 émise supporte la taxe, ce
qui incite les pollueurs à réduire leurs émissions tant que
le coût de réduction demeure inférieur à la taxe. La fixa-
tion d’un prix du carbone détermine le montant optimal de
pollution. Deux approches sont alors possibles à l’échelle
mondiale :
- une taxe sur le CO2 unique et applicable à tous les pays
et/ou tous les secteurs d’activité ; mais cela soulève un
problème d’équité : il faut prévoir des compensations
sous forme de transferts monétaires pour les pays et/
ou les secteurs qui subiraient de trop fortes hausses de
leurs coûts de production. On peut par exemple envisa-
ger de créer un « Fonds Vert » pour permettre aux pays
en développement de supporter ces coûts de réduction
des émissions ; c’est le cas du « Fonds Vert » de 100 Md
USD promis à Lima en décembre 2014 et qui a été au
cœur des débats de la COP 21 en décembre 2015.
- une taxe sur le CO2 différenciée selon les pays et/ou les
secteurs pour permettre de tenir compte des spécificités
de chaque pays et/ou de chaque secteur.
Une question se pose ensuite : quelle affectation faut-il
donner à cette taxe ; faut-il réduire en contrepartie d’autres
-
vestissements dans l’efficacité énergétique ou la promotion
des effets distributifs qu’il faut examiner ; certains agents se-
ront gagnants, d’autres perdants. Compenser la taxe carbone
par une réduction de l’impôt sur le revenu, une baisse de la
CSG ou une baisse de la TVA n’aura pas les mêmes effets
sur les diverses catégories sociales. Utiliser le produit de la
taxe pour promouvoir le photovoltaïque ou favoriser les éco-
nomies d’énergie dans l’habitat n’aura pas le même impact
sur l’économie. Les effets d’une taxe carbone sur le revenu
des ménages dépendent de la part du revenu affecté aux
dépenses énergétiques et diverses études ont montré que
les ménages les plus modestes sont ceux qui supporteront
la charge relative la plus forte, ceci en raison principalement
des coûts liés au chauffage et au transport (Keller, 2009).
On peut faire le même type d’observation lorsque l’on com-
pare la situation des pays en développement à celle des pays
industrialisés. Une taxe carbone uniforme au niveau mon-
dial aurait un impact relatif plus fort sur le prix du ciment en
Inde comparativement à ce que l’on observerait en Europe et
industriels en France qui se voient attribuer un volume de
quotas gratuits. Le prix du CO2 est fixé par la rencontre entre
la demande et l’offre de certificats de CO2 sur ce marché. En
cas de non-respect des quotas, des amendes sont prévues.
Si l’amende est libératoire, elle correspond au prix-plafond
du certificat ; le pollueur préfèrera payer l’amende plutôt
que d’acheter des certificats dont le prix serait supérieur à
l’amende. Si l’amende n’est pas libératoire, le pollueur qui a
pollué sans quota devra à la fois payer l’amende et acquérir
des quotas sur le marché. Une partie des quotas attribués
au départ peut être gratuite mais ce n’est pas le cas pour
tous les quotas. C’est le système mis en place au sein de
l’Union européenne avec le marché européen d’échange
des quotas (European Trading System ou ETS). C’est aussi
le cas du Mécanisme de Développement Propre associé au
protocole de Kyoto : des investissements réalisés dans des
pays en développement pour réduire les émissions de CO2
peuvent être comptabilisés comme des efforts de réduc-
tion dans le pays de départ. Les échanges de quotas fixent
ainsi le prix du carbone sans que l’on sache a priori quel
sera ce prix (Cf. Hansen et Percebois 2015). A noter qu’une
« banque centrale » peut, comme sur le marché monétaire,
intervenir pour faire monter ou baisser le prix d’équilibre en
achetant ou en vendant des certificats (logique dite “d’open
market”).
Comment internaliser le prix du carbone ?
Il existe plusieurs façons de prendre en compte en
pratique le prix du carbone dans le calcul économique et
cette question a soulevé de nombreux débats théoriques.
A. C. Pigou militait pour l’instauration d’une taxe correspon-
dant au coût supporté par les victimes des externalités ;
40 ans plus tard, Ronald Coase (1960) a critiqué la « taxe
pigouvienne » et a proposé d’attribuer des droits de propriété
de l’environnement aux agents économiques, ces droits pou-
vant donner lieu à échange sur un marché. Les pollueurs
disposent d’un quota d’émissions qu’ils ne peuvent pas
dépasser mais rien ne les empêche d’acheter des quotas à
d’autres agents ou de vendre leurs quotas s’ils ne les utilisent
pas. Le système génère des coûts de transaction mais évite
certains effets pervers liés à l’instauration d’une taxe uni-
forme (hausse des prix TTC) car cela permet une meilleure
allocation des ressources. Le débat a été relancé en 1974
par Weitzman qui a démontré qu’en situation d’incertitude
concernant la forme des courbes de coûts et d’avantages,
l’approche par les quantités (quotas) est collectivement pré-
férable lorsque la pente de la courbe de coût marginal des
dommages est supérieure à celle de la courbe de coût mar-rr
ginal de réduction des émissions ; et inversement l’approche
par les prix (la taxe) est préférable si la pente du coût margi-
nal des dommages est plus faible que la pente de la courbe
de coût marginal d’abattement. En pratique plusieurs solu-
tions sont alternativement ou conjointement utilisées :
1. La réglementation c’est-à-dire la fixation de normes.
L’Etat fixe des normes de pollution et doit sanctionner ceux
qui ne respectent pas les normes. Ce système est coûteux
puisqu’il faut faire des contrôles et il n’incite pas les pol-
lueurs à faire mieux que la norme.
2. L’instauration d’une taxe carbone par les pouvoirs pu-
blics : chaque tonne de CO2 émise supporte la taxe, ce
qui incite les pollueurs à réduire leurs émissions tant que
le coût de réduction demeure inférieur à la taxe. La fixa-
tion d’un prix du carbone détermine le montant optimal de
pollution. Deux approches sont alors possibles à l’échelle
mondiale :
- une taxe sur le CO2 unique et applicable à tous les pays
et/ou tous les secteurs d’activité ; mais cela soulève un
problème d’équité : il faut prévoir des compensations
sous forme de transferts monétaires pour les pays et/
ou les secteurs qui subiraient de trop fortes hausses de
leurs coûts de production. On peut par exemple envisa-
ger de créer un « Fonds Vert » pour permettre aux pays
en développement de supporter ces coûts de réduction
des émissions ; c’est le cas du « Fonds Vert » de 100 Md
USD promis à Lima en décembre 2014 et qui a été au
cœur des débats de la COP 21 en décembre 2015.
- une taxe sur le CO2 différenciée selon les pays et/ou les
secteurs pour permettre de tenir compte des spécificités
de chaque pays et/ou de chaque secteur.
Une question se pose ensuite : quelle affectation faut-il
donner à cette taxe ; faut-il réduire en contrepartie d’autres
-
vestissements dans l’efficacité énergétique ou la promotion
des effets distributifs qu’il faut examiner ; certains agents se-
ront gagnants, d’autres perdants. Compenser la taxe carbone
par une réduction de l’impôt sur le revenu, une baisse de la
CSG ou une baisse de la TVA n’aura pas les mêmes effets
sur les diverses catégories sociales. Utiliser le produit de la
taxe pour promouvoir le photovoltaïque ou favoriser les éco-
nomies d’énergie dans l’habitat n’aura pas le même impact
sur l’économie. Les effets d’une taxe carbone sur le revenu
des ménages dépendent de la part du revenu affecté aux
dépenses énergétiques et diverses études ont montré que
les ménages les plus modestes sont ceux qui supporteront
la charge relative la plus forte, ceci en raison principalement
des coûts liés au chauffage et au transport (Keller, 2009).
On peut faire le même type d’observation lorsque l’on com-
pare la situation des pays en développement à celle des pays
industrialisés. Une taxe carbone uniforme au niveau mon-
dial aurait un impact relatif plus fort sur le prix du ciment en
Inde comparativement à ce que l’on observerait en Europe et
38 ��REE N°1/2016
Le démantèlement des installations
nucléaires vise à en réduire la pollution,
radioactive ou non, jusqu’à des niveaux
considérés comme étant sans risque
pour l’homme et pour l’environnement,
compte tenu des prévisions de réuti-
lisation des sites ou bâtiments et en
l’état de la réglementation.
En France, ce sont les exploitants
nucléaires qui ont la responsabilité de mener l’en-
semble des opérations nécessaires, dont l’ampleur
dépend de l’utilisation future du site. Ces opérations
doivent être menées dans des délais aussi courts
que possible, dans des conditions économiquement
acceptables. Elles sont cependant complexes et
longues, avec des échéances parfois lointaines qui
nécessitent la mise en œuvre par les exploitants de
véritables stratégies techniques et financières.
Ces opérations sont essentielles à plusieurs titres :
-
tallation nucléaire en rendant possible son
déclassement après que toutes les mesures
d’assainissement ont été prises, y compris celles
concernant l’état des sols ; il est donc plus correct
de parler « d’assainissement – démantèlement »
que de « démantèlement » ;
commençant par une évaluation aussi précise que
possible de la situation, préalable indispensable à
la définition d’une stratégie répondant aux spéci-
ficités de l’installation ;
un délai aussi court que possible après l’arrêt de
l’installation, elles s’étalent nécessairement sur
le « temps long » (20 ans, 30 ans, voire plus) afin
notamment de permettre et de faciliter la manipu-
lation des éléments les plus radioactifs ;
difficiles à chiffrer avec précision, compte tenu d’un
retour d’expérience encore limité ;
confiance que l’on peut porter à la filière nucléaire
dans son ensemble.
Comme dans toute opération de
déconstruction, le problème ne se cir-
conscrit pas à la remise en état des
sites concernés. Se pose également le
problème du traitement, du recyclage
ou du stockage des produits de dé-
construction dont certains vont conser-
ver pendant une période plus ou moins
longue un niveau de radioactivité signi-
ficatif. La stratégie de démantèlement
doit donc être conçue en fonction de la façon dont
les déchets pourront être conditionnés, transpor-
tés, traités, réutilisés et le cas échéant stockés.
Au niveau national, les grands acteurs de la
stratégie de démantèlement sont d’une part les
établissements exploitant ou ayant exploité des
installations nucléaires de base : EDF, AREVA et le
CEA et d’autre part l’Andra (Agence nationale pour
la gestion des déchets radioactifs).
Au sein d’EDF, 12 installations nucléaires sont
aujourd’hui arrêtées1 correspondant à quatre fi-
lières différentes : Brennilis (réacteur à eau lourde
fonctionnant à l’uranium non enrichi), les réacteurs
graphite-gaz, Superphénix et le réacteur de Chooz
A, tête de série du démantèlement de la filière des
réacteurs à eau pressurisée.
Chez AREVA, ce sont sept installations qui sont
actuellement arrêtées dont l’usine de la Hague
UP2 800 et l’usine Georges Besse 1, mise à l’arrêt
en 2012 et qui devrait être progressivement dé-
mantelée entre 2020 et 2032.
Au sein du CEA, la situation est particulièrement
complexe du fait de la diversité des installations,
souvent construites dans les premiers temps de
l’épopée du nucléaire français, à une époque où les
règles de construction et d’exploitation n’avaient
pas la rigueur qu’on leur connaît aujourd’hui. Vingt
deux installations nucléaires civiles, la plupart des
1 Les chiffres qui suivent, relatifs au nombre d’installations arrê-tées ou en exploitation, sont extraits du rapport 2014 de la Cour des Comptes sur le coût de production de l’électricité nucléaire.
LES GRANDS DOSSIERS Introduction
Le démantèlement des installations nucléaires
Jean-Pierre Hauet
REE N°1/2016 � 39
Introduction LES GRANDS DOSSIERS
installations de recherche, seraient ainsi arrêtées au
sein du Commissariat dont les sites emblématiques
de Fontenay-aux-Roses et de Marcoule, l’un et
l’autre ayant servi de berceaux au nucléaire français.
Au total, ce sont plus d’une trentaine d’installa-
tions qui sont effectivement engagées dans la voie
du démantèlement avec des problématiques très
diverses et des calendriers qui s’étalent jusqu'au
delà de 2030. Pour les installations EDF déjà arrê-
tées, il était estimé à fin 2011 que l’avancement
physique de leur démantèlement était de 32,7 %.
Puis viendra, le moment venu, le démantèle-
ment des installations en exploitation aujourd’hui :
62 pour EDF (dont 58 réacteurs), 11 pour Areva
et 22 pour le CEA. L’enjeu financier de ces opéra-
tions est important ; il a été estimé par la Cour des
comptes, à la fin 2013, à 22 448 M� en charges
restantes pour les 74 installations d’EDF concer-
nées dont 2 890 M� pour les 12 déjà arrêtées et
19 558 M� pour celles qui le seront un jour. En
ordre de grandeur, il est estimé que le coût de
démantèlement d’un site standard de quatre réac-
teurs de 900 MW s’élève à 1 Md�.
Pour Areva, les charges restantes de démantè-
lement sont évaluées à 7 873 M� dont 5 045 M�
pour les installations en exploitation. Au sein du
CEA, ces charges sont estimées pour les installa-
tions civiles à 3 789 M� dont 1 245 M� pour les
installations en exploitation.
Au total, selon la Cour des comptes, l’enjeu
du démantèlement est, « en reste à payer », de
34,3 Md� pour l’ensemble des installations concer-
nées. Ce chiffre peut paraître très élevé, d’autant
plus qu’il donne fréquemment matière à débat,
ayant été revu plusieurs fois à la hausse au cours
des années qui précèdent. Cependant, cet effort
donne lieu à la constitution de provisions sur plu-
sieurs dizaines d’années dont le montant est régu-
lièrement analysé avec la plus grande attention par
la Cour des comptes. Les provisions constituées à
fin 2013 atteignaient 19,6 Md� et sont incrémen-
tées de 515 M� chaque année.
Au total, rapportées au coût total moyen de pro-
duction du parc nucléaire, les charges de démantèle-
ment n’en constituent finalement qu’une part assez
faible que la Cour des comptes évaluait en 2014, par
la méthode du coût courant économique (CCE), aux
environs de 1,6 % du coût de production du kWh
nucléaire, dans l’hypothèse d’une durée de vie de
tous les réacteurs de 50 ans2. C’est dire qu’un ajus-
tement à la hausse des charges de démantèlement,
fût-il significatif, n’affecterait pas notablement la ren-
tabilité économique de la filière nucléaire.
L’ensemble des opérations de démantèlement
se fait sous le contrôle étroit de l’ASN (Autorité de
sûreté nucléaire) qui émet périodiquement des
avis sur les prescriptions à respecter et instruit les
demandes de déclassement des installations nu-
cléaires, en application de l’article 40 du décret du
20 novembre 2007. Le Parlement exerce également
un contrôle vigilant de ces activités, dans le cadre
de la loi du 13 juin 2006 relative à la transparence
et à la sécurité en matière nucléaire. La loi sur la
transition énergétique et la croissance verte du
17 août 2015 a précisé et renforcé dans son article
127 les clauses applicables à l’arrêt définitif, au dé-
mantèlement et au déclassement des installations
nucléaires de base.
Même si la plupart des chantiers engagés sont
encore loin d’être achevés, il existe dès à présent une
diversité d’expériences qui permet de comparer les
méthodes et de valider les techniques. L’industrie
française s’est ainsi d’ores et déjà constituée une base
de références solide dans le domaine du démantè-
lement, véritable domaine technologique de pointe
associant des compétences très diverses en matière
de réalisation d’opérations délicates en milieu hos-
tile (simulation numérique des stratégies, robotique,
découpe…), d’évaluation et de décontamination des
sols, de caractérisation, conditionnement, transport
et stockage des effluents et des déchets, etc.
On conçoit que ces opérations nécessitent la
mise au point d’outils, de méthodes et de moyens
très innovants dont certains ont d’ailleurs pu être
testés dans le cadre des opérations qui ont fait suite
à l’accident de Fukushima. Elles nécessitent égale-
ment des personnels très qualifiés et entraînés à
mener, sans précipitation, des opérations difficiles
dans un environnement hostile.
2 Le chiffre de 1,6 % n’a trait qu’au démantèlement proprement dit. L’ensemble des charges futures, incluant la gestion des dé-chets et du combustible usé conduit à 7,5 %.
40 ��REE N°1/2016
Le présent dossier, publié en deux parties, vise à
montrer la contribution de nos grands acteurs dans
ce domaine où la France s’est déjà forgé une forte
réputation. Un premier article de Laurence Piketty,yy
directrice de l’assainissement et du démantèle-
ment nucléaire au CEA, présente la problématique
et la stratégie générale du démantèlement au sein
du CEA. Un deuxième article, de Cyril Moitrier,rr
Samuel Blanchard et Yves Soulabaille, présente
l’avancement des grands chantiers d’assainissement
et de démantèlement au sein du CEA, en prenant
l’exemple des installations de
Marcoule, site historique de l’in-
dustrie nucléaire française où le
programme UP1 constitue l’un
des plus grands chantiers de
démantèlement du monde. Un
troisième article, de Christine
Georges, chef de programme
R&D pour l’assainissement-dé-
mantèlement au CEA, décrit
les recherches en cours dans le domaine de l’assai-
nissement-démantèlement et les avancées tech-
nologiques auxquelles on peut s’attendre au cours
des prochaines années. En fin, un article de Michel
Dutzer, directeur industriel adjoint de l’Andra et rr
Frédéric Legée, adjoint au directeur industriel de
l’Andra, explique comment il est possible d’opti-
miser l’optimisation de la gestion des déchets en
concevant et en menant les opérations de démantè-
lement de façon coordonnée avec celles de prise en
charge, de valorisation ou de stockage des déchets.
Dans un prochain numéro,
nous publierons deux articles
sur la stratégie d’EDF en ma-
tière de démantèlement et sur
les premiers retours d’expé-
rience du démantèlement de
Chooz A, installation-pilote en
matière de démantèlement des
réacteurs à eau pressurisée. �
Le démantèlement des installations nucléaires à la Direction de l’énergie nucléaire du CEAPar Laurence Piketty ...................................................................................................................................................... p. 41Les chantiers d’assainissement et de démantèlement du CEA Exemple d’un des lots du programme UP1 de MarcoulePar Cyril Moitrier, Samuel Blanchard, Yves Soulabaille .............................................................................. p. 49Recherche et innovation pour l’assainissement-démantèlement Par Christine Georges ...................................................................................................................................................p. 58Optimiser globalement la gestion des déchets radioactifs de démantèlementPar Michel Dutzer, Frédéric Legée ......................................................................................................................... p. 64
LES ARTICLES
LES GRANDS DOSSIERS Introduction
Jean-Pierre Hauet est ingénieur au
corps des Mines. Il est associate partner
de KB Intelligence. Au cours de sa carrière,
il a dirigé les Laboratoires de Marcoussis
du groupe Alcatel-Alsthom et a été Chief
Technology Officer du Groupe ALSTOM.
Il est membre émérite de la SEE et rédac-cc
teur en chef de la REE.
REE N°1/2016 ��41
LE DÉMANTÈLEMENT DES CENTRALES NUCLÉAIRES DOSSIER 1
Le démantèlement des installations nucléaires à la Direction de l’énergie
nucléaire du CEA Par Laurence Piketty
Directrice de l’Assainissement et du démantèlement nucléaire au CEA
Since its creation in 1945, CEA has carried out research programs on civil use of nuclear. CEA has set up and operates various types of installations from research to industry.
There are currently 22 facilities which are in the process of being dismantled by CEA. Dealing with these instal-lations is a long-term programme which is carefully planned and financed in order to optimise its management. The stake for dismantling is to show that we manage rigorously the fuel cycle « back end » with dismantling of shutdown nuclear facilities and also retrieval, conditioning of legacy wastes.CEA’s objective is to carry out its entire Dismantling and Decommissioning program in respect of safety, security, cost and duration with the priority to dismantle the nuclear facilities enclosed in cities, like Grenoble and Fonte-nay- aux-Roses and to dismantle UP1 processing facility in Marcoule, which is one of the biggest D&D project in France and in Europe.The CEA’s strategy is carried out under the umbrella of two 2006 laws: Transparency and Nuclear Safety and Waste management.The feedback experience of CEA could benefit for future dismantling projects, in France and abroad. CEA has also been developing R&D actions for specific issues such as characterization or operation in hostile environment. CEA is convinced that management of the nuclear facilities end-of-life is a key issue for public acceptance.
ABSTRACT
Figure 1 : Opération de découpe d’une cuve dans un sas chantier d’une installation du CEA Saclay en cours de démantèlement.
Crédit photo : CEA.
42 ��REE N°1/2016
LE DÉMANTÈLEMENT DES CENTRALES NUCLÉAIRESDOSSIER 1
Introduction Les activités d’assainissement et de
démantèlement des installations nu-
cléaires en fin de vie constituent pour la
filière nucléaire un enjeu majeur, dont le
bon déroulement confortera la crédibilité
de la filière dans sa capacité à mener à
bien l’ensemble du cycle de vie des ins-
tallations nucléaires. Le démantèlement
représente également un enjeu tech-
nique, industriel et financier considérable.
En France, de nombreuses instal-
lations nucléaires (réacteurs de pro-
duction d’électricité ou expérimentaux,
installations du cycle du combustible,
laboratoires, installations de traitement
d’effluents ou de déchets radioactifs, etc.)
ont été construites depuis les années 50.
Les plus anciennes sont progressivement
arrêtées, puis démantelées.
En 2013, le parc nucléaire français
était composé de 125 installations, dont
plus d’une trentaine en cours de déman-
tèlement, principalement au CEA, chez
EDF et AREVA :
-
loppement (R&D) à Grenoble, Fontenay-
aux-Roses, Marcoule, Saclay (figure 1) et
Cadarache pour le CEA civil ;
réacteurs uranium naturel-graphite-
gaz, Superphénix et un réacteur à eau
pressurisée (Chooz A) ;
Eurodif pour AREVA.
Le démantèlement couvre la réalisa-
tion des activités techniques et admi-
nistratives pour atteindre un état final
prédéfini. Ces activités comprennent
notamment des opérations de démon-
tage d’équipements, d’assainissement
des locaux et des sols, de démantèle-
ment de structures de génie civil, de
traitement, de conditionnement, d’éva-
cuation et d’entreposage de déchets
radioactifs.
L’objectif prioritaire pour mener à
bien ces opérations de démantèlement
consiste à les piloter dans le respect des
règles de sûreté et de minimisation de
l’impact sur l'environnement. Ceci doit
aussi être conduit dans une optique de
développement durable et dans une
logique de maîtrise des coûts à termi-
naison et de tenue des délais, en tirant
sur ce dernier point le bénéfice du retour
d’expérience des travaux réalisés.
Ces opérations recouvrent :
arrêtées ;
déchets (RCD), des effluents anciens
et des combustibles usés ;
-
toires ou l’entreposage sur sites en
attente du stockage définitif.
Périmètres de l’assainisse-ment-démantèlement et de la reprise et du condition-nement des déchets anciens au CEA-DEN
Aujourd’hui, la Direction de l’énergie
nucléaire du CEA (CEA-DEN) est res-
ponsable sur les centres civils de l’assai-
nissement et du démantèlement de 22
soit près des deux tiers des installations
françaises en cours de démantèlement.
L’ensemble des opérations d’assai-
nissement-démantèlement, de RCD, de
traitement/entreposage/transport des
déchets, matières, effluents et combus-
tibles usés, représentent en tout pour le
CEA-DEN plus de 100 projets, de gra-
nulométries différentes. Ils sont menés
de front, avec une priorité donnée aux
opérations conduites sur les sites CEA
de Fontenay-aux-Roses et de Marcoule,
notamment sur l’ancienne usine de trai-
tement des combustibles usés appelée1, ainsi qu’aux opérations de reprise
et conditionnement des déchets anciens
menées à Marcoule et à Cadarache.
1 UP1, mise en service en juillet 1958 à Marcouleet exploitée jusqu’en 1997, avait été construiteau départ pour retraiter le combustible des ré-acteurs G1, G2 et G3 et en récupérer le pluto-nium pour des usages militaires. Dès 1965, lesactivités civiles de l’usine UP1 ont débuté avecle retraitement des combustibles nucléaires dela filière uranium naturel graphite-gaz.
Encadré 1 : Les catégories de déchets radioactifs.Encadré 1 : Les catégories de déchets radioactifs
Les catégories de déchets radioactifsIl existe quatre grandes catégories de déchets radioactifs en fonction de leur
niveau de radioactivité et de leur durée de vie :
France) ;
de Morvilliers et de Soulaines, gérés par l’Agence nationale de gestion des
déchets radioactifs (Andra).
de gestion définitive. Ils sont actuellement conditionnés et entreposés par leurs
producteurs, dans l’attente d’un site de stockage définitif. À terme, ils devraient
être stockés dans des formations géologiques à grande profondeur. C’est le
projet Cigéo dont l’Andra est maître d’ouvrage. Il en va de même pour les dé-
chets FA-VL pour lesquels l’Andra étudie un projet de stockage en subsurface.
REE N°1/2016 � 43
Le démantèlement des installations nucléaires à la Direction de l’énergie nucléaire du CEA
Ces activités mobilisent plus de 850
salariés du CEA et entre 2 000 et 2 500
salariés d’entreprises prestataires, selon
les années.
Des installations variées en termes d’échelles et de spécificités techniques
En parallèle, la Direction des applica-
tions militaires (DAM) du CEA conduit
elle aussi des chantiers d’assainissement-
démantèlement sur les installations du
CEA relevant de sa responsabilité.
La spécificité du CEA-DEN réside
dans la grande variété d’installations
qu’il exploite : réacteurs expérimentaux,
laboratoires de chimie, stations de traite-
ment d’effluents et de déchets, etc. Le
démantèlement de chaque installation
est de ce fait un cas particulier et il n’y
a pas « d’effet de série ». Les opérations
qui peuvent présenter un risque radio-
logique pour les opérateurs sont effec-
tuées à distance au moyen d’engins
robotisés, souvent développés au sein
même du CEA.
La complexité de ces chantiers est
encore accrue par l’ancienneté des ins-
tallations à démanteler. Certaines ont été
la traçabilité de leurs activités n’a pas tou-
-
tions réglementaires successives rendent
inévitables les évolutions des scénarios
de démantèlement, à plus forte raison
pour des chantiers de haute activité radio-
logique et de long terme, dont certains
peuvent durer plus de 30 ans.
Financement
Le financement est assuré de manière
pluriannuelle à travers un financement
dédié : le CEA se conforme à l’article 20
des matières et déchets radioactifs. Il
impose aux exploitants nucléaires d’éva-
luer de manière prudente les charges de
démantèlement de leurs installations et
celles de la gestion des combustibles
usés et déchets radioactifs, de constituer
les provisions afférentes et d’affecter à
titre exclusif à la couverture de ces pro-
visions les actifs nécessaires, présentant
un degré de sécurité et de liquidité suffi-
sant pour répondre à leur objet.
et le CEA ont mis en place des modalités
de gestion de fonds dédiés et des procé-
dures associées : le financement de ces
fonds est régi par une convention-cadre
Des incertitudes significatives sub-
sistent au niveau de l’évaluation des
charges, liées à cinq causes principales
susceptibles de conduire à réévaluer les
scénarios des opérations et par voie de
conséquence les coûts à terminaison
des projets d’assainissement-démantè-
lement et de reprise et conditionnement
des déchets anciens. Ces cinq causes
exogènes sont les suivantes :
initial2. Ainsi, certaines opérations en
cours ont mis en évidence des problé-
matiques non prévues, des difficultés
techniques et des évolutions des don-
nées d’entrée, qui modifient de façon
importante le déroulement contrac-
tuel et le scénario des opérations de
démantèlement ;
et réglementaires ou des durées d’ins-
truction des dossiers plus longues que
complémentaires de sûreté3 génèrent
des travaux significatifs d’amélioration
de la sûreté y compris dans les installa-
tions en cours ou en voie de démantèle-
ment. Autre exemple, la règlementation
amiante de 2012 induit des contraintes
qui viennent s’additionner à la réglemen-
tation propre aux installations nucléaires ;
2 Par état initial, on entend état précis de l’instal-lation au démarrage des opérations d’assainis-sement et de démantèlement.
3 Demandées par l’Autorité de sûreté nucléaire (ASN) aux exploitants nucléaires suite à l’acci-dent de Fukushima.
déchets radioactifs, en particulier du
MA-VL, et des spécifications de condi-
tionnement des déchets. Il existe par
exemple un risque de non-acceptation
de certains colis de déchets MA-VL
ainsi qu’un risque de décalage de la
mise en service industrielle du stoc-
kage Cigéo ; la décision de construire
un site de subsurface pour les colis
de déchets FA-VL n’a par ailleurs pas
encore été prise ;
final, pour les installations démantelées
et assainies, avant leur déclassement.
Ce point est actuellement en cours de
discussion avec les autorités de sûreté ;
-
nancières en cas d’augmentation des
charges, conduit à modifier le planning
des opérations ainsi qu’à des surcoûts
à terminaison.
Stratégie de démantèlement au CEA
L’arrêt progressif des installations nu-
cléaires du CEA est dû soit à leur obso-
lescence technique, soit au fait qu’elles
ne correspondent plus aux normes ac-
tuelles de sûreté, soit à l’évolution des
programmes du CEA-DEN.
La stratégie du CEA est conforme aux
recommandations des autorités de sûre-
té nucléaire : démantèlement immédiat,
chaque fois que cela est réalisable, afin
de diminuer les risques le plus rapide-
ment possible. Dans un contexte budgé-
taire contraint, et devant l’augmentation
progressive des installations à l’arrêt, le
CEA priorise le démantèlement des ins-
tallations présentant les risques radiolo-
giques les plus importants.
La stratégie de démantèlement du
CEA repose, pour l’état final recherché
à l’issue des opérations de démantè-
lement, sur une installation assainie,
c’est-à-dire dont la radioactivité résiduelle
a été enlevée. Si, pour des raisons tech-
Ces activités mobilisent plus de 850
salariés du CEA et entre 2 000 et 2 500
salariés d’entreprises prestataires, selon
les années.
Des installations variées en termes d’échelleset de spécificités techniques
En parallèle, la Direction des applica-
tions militaires (DAM) du CEA conduit
elle aussi des chantiers d’assainissement-
démantèlement sur les installations du
CEA relevant de sa responsabilité.
La spécificité du CEA-DEN réside
dans la grande variété d’installations
qu’il exploite : réacteurs expérimentaux,
laboratoires de chimie, stations de traite-
ment d’effluents et de déchets, etc. Le
démantèlement de chaque installation
est de ce fait un cas particulier et il n’y
a pas « d’effet de série ». Les opérations
qui peuvent présenter un risque radio-
logique pour les opérateurs sont effec-
tuées à distance au moyen d’engins
robotisés, souvent développés au sein
même du CEA.
La complexité de ces chantiers est
encore accrue par l’ancienneté des ins-
tallations à démanteler. Certaines ont été
la traçabilité de leurs activités n’a pas tou-
-
tions réglementaires successives rendent
inévitables les évolutions des scénarios
de démantèlement, à plus forte raison
pour des chantiers de haute activité radio-
logique et de long terme, dont certains
peuvent durer plus de 30 ans.
Financement
Le financement est assuré de manière
pluriannuelle à travers un financement
dédié : le CEA se conforme à l’article 20
des matières et déchets radioactifs. Il
impose aux exploitants nucléaires d’éva-
luer de manière prudente les charges de
démantèlement de leurs installations et
celles de la gestion des combustibles
usés et déchets radioactifs, de constituer
les provisions afférentes et d’affecter à
titre exclusif à la couverture de ces pro-
visions les actifs nécessaires, présentant
un degré de sécurité et de liquidité suffi-
sant pour répondre à leur objet.
et le CEA ont mis en place des modalités
de gestion de fonds dédiés et des procé-
dures associées : le financement de ces
fonds est régi par une convention-cadre
Des incertitudes significatives sub-
sistent au niveau de l’évaluation des
charges, liées à cinq causes principales
susceptibles de conduire à réévaluer les
scénarios des opérations et par voie de
conséquence les coûts à terminaison
des projets d’assainissement-démantè-
lement et de reprise et conditionnement
des déchets anciens. Ces cinq causes
exogènes sont les suivantes :
initial2. Ainsi, certaines opérations en
cours ont mis en évidence des problé-
matiques non prévues, des difficultés
techniques et des évolutions des don-
nées d’entrée, qui modifient de façon
importante le déroulement contrac-
tuel et le scénario des opérations de
démantèlement ;
et réglementaires ou des durées d’ins-
truction des dossiers plus longues que
complémentaires de sûreté3 génèrent
des travaux significatifs d’amélioration
de la sûreté y compris dans les installa-
tions en cours ou en voie de démantèle-
ment. Autre exemple, la règlementation
amiante de 2012 induit des contraintes
qui viennent s’additionner à la réglemen-
tation propre aux installations nucléaires ;
2 Par état initial, on entend état précis de l’instal-lation au démarrage des opérations d’assainis-sement et de démantèlement.
3 Demandées par l’Autorité de sûreté nucléaire(ASN) aux exploitants nucléaires suite à l’acci-dent de Fukushima.
déchets radioactifs, en particulier du
MA-VL, et des spécifications de condi-
tionnement des déchets. Il existe par
exemple un risque de non-acceptation
de certains colis de déchets MA-VL
ainsi qu’un risque de décalage de la
mise en service industrielle du stoc-
kage Cigéo ; la décision de construire
un site de subsurface pour les colis
de déchets FA-VL n’a par ailleurs pas
encore été prise ;
final, pour les installations démantelées
et assainies, avant leur déclassement.
Ce point est actuellement en cours de
discussion avec les autorités de sûreté ;
-
nancières en cas d’augmentation des
charges, conduit à modifier le planning
des opérations ainsi qu’à des surcoûts
à terminaison.
Stratégie de démantèlement au CEA
L’arrêt progressif des installations nu-
cléaires du CEA est dû soit à leur obso-
lescence technique, soit au fait qu’elles
ne correspondent plus aux normes ac-
tuelles de sûreté, soit à l’évolution des
programmes du CEA-DEN.
La stratégie du CEA est conforme aux
recommandations des autorités de sûre-
té nucléaire : démantèlement immédiat,
chaque fois que cela est réalisable, afin
de diminuer les risques le plus rapide-
ment possible. Dans un contexte budgé-
taire contraint, et devant l’augmentation
progressive des installations à l’arrêt, le
CEA priorise le démantèlement des ins-
tallations présentant les risques radiolo-
giques les plus importants.
La stratégie de démantèlement du
CEA repose, pour l’état final recherché
à l’issue des opérations de démantè-
lement, sur une installation assainie,
c’est-à-dire dont la radioactivité résiduelle
a été enlevée. Si, pour des raisons tech-
MEA 2015
L’avion tout électrique
est déjà une réalité, comme
en témoignent les vols très
médiatisés de Solarimpulse
ou de l’E-fan ; le premier
n’est toutefois qu’un dé-
monstrateur technologique
qui n’aura pas de prolon-
gement commercial avant
longtemps, tandis que le
second est déjà en phase de production – comme
plusieurs concurrents étrangers de même gabarit
– et s’attaque au créneau des écoles de pilotage.
Il souffre cependant d’une autonomie encore trop
réduite pour percer réellement dans le monde de
l’aviation générale.
Mais les investissements de l’automobile pour
développer des batteries à plus forte densité
d’énergie auront à l’évidence des retombées sur
l’aéronautique, et ce d’autant plus que la moto-
risation électrique se prête au fractionnement,
qui peut concrétiser l’un des rêves des aérody-
namiciens, « l’aspiration de couche limite », qui
renforce dans un large domaine de vol l’effica-
cité des voilures. Cette propriété justifie une
étape intermédiaire à la propulsion décarbonée,
envisagée même pour des avions de transport
beaucoup plus lourds que les précédents : la pro-
pulsion hybride. Celle-ci exploitera le principe de
la motorisation électrique répartie sur une grande
partie de la voilure, associée à une production
électrique par une pile à combustible alimentée
en kérosène, en attendant la mise au point de
procédés fiables de production, distribution et
stockage de l’hydrogène, développés eux aussi
pour les transports terrestres1.
Sans attendre l’exploitation des ruptures tech-
nologiques que nous venons d’évoquer – mais dont
la mise en œuvre nécessitera de longues étapes de
1 Voir le dossier sur ce sujet dans l’édition 2015-2 de la REE
démonstration de sécurité
avant l’indispensable certi-
fication aéronautique – des
progrès incrémentaux sont
régulièrement enregistrés
depuis plusieurs années
pour réduire la consom-
mation de kérosène. Ces
progrès se traduisent par
du « plus électrique » dans
les modèles récemment mis en service, comme
le Boeing 787 qui dispose à bord de plus de
1 MW soit cinq fois plus que ses équivalents de
la génération précédente. Cette évolution se tra-
duit notamment par le remplacement de tout ou
partie des équipements hydrauliques (trains, com-
mandes de vol) et à air comprimé (conditionne-
ment d’air par prélèvement moteur) qui ont fait
leurs preuves depuis des décennies mais sont
loin de présenter la souplesse, la maintenabilité,
les possibilités d’allègement liées aux générateurs,
moteurs ou actuateurs électriques, et à l’électro-
nique de puissance actuellement disponibles. En
outre, le “green taxiing” est désormais possible
grâce à la motorisation électrique du train avant,
permettant le roulage au sol « réacteurs éteints » ce
qui présente un avantage environnemental certain
pour les usagers et les riverains des aéroports, ain-
si qu’un gain en consommation qui peut atteindre
5 % sur des vols court courrier.
La conférence More Electric Aircraft organisée
conjointement par 3AF et SEE en février 2015
à Toulouse a réuni 260 participants avec une
centaine de présentations et une quinzaine de
stands industriels qui ont permis une couverture
exhaustive de l’état de l’art en Europe et au-delà,
ainsi que des perspectives de ce vaste domaine.
Nous avons retenu quelques-unes de ces pré-
sentations pour constituer le présent dossier,
après mise à jour et compléments éventuels par
leurs auteurs.
Introduction
70 ��REE N°1/2016
L’avion plus électrique, ���������� ������ ����� ��
Florent Christophe
Jean-Charles Gautherot
Introduction MEA 2015
Une équipe de chercheurs grenoblois et toulou-
sains – qui entretient des collaborations régulières
avec Airbus – présente dans le premier document
une méthodologie de concep-
tion optimisée des filtres que
le réseau électrique doit incor-
porer pour faire face à la pro-
blématique de l’électronique
de puissance et des charges
non linéaires introduisant des
taux d’harmoniques impor-
tants en présence de fortes va-
riations de charge rencontrées
dans l’avion plus électrique.
Le document normatif RTCA
DO160 qui sert de base à la
qualification des équipements
et systèmes aéronautiques est
d’ailleurs régulièrement mis à
jour pour prendre en compte
ces évolutions.
Le document rédigé par
des chercheurs du CEA-Tech
présente l’état de l’art et les
perspectives d’évolution des
différentes technologies de
batteries et évoque au pas-
sage celle des piles à combus-
tible. L’augmentation d’énergie
massique des batteries par un
facteur 2 à 5 selon l’échéance considérée, élargit clai-
rement leur domaine d’application en aéronautique,
mais des verrous potentiels sont identifiés, liés aux
conditions d’environnement, à
la sécurité, au nombre maximal
de cycles et au coût des consti-
tuants.
Un exercice de prospec-
tive, conduit conjointement
avec le CEA, a servi de point
de départ aux travaux de
l’ONERA qui expose, dans la
dernière présentation de ce
dossier, une vision moyen
terme d’aviation légère tout
électrique qui s’élargit au
transport régional et précise
l’ensemble des technologies
critiques qui restent à adap-
ter ou à mettre au point.
Nul doute que la pro-
chaine édition de la confé-
rence More Electric Aircraft, à
Bordeaux début février 2017,
apportera de nouvelles infor-
mations autant sur les déve-
loppements industriels en
cours que sur les travaux des
laboratoires de recherche. �
Dimensionnement optimal d'un réseau électrique aéronautiquePar D. Hadbi, X. Roboam, B Sareni, N. Retiere, F. Wurtz ............................................................................. p. 72Key Drivers for Aeronautic BatteriesPar Florence Fusalba, Jean Oriol & Eric Pinton ........................................................................................... p. 80Electric Distributed Propulsion for Small Business AircraftPar Jean Hermetz, Michael Ridel ........................................................................................................................ p. 86
LES ARTICLES
REE N°1/2016 � 71
Florent Christophe, membre émérite SEE, edirige le département DEMR - Electroma-
gnétisme et radar, à l’ONERA Toulouse, dont
l’équipe Compatibilité électromagnétique
est impliquée dans des travaux sur l’avion
plus électrique et la prospective vers le tout
électrique. Il est membre du Conseil de
la science et de la technologie de l’OTAN.
Ancien président du groupe régional
Midi-Pyrénées de la SEE, il a créé ce qui
est devenu le cycle des conférences More
Electric Aircraft organisées conjointement
par 3AF et SEE en alternance entre Toulouse
(2009, 2015) et Bordeaux (2012, 2017).
Jean-Charles Gautherot, membre senior tde la SEE et de la 3AF, retraité de la DGA, a
dirigé le département Environnement élec-cc
tromagnétique puis la division Equipements
et systèmes du CEAT (Centre d’essais aéro-
nautique de Toulouse, à présent DGA/TA)
qui avait notamment en charge la qualifica-
tion en environnements mécanique, clima-
tique et électromagnétique (foudre, champs
forts, CEM) des systèmes électroniques
embarqués sur aéronefs militaires. Compte
tenu de ces compétences, il a été également
sollicité par les autorités de certification
pour divers programmes civils (A320, A340,
hélicoptères divers…) notamment lors de la
mise en service de systèmes électroniques
critiques ou essentiels (calculateurs de
commandes de vol électriques, régulation
moteur pleine autorité, etc.).
DES AVIONS PLUS ÉLECTRIQUESMEA 2015
72 ��REE N°1/2016
IntroductionDans le contexte de l’avion plus électrique [1], les réseaux
électriques embarqués sont en pleine évolution du fait de
l’intégration continue de nouvelles technologies qui modi-
fient en profondeur les architectures et le fonctionnement
de ces systèmes [2], [3]. Cette évolution nécessite une mise
à jour des méthodes et outils utilisés tout au long de la du-
rée de vie d’un système et en particulier dans la phase de
conception [4], [5].
Conventionnellement, on se base sur des approches
d’analyse et sur l’expertise des équipes d’ingénierie avec
une pénétration progressive des méthodes d’optimisation
à l’échelle locale, pour quelques équipements [6]. Chaque
sous-système du réseau est dimensionné indépendamment
des autres sous-systèmes par son équipementier qui utilise
son propre modèle et ses propres outils, cette approche de
conception classique est connue sous le nom de « l’approche
mécaniste ».
L’approche diamétralement opposée à cette vision mé-
caniste consiste à regrouper l’ensemble des sous-systèmes
dans un seul modèle géré par une seule et unique boucle
d’optimisation. Cette approche s’appelle « l’approche glo-
bale ». Elle permet d’appréhender tous les couplages entre
les différents sous-systèmes pour converger vers le résultat
optimal mais présente un double inconvénient :
pratique : la complexité des réseaux électriques ne permet
pas de résoudre l’ensemble du problème au sein d’une
seule et même boucle.
équipementiers avec une intégration de tous les modèles
de conception au sein d’un unique processus (et d’une
unique plate-forme) [2], [7].
La recherche de compromis entre résultat globalement
optimal, complexité de résolution et collaboration modé-
rée nous a conduit à réfléchir à différentes approches inter-
médiaires entre les deux visions précédentes en exploitant
différentes pistes : le séquencement des optimisations sous-
systèmes, l’échantillonnage des variables globales [3] et enfin
l’optimisation multiniveau [8].
Cas d’étude pour la conception optimale d’un réseau électrique de bord simplifié
Les réseaux électriques embarqués concentrent un
nombre élevé de sources et de charges connectées à diffé-
rents bus. Volontairement très simplifié, l’objet du cas d’étude
est d’illustrer l’applicabilité des méthodes d’optimisation au
regard de la complexité finale du système. Dans notre travail
de formulation des approches de conception pour l’optimi-
sation système, nous nous sommes limités, dans un premier
temps, à un cas d’étude très simplifié d’un réseau 540 V
HVDC, mono-source mono-charge (figure 1). Le lecteur
trouvera dans [7] l’application des méthodes d’optimisation
collaboratives les plus prometteuses au cas d’un réseau plus
représentatif de la réalité.
La source représente un canal de génération 40 kVA qui
d'un redresseur triphasé à diodes et d’un filtre de sortie capa-
Dimensionnement optimal d’un réseau électrique aéronautique
Comparaison entre différentes stratégies de conceptionPar Djamel Hadbi1, 2, Xavier Roboam 1, Bruno Sareni1, Nicolas Retière2, Frederic Wurtz2
Université de Toulouse, LAPLACE, UMR CNRS-INPT-UPS1, Université de Grenoble Alpes, G2Elab2
Electric aircraft network is a complex system containing high number of subsystems provided by dif-ferent suppliers which must cooperate in safe and light weight operation. In the current state, the
network conceptual design is based on standards defined by the aircraft manufacturer, each subsystem being designed separately by suppliers, according to these standards but without any other collaboration. With this classical approach called “mechanistic approach”, the whole weight of the aircraft network is overestimated which leads to additional operating cost with fuel burn penalty.To face this problem, many optimization based design strategies are studied. In this paper, three original ap-proaches are presented: the Extended Pareto Front Method (EPFM), a sequential collaborative approach and the multilevel design approach. These approaches are discussed regarding the top goal which is the weight minimi-zation but also the required computation and collaboration costs. A simplified case study of High Voltage Direct current (HVDC) filters sizing is used to establish the comparison between these approaches.
ABSTRACT
REE N°1/2016 � 73
Dimensionnement optimal d’un réseau électrique aéronautique
citif. La charge comprend un moteur à grande vitesse d’une
de type LC avec une capacité amortie. Le dimensionnement
du réseau se limite aux filtres, c’est pourquoi les convertis-
seurs et les machines tournantes ont été remplacés par des
sources de courant représentant les harmoniques typiques
du courant redresseur côté continu [Ired] et du courant ondu-
leur [Iond] côté continu (figure 2) [7].
Les spectres harmoniques des courants du redresseur et de
l’onduleur considérés ont été construits sur la base des don-
nées de chaque sous-système résumées dans le tableau 1.
Nous nous sommes limités à un nombre réduit de fréquences
caractéristiques pour lesquelles les contraintes sont les plus
critiques pour le dimensionnement [7].
L’approche mécaniste (classique)Dans l’approche classique, chaque sous-système est di-
mensionné séparément. L’équipementier utilise ses propres
modèles et outils pour optimiser localement le dimensionne-
ment du sous-système au regard de la norme uniquement.
Dans l’optimisation mécaniste de la source, l’équipemen-
tier considère ainsi un état de pollution du courant de bus
qu’il assimile au pire cas de pollution autorisé par la norme
et cherche à minimiser la masse du filtre en respectant la
contrainte sur la qualité de la tension [9]. Il agit sur la seule
variable de décision : la capacité Cs (figure 3).
Cette optimisation, comme l’ensemble des optimisations
présentées dans cet article, a été faite dans l’environnement
CADES [10]. La masse obtenue est de 2,17 kg, les niveaux
des harmoniques de tension et de courant vus par la source
sont donnés dans la figure 4.
Dans l’optimisation mécaniste de la charge, l’équipemen-
tier considère une tension de bus dont la pollution est assimi-
lée au pire cas de la norme. Il minimise la masse du filtre en
respectant les contraintes de qualité sur le courant absorbé
par le filtre côté DC et cela en agissant sur les variables de
décision : C2C , C22 1, L11 et R (figure 5) [9].
Figure 1 : Illustration du cas d’étude simplifié.
Figure 2 : Réseau électrique simplifié.
Tableau 2 : Valeurs des harmoniques qui polluent le réseau.
Figure 3 : Description schématique du problème d’optimisationmécaniste de la source.
Tableau 1 : Fréquences caractéristiques du système.
DES AVIONS PLUS ÉLECTRIQUESMEA 2015
74 � REE N°1/2016
Approche globale
La masse obtenue est de 2,24 kg ; les niveaux des har-rr
moniques de tension et de courant vus par la charge sont
donnés dans la figure 6.
Dans les deux cas (source et charge), on constate qu’une
(et une seule) fréquence caractéristique se trouve en butée
à l’issue de l’optimisation.
Approche globaleDans cette approche, les deux filtres sont considérés
comme un seul système, il est donc nécessaire de partager
les modèles des équipementiers pour construire le modèle
système. L’ensemble est optimisé simultanément par le
même outil, l’objectif est de minimiser la masse totale des
filtres en respectant les contraintes de qualité sur la tension
et sur le courant et cela en agissant sur tous les paramètres
des filtres : Cs , C2C , C1 , L et R (figure 7) [9].
Figure 4 : Harmoniques de tension et de courant vus par la source dans l’optimisation mécaniste.
Figure 5 : Description schématique du problème d’optimisation mécaniste de la charge.
Figure 6 : Harmoniques de tension et de courant vus par la chargedans l’optimisation mécaniste.
Figure 7 : Description schématique du problème d’optimisation globale du système.
96 ��REE N°1/2016
GROS PLAN SUR
IntroductionQu’est-ce que le temps ?
Nous n’en savons rien et
donc nous laisserons
cette question aux philo-
sophes et aux théoriciens.
Nous adopterons le point
de vue d’Einstein qui écri-
vait : « Il semblerait qu’on
pourrait écarter les diffi-
cultés concernant la défi-
nition du « temps » si l’on
substituait à ce dernier terme l’expression « position de la petite
aiguille de ma montre ». Une telle définition suffit en effet si elle
concerne uniquement le lieu où se trouve l’horloge »1. Nous
savons en effet mesurer le temps, ou plutôt mesurer un temps
écoulé, c’est-à-dire une durée, de même qu’on mesure une dis-
tance entre deux points. Et de même qu’on peut situer un point
dans l’espace connaissant sa distance à des points de référence,
on peut dater un événement à partir du temps écoulé entre cet
événement et un événement de référence.
Pour mesurer une grandeur physique, il faut une unité
et un instrument de mesure. Il y a deux façons possibles :
utiliser un phénomène continu et si possible linéaire (gno-
mon, horloges basées sur l’écoulement d’un fluide, bougies, 14C, angle de rotation de la terre, etc.), ou un phénomène
périodique dont on compte les périodes (jours, lunaisons,
crues du Nil, pouls, oscillations d’un pendule, vibrations mé-
caniques, onde, etc.). Ce comptage établit ce qu’on appelle
une échelle de temps à partir de laquelle on peut mesurer
une durée ou dater un évènement.
Dans cet article, nous allons tout d’abord rappeler quelle
est l’unité de temps avant de passer en revue quelques ins-
truments de mesure : les horloges.
L’unité de temps L’unité de temps est la seconde, unité de base du sys-
tème international (SI), de symbole s. Son nom provient de
1 Einstein – Sur l’électrodynamique des corps en mouvement – Œuvres choisies, Editions du Seuil.
la francisation écourtée
de l’expression latine
médiévale minutum
secunda, qui signifiait
littéralement minute
de second rang, c’est-
à-dire seconde division
de l’heure, minutum
signifiant petite partie
Première définition
Il semble que la se-
conde ait été définie la première fois autour de l’an mil par
Al-Biruni, originaire de l’Etat du Khwarizm (aujourd’hui situé
en Ouzbékistan) à partir de la durée séparant deux nouvelles
lunes, comme la 1/86 400e partie du jour moyen ; c’est-à-
dire 1/(24 x 60 x 60). La division du jour moyen en 24 heures
remonterait aux Egyptiens qui divisaient la journée et la nuit
en 12 heures (de durées inégales) chacune, et la division
en soixante serait un héritage des babyloniens. Jour moyen
parce qu’on savait déjà à l’époque de Ptolémée (Alexandrie,
IIe siècle) que la durée du jour varie au cours de l’année,
d’environ 30 min ; c’est la fameuse équation du temps que
connaissent bien les amateurs de cadrans solaires. Ce temps
« corrigé » n’est valable qu’au méridien du lieu. A la fin du XIXe
siècle, et jusqu’au début du XXe siècle, il a progressivement
été convenu d’une « heure universelle » correspondant au
méridien de Greenwich, c’est le temps universel (TU ou UT)
défini comme le temps solaire moyen pour le méridien ori-
gine, augmenté de 12 heures. Augmenté de 12 h, parce que
pour les astronomes il est 0 h en temps solaire à midi.
Cette définition de la seconde devait perdurer jusqu’en
1960. Curieusement elle est restée tacite et, à notre connais-
sance, n’a jamais été énoncée officiellement par une institu-
tion internationale.
Deuxième définition et première définition officielle
On savait que la vitesse de rotation de la Terre subit une
lente décroissance, de quelques ms par siècle, due aux effets
La mesure du temps aujourd’hui
This is a short review of the state of the art of the measurement of time in the metrology laboratories. After a brief recall of the successive definitions of the second, now defined on an atomic transition of the caesium atom,
we present today atomic clocks: the Cs beam clock, still the workhorse of time metrology, and the Cs fountain clock based on cold atoms, which revolutionized the field. A promising new generation based on higher frequency transitions is coming, the optical clocks, the strontium clock is given as an example. Afterwards a few methods of clock comparison and clock signal dissemination are addressed.
ABSTRACT
E. de Clercq SYRTE,
Observatoire de Paris
T. Zanon-Willette Observatoire
de Paris et UPMC
O. Acef SYRTE,
Observatoire de Paris
REE N°1/2016 � 97
La mesure du temps aujourd’hui
de marées. Ainsi, au temps des dinosaures, la durée du jour
devait être inférieure à vingt de nos heures actuelles. Elle
deviendrait égale à 28 jours actuels dans quelques milliards
d’années, lorsque la Terre présentera toujours la même face
à la Lune, en attendant qu’elle présente toujours la même
face au Soleil. Dans les années 30, il fut mis en évidence
des irrégularités plus importantes dans la rotation de la Terre,
de quelques dizaines de ms par an, liées au fait que la Terre
n’est pas un solide indéformable, aux effets atmosphériques,
aux courants marins, etc. C’est pourquoi il fut décidé de défi-
nir la seconde à partir de la révolution de la Terre autour du
soleil (sa période est une année tropique). La 11e Conférence
générale des poids et mesures (CGPM) ratifiait la nouvelle
définition en 1960 :
« La seconde est la fraction 1/31 556 925, 9747 de l’an-
née tropique pour 1900 janvier 0 à 12 heures de temps
des éphémérides ».
C’est la seconde des éphémérides, et l’échelle de temps
associée est le temps des éphémérides (TE, ou ET). L’écri-
ture « 1900 janvier 0 à 12 heures » traduite en langage cou-
rant est le 31 décembre 1899 à midi. L’étrangeté de cette
définition tient au fait que l’année tropique 1900 n’était pas
mesurée mais calculée à partir d’une équation décrivant une
année tropique moyenne de durée dépendante du temps,
d’où la référence à une année tropique « instantanée ».
La durée de l’année tropique 1900 est environ 365 jours
(de 86 400 s), 5 h, 48 min, 45,97 s. Cette définition n’était
pas pratique ; en réalité c’était le mouvement orbital de la
Lune qui était observé et avait l’inconvénient qu’une mesure
de temps devait attendre quelques années pour être raccor-
dée avec précision à la seconde du SI. Un autre inconvénient
est qu’elle est basée sur la durée moyenne de la seconde des
XVIIIe et XIXe siècles, durée inférieure à celle de la seconde
de temps moyen en 1960. Cette différence explique, pour
une majeure partie, la fréquence à laquelle on est obligé de
rajouter des secondes intercalaires de nos jours.
Troisième définitionSuite aux travaux de physique fondamentale menés dans
les années 30-40 à l’université Columbia (Etats-Unis) par
Rabi, Zacharias, Ramsey et leur équipe sur la résonance ma-
gnétique et les jets atomiques et moléculaires, Zacharias dé-
veloppa le premier prototype commercial d’horloge atomique
à césium en 1955, l’Atomichron. La même année Essen et
Paris réalisaient au National Physical Laboratory (Angleterre)
la première horloge à césium de laboratoire qu’ils compa-
raient indirectement via un oscillateur à quartz à une échelle
de temps provisoire de l’observatoire de Greenwich. Le résul-
tat publié sous le titre “An atomic standard of frequency and
time interval” (Nature, vol. 176, p. 280, 1955) donne pour
la fréquence du Cs : 9 192 631 830 ±10 c/s (cycles par
seconde), soit une exactitude relative de 1´10-9. Après trois
ans de mesure en collaboration avec Markowitz et Hall de
l’Observatoire naval de Washington (USNO), ils publiaient
une nouvelle mesure en termes de seconde des éphémé-
rides : « 9 192 631 770 ± 20 cycles per second (of E.T.) at
1957.0 » (Physical Review Letters, vol. 1, p. 105, 1958), dont
l’exactitude était surtout limitée par la détermination de la
seconde des éphémérides. En 1967, la 13e Conférence géné-
rale des poids et mesures abrogea la précédente définition et
décida en se basant sur cette mesure, que :
« La seconde est la durée de 9 192 631 770 périodes de
la radiation correspondant à la transition entre les deux
niveaux hyperfins de l’état fondamental de l’atome de
césium 133 ».
Lors de sa session de 1997 le Comité international des
poids et mesures a précisé que : « Cette définition se réfère
à un atome de césium au repos, à une température de 0 K ».
L’exactitude relative des horloges à césium était alors de
l’ordre de 10-12. Cette définition repose sur l’hypothèse que
tous les atomes de Cs sont identiques et que leurs propriétés
sont invariantes dans le temps et l’espace. L’échelle de temps
associée est le temps atomique international (TAI). Sa stabi-
lité et sa pérennité sont assurées par environ 300 horloges à
césium commerciales et 100 masers à hydrogène, apparte-
nant à plus de 70 laboratoires de métrologie répartis dans le
monde entier. En France, c’est le laboratoire Systèmes de ré-
férence temps espace (LNE-SYRTE) de l’Observatoire de Pa-
ris qui est chargé par le Laboratoire national de métrologie et
d’essais (LNE) de la responsabilité des références nationales
de temps et de fréquence. A partir des données d’intercom-
paraison de l’ensemble de ces horloges, le Bureau interna-
tional des poids et mesures (BIPM) établit une moyenne
pondérée, appelée temps atomique international (TAI),
dont l’exactitude de l’intervalle unitaire (la seconde du TAI)
est assurée par quelques horloges ou étalons primaires. En
2014, deux horloges à jet atomique et 11 horloges à fontaine
atomique (voir plus loin) ont ainsi contribué à l’exactitude. Le
TAI est une échelle de temps papier, accessible avec retard,
c’est-à-dire que le BIPM diffuse chaque mois le résultat sous
la forme d’avance ou retard de chaque horloge par rapport
au TAI tous les cinq jours du mois précédent. Pour s’y raccor-
der il faut donc raccorder son horloge à une horloge partici-
pant au TAI. L’exactitude de la seconde du TAI est d’environ
2.10-16.
Si l’on reprend la citation d’Einstein, chaque horloge ne
donne que son temps propre. En effet, alors que Galilée et
Newton considéraient un temps absolu, la relativité donne
98 ��REE N°1/2016
GROS PLAN SUR
au temps une signification uniquement locale, c’est le temps
propre. En relativité générale, au-delà du voisinage immédiat
de l’horloge, avant de parler de temps, il faut d’abord défi-
nir un système de coordonnées spatio-temporel ; le temps
correspondant est le temps-coordonnée. Le TAI est ainsi
un temps-coordonnée défini sur le géoïde en rotation. La
seconde du SI est une seconde de temps propre, alors que
l’intervalle unitaire de l’échelle de temps TAI est une seconde
de temps-coordonnée.
Afin de conserver une échelle de temps liée à la rota-
tion de la Terre tout en bénéficiant des propriétés du TAI,
le Temps universel coordonné (UTC) a été créé. L’UTC est
identique au TAI dont il diffère par un nombre entier de
secondes afin de rester en accord avec le temps défini par
la rotation de la Terre à mieux que 0,9 s près. Depuis le
1er juillet 2015, UTC = TAI-36 s. UTC (souvent improprement
appelé temps GMT) est la base légale de l’heure dans la
plupart des pays du monde, par exemple, en France, l’heure
d’hiver est UTC + 1.
Les horloges actuelles Principes
Les horloges atomiques sont basées sur la relation de Bohr
�E = hv reliant la différence d’énergie �E entre deux niveaux
atomiques à la fréquence de l’onde absorbée ou émise lors
d’une transition d’un niveau à l’autre, où h est la constante
de Planck (h ��6,63 x 10-34 J.s). La fréquence d’une transi-
tion atomique est caractéristique d’une espèce atomique. Son
caractère immuable en fait une référence de fréquence. Pour
une utilisation pratique, on emploie un oscillateur local, à partir
duquel on génère une onde électromagnétique de fréquence
aussi proche que possible de la fréquence atomique (la fré-
quence est une grandeur sur laquelle on sait réaliser les quatre
opérations arithmétiques), avec laquelle on va interroger les
atomes. Si l’on est suffisamment proche de la résonance, le
nombre d’atomes changeant d’état est proportionnel à la dif-
férence entre la fréquence d’interrogation et la fréquence ato-
mique (le désaccord). En détectant ces atomes on obtient un
signal utilisable pour corriger la fréquence de l’oscillateur qui
est ainsi calée sur la référence atomique et délivre aux utili-
sateurs une fréquence stable et connue (figure 1). On a ainsi
réalisé un étalon atomique de fréquence. Une horloge ato-
mique est obtenue en comptant les périodes de l’oscillateur.
Ceci est l’analogue de l’horloge à balancier de Huygens (XVIIe
siècle), le pendule est remplacé par l’atome, les engrenages
par la chaîne de multiplication de fréquence entre l’oscillateur
et l’atome, les aiguilles par le signal de l’oscillateur ou un comp-
teur placé derrière totalisant les périodes d’oscillation.
La qualité de l’horloge est d’autant meilleure que la transi-
tion utilisée, de fréquence �, est étroite, c’est-à-dire possède
un grand facteur de qualité défini comme Q = �/��, où ��
est la largeur de la transition atomique. Pour obtenir des raies
Figure 1 : Schéma de principe d’une horloge atomique. La fréquence f d’un oscillateur local est multipliée par un nombre rationnel k pour interroger une résonance atomique. Le signal d’erreur est utlisé pour asservir la fréquence de l’oscillateur.
au temps une signification uniquement locale, c’est le temps
propre. En relativité générale, au-delà du voisinage immédiat
de l’horloge, avant de parler de temps, il faut d’abord défi-
nir un système de coordonnées spatio-temporel ; le temps
correspondant est le temps-coordonnée. Le TAI est ainsi
un temps-coordonnée défini sur le géoïde en rotation. La
seconde du SI est une seconde de temps propre, alors que
l’intervalle unitaire de l’échelle de temps TAI est une seconde
de temps-coordonnée.
Afin de conserver une échelle de temps liée à la rota-
tion de la Terre tout en bénéficiant des propriétés du TAI,
le Temps universel coordonné (UTC) a été créé. L’UTC est
identique au TAI dont il diffère par un nombre entier de
secondes afin de rester en accord avec le temps défini par
la rotation de la Terre à mieux que 0,9 s près. Depuis le
1er juillet 2015, UTC = TAI-36 s. UTC (souvent improprementr
appelé temps GMT) est la base légale de l’heure dans la
plupart des pays du monde, par exemple, en France, l’heure
d’hiver est UTC + 1.
Les horloges actuelles Principes
Les horloges atomiques sont basées sur la relation de Bohr
�E = E hv reliant la différence d’énergiev �E �� entre deux niveaux
atomiques à la fréquence de l’onde absorbée ou émise lors
d’une transition d’un niveau à l’autre, où h est la constante
de Planck (h(( ��6,63 x 10-34 J.s). La fréquence d’une transi-
tion atomique est caractéristique d’une espèce atomique. Son
caractère immuable en fait une référence de fréquence. Pour
une utilisation pratique, on emploie un oscillateur local, à partir
duquel on génère une onde électromagnétique de fréquence
aussi proche que possible de la fréquence atomique (la fré-
quence est une grandeur sur laquelle on sait réaliser les quatre
opérations arithmétiques), avec laquelle on va interroger les
atomes. Si l’on est suffisamment proche de la résonance, le
nombre d’atomes changeant d’état est proportionnel à la dif-ff
férence entre la fréquence d’interrogation et la fréquence ato-
mique (le désaccord). En détectant ces atomes on obtient un
signal utilisable pour corriger la fréquence de l’oscillateur qui
est ainsi calée sur la référence atomique et délivre aux utili-
sateurs une fréquence stable et connue (figure 1). On a ainsi
réalisé un étalon atomique de fréquence. Une horloge ato-
mique est obtenue en comptant les périodes de l’oscillateur.
Ceci est l’analogue de l’horloge à balancier de Huygens (XVIIe
siècle), le pendule est remplacé par l’atome, les engrenages
par la chaîne de multiplication de fréquence entre l’oscillateur
et l’atome, les aiguilles par le signal de l’oscillateur ou un comp-
teur placé derrière totalisant les périodes d’oscillation.
La qualité de l’horloge est d’autant meilleure que la transi-
tion utilisée, de fréquence �, est étroite, c’est-à-dire possède�
un grand facteur de qualité défini comme Q = �/� �// �� , où� ���
est la largeur de la transition atomique. Pour obtenir des raies
Figure 1 : Schéma de principe d’une horloge atomique. La fréquence f d’un oscillateur local est multipliée par un nombre rationnelf k pour interrogerkune résonance atomique. Le signal d’erreur est utlisé pour asservir la fréquence de l’oscillateur.
REE N°1/2016 � 107
RETOUR SUR ❱❱❱❱❱❱❱❱❱
Marc LeconteMembre émérite de la SEE
IntroductionDans les années 90, appuyé par les services offi-
ciels, un programme européen de développement
d’une technologie d’antennes actives destinées aux
chasseurs aéroportés fut lancé par trois industriels eu-
ropéens. Après l’échec, quelques années auparavant,
d’un programme commun de chasseur européen,
ce programme de haute technologie, appelé AMSAR
(Airborne Multimode Solid-state Active-array Radar),
souleva de grandes espérances quant aux possibili-
tés de coopération des industries de défense euro-
péenne. Le programme concernait, dans le domaine
militaire uniquement, les radars aéroportés de pointe
avant des chasseurs. Les antennes actives des radars
au sol ou ceux des segments aéroportés autres que
celui des chasseurs ont connu un développement dif-
férent. Le programme AMSAR, véritable programme
fondateur, s’achèvera sur des réussites techniques
indéniables mais se heurtera à la réalité des stratégies
et des ambitions nationales. Nous lui consacrons ce
« Retour sur », de ses prémices à sa conclusion inter-rr
venue il y a seulement quelques années.
Les radars aéroportés après-guerre.Les premiers radars aéroportés ont été mis au
point au cours de la deuxième guerre mondiale. Les
contraintes étaient connues : pour embarquer des an-
tennes dans un chasseur, il fallait en diminuer la taille
et par conséquent augmenter la fréquence, ce qui
imposait des circuits électroniques d’un rendement
plus faible et de technologie plus onéreuse.
Après la guerre, l’évolution vers des chasseurs à
réaction plus rapides et les demandes de détection
radar vers des distances de plus en plus grandes se
sont traduites par des évolutions majeures des formes
d’onde et par une course à la puissance moyenne
émise qui conditionnait en grande partie la portée ra-
dar. Les échos de sol (clutter) limitaient largement les
performances des radars à basse fréquence de récur-rr
rence (BFR) issus de la guerre. La détection vers le bas
(look down) était en particulier très problématique et
limitait les capacités opérationnelles d’interception
et de poursuite. L’utilisation du doppler à impulsion
avec une fréquence de récurrence élevée (HFR) per-rr
mettait d’étaler le spectre des échos de sol et ainsi
de détecter et de traiter des cibles à basse altitude.
L’introduction des antennes actives dans les chasseurs Le programme de coopération européen AMSAR
The phased array antennae became preeminent in the fire control radar from the 70's. Facing the competition of United States, European industry developed skills in the monolithic integrated circuits to serve as a brick for modules using passiveand active phased arrays. AMSAR was an X-band, phased, active-array, steerable radar based on gallium arsenide (GaAs) MMIC (Monolithic Microwave Integrated Circuit) technology. The programme, started in 1993, contributed greatly to the deve-lopment of active antennas for next generation fighters in the 2000's.
ABSTRACT
Figure 1 : Configuration d’une antenne réseau classique à fente. Le faisceau est lié par construction au plateau rayonnant
108 ��REE N°1/2016
❱❱❱❱❱❱❱❱❱❱❱ RETOUR SUR
Avec des filtres appropriés, il était possible également
de rejeter les échos de sol liés à la vitesse du chasseur,
qui désensibilisaient les récepteurs. Dans les années 50,
Westinghouse développa le premier doppler à impulsion aé-
roporté. Les chasseurs américains comme le F-15 et le F-16
commencèrent à être équipés de radar doppler à impulsions
au cours des années 60. Les services techniques et l’état-
major de l’armée de l’air, en France, furent très intéressés par
l’introduction de ce type de radar sur les chasseurs français.
C’est le Mirage 2000 qui accueillit le premier radar doppler à
impulsion RDI. Commandé en 1976, Il était prévu d’en équi-
per les Mirages dans les années 80.
Les antennes à balayage électroniqueClassiquement les antennes radar des chasseurs étaient
constituées d’un réseau d’éléments rayonnants qui, selon les
qualités mécaniques de la structure, assuraient un diagramme
de rayonnement dont la direction dépendait du déphasage
relatif entre les éléments et de la direction du plateau mobile
actionné par des servomécanismes (figure 1). C’est la raison
pour laquelle on les appelle des antennes à réseaux pha-
sés. Ces antennes ont connu une grande longévité ; elles ont
équipé et équipent encore plusieurs générations de chas-
seurs parmi lesquels figurent les Mirages français, les F-16 de
première génération, les F-15, les Tornados anglais, les Mig
russes et quelques autres. Il faut rappeler que ces antennes
réseaux existent depuis la deuxième guerre mondiale avec
les grands radars de défense aérienne allemands. S’il était
possible de changer le déphasage obtenu par construction, le
faisceau pouvait changer de direction. Ce cas s’est rencontré
dans certains radars allemands dans lesquels la commande
du déphasage était manuelle (par un levier). Ainsi, sans
modifier la position de l’antenne, il était possible de chan-
ger la direction du faisceau. Par la suite les commandes de
déphasage sont devenues électroniques ce qui conférait au
faisceau des caractéristiques de mobilité nouvelles qu’on a
appelé agilité du faisceau.
Il existe deux grands types d’antennes à balayage électro-
nique que nous allons détailler.
Les antennes électroniques passives : PESA
Ces antennes réseaux sont constituées par des éléments
rayonnants dont la commande de déphasage s’effectue
de manière électronique. L’ensemble des commandes de
déphasage, calculées par un pointeur, oriente le faisceau
dans la direction désirée. Cette commande ne requiert pas
de puissance et elle est donc économe en consommation
comme tout circuit d’électronique de commande. L’avantage
du balayage électronique est de pouvoir pointer le faisceau
dans n’importe quelle direction de manière quasi-instanta-
née sans avoir à positionner une lourde antenne par des
servomécanismes. Le gain en temps de réponse est immé-
diat et permet alors d’envisager des fonctions de détection
simultanée qui n’étaient pas envisageables auparavant avec
une antenne mécanique. L’émetteur du radar est unique et
peut même être hérité d’une version précédente à balayage
mécanique.
Cette solution présente cependant quelques inconvé-
nients importants. En effet le passage de l’émission à travers
les éléments déphaseurs entraine des pertes de puissance
à l’émission qui sont directement préjudiciables à la portée
du radar. La qualité des déphaseurs et des modules passifs a
donc représenté un défi technologique pour le passage aux
antennes à balayage électronique. Plusieurs radars de pointe
avant ont été développés avec ce type d’antenne. C’est le
cas par exemple des premiers RBE2 du Rafale (figure 2) du
Rafale mais aussi de beaucoup de radars russes (figure 3).
Les Américains sauteront ce palier pour passer directement à
Figure 2 : Configuration d’antenne passive du RBE2 avec des lentilles sur les deux axes.
Figure 3 : Configuration d’antenne passive avec déphaseurs à ferrite – Cas des radars passifs russes.
REE N°1/2016 � 109
L’introduction des antennes actives dans les chasseurs
l’antenne active, nous y reviendrons plus loin. Le passage par
cette technologie avait cependant l’avantage, dans l’optique
d‘une phase intermédiaire, de développer un dispositif de
pointage réutilisable lors du passage à une antenne active.
Les antennes électroniques actives AESA
Le stade suivant les PESA, dans une optique de progrès
technologique, correspond au stade ultime de numérisation
du radar. En effet, les antennes électroniques actives (AESA)
font disparaitre l’émetteur unique pour le discrétiser dans ce
qu’on appelle des modules T/R (pour transmission/ récep-
tion). Le réseau phasé devient lui-même son propre émet-
teur réparti dans les centaines voire les milliers de modules
de l’antenne (figure 4). L’amélioration la plus évidente réside
dans le fait que les pertes en émission par les déphaseurs
de l’antenne passive n’existent plus. Il y donc un gain en
puissance mais qui dépend évidemment de la puissance de
chaque module. Chacun d’eux peut être considéré comme
un mini-radar comportant un émetteur, un récepteur et un
circulateur, sorte d’aiguillage qui ferme le récepteur quand il y
a émission. Nous savons depuis les débuts des radars aéro-
portés que pour embarquer des antennes de taille raison-
nable dans une pointe avant il faut une fréquence d’émission
élevée qui est généralement, pour les radars dont nous par-
lons, de l’ordre de 10 GHz (longueur d’onde de 3 cm), autre-
ment appelée bande X. Les émetteurs de puissance à cette
fréquence utilisent des tubes spéciaux comme le magnétron,
le klystron ou encore les tubes à ondes progressives. La puis-
sance demandée à un module actif était moindre que celle
d’un émetteur unique mais demeurait cependant élevée et
le recours à des fréquences de l’ordre d’une dizaine de GHz
nécessitait des composants hyperfréquences nouveaux par
rapport aux transistors de puissance au silicium classiques.
Corrélativement, ces contraintes augmentaient de manière
considérable le coût de développement et surtout de pro-
duction des modules actifs. La miniaturisation et sa consé-
quence le conditionnement thermique posaient un défi
technologique et industriel qui était encore plus accentué
quand le radar était destiné à être embarqué à bord d’un
chasseur. En conséquence les radars aéroportés de pointe
avant seront les derniers à passer d’une antenne classique ou
passive à l’antenne active, au terme d’un très gros effort de
développement technologique et industriel.
Développement des modules actifsLes premiers développements exploratoires furent améri-
cains et lancés dans les années 60. L’US Air Force commanda
à la firme Texas deux maquettes d’antennes actives appe-
lée MERA (Molecular Electronic Radar Application) et RASSR
(Reliable Advanced Solid-State Radar). Ces maquettes étaient
constituées respectivement de 604 et 1 648 modules actifs.
Les premiers résultats de cette étude conclurent que les com-
posants de l’époque ne permettaient pas d’obtenir les puis-
sances nécessaires à un radar de pointe avant. Il fallut donc
définir une nouvelle filière de composants microélectroniques
hybrides qui furent développés en technologie de semi-
conducteurs AsGa (arséniure de gallium). Le coût de cette
technologie s’avérant vite très élevé, les Américains décidèrent
en conséquence de lancer un grand programme de dévelop-
pement technologique des semi-conducteurs hybrides en
AsGa.
Le plan MIMIC
A partir des années 1980, les Etats-Unis, par le canal de
la DARPA (leur organisme de recherche fédéral), financèrent
les industriels du radar tels Hughes Electronics et Texas
Instruments afin de développer et de maîtriser la technolo-
gie des circuits intégrés en hyperfréquence basée sur l’arsé-
niure de gallium. Dès la fin des années 80, la DARPA lança le
programme MIMIC (Microwave/Millimeter-wave Monolithic
Integrated Circuits) qui se déclinait en trois phases pour une
enveloppe globale de 500 MUSD. De nombreux industriels
reçurent des contrats pour des recherches qui devaient très
largement irriguer les développements des radars à antennes
actives du F-22, F/A-18, F-15, F-16 et JSF. Certains industriels
valoriseront également ces recherches dans le domaine civil.
Ce plan permit d’élaborer une stratégie de production
flexible associée à une baisse de coûts liée à une production
massive et une standardisation des architectures. Peu à peu,
la puissance des circuits et leur rendement augmentèrent per-
mettant aux antennes actives aéroportées de concurrencer
Figure 4 : Configuration d’antenne active à une voie de réception. Cas du RBE2 et des radars US qui peuvent comporter plus
de 1 000 modules. Le nombre de modules est en général secret.
l’antenne active, nous y reviendrons plus loin. Le passage par
cette technologie avait cependant l’avantage, dans l’optique
d‘une phase intermédiaire, de développer un dispositif de
pointage réutilisable lors du passage à une antenne active.
Les antennes électroniques actives AESA
Le stade suivant les PESA, dans une optique de progrès
technologique, correspond au stade ultime de numérisation
du radar. En effet, les antennes électroniques actives (AESA)
font disparaitre l’émetteur unique pour le discrétiser dans ce
qu’on appelle des modules T/R (pour transmission/ récep-
tion). Le réseau phasé devient lui-même son propre émet-
teur réparti dans les centaines voire les milliers de modules
de l’antenne (figure 4). L’amélioration la plus évidente réside
dans le fait que les pertes en émission par les déphaseurs
de l’antenne passive n’existent plus. Il y donc un gain en
puissance mais qui dépend évidemment de la puissance de
chaque module. Chacun d’eux peut être considéré comme
un mini-radar comportant un émetteur, un récepteur et un
circulateur, sorte d’aiguillage qui ferme le récepteur quand il y
a émission. Nous savons depuis les débuts des radars aéro-
portés que pour embarquer des antennes de taille raison-
nable dans une pointe avant il faut une fréquence d’émission
élevée qui est généralement, pour les radars dont nous par-
lons, de l’ordre de 10 GHz (longueur d’onde de 3 cm), autre-
ment appelée bande X. Les émetteurs de puissance à cette
fréquence utilisent des tubes spéciaux comme le magnétron,
le klystron ou encore les tubes à ondes progressives. La puis-
sance demandée à un module actif était moindre que celle
d’un émetteur unique mais demeurait cependant élevée et
le recours à des fréquences de l’ordre d’une dizaine de GHz
nécessitait des composants hyperfréquences nouveaux par
rapport aux transistors de puissance au silicium classiques.
Corrélativement, ces contraintes augmentaient de manière
considérable le coût de développement et surtout de pro-
duction des modules actifs. La miniaturisation et sa consé-
quence le conditionnement thermique posaient un défi
technologique et industriel qui était encore plus accentué
quand le radar était destiné à être embarqué à bord d’un
chasseur. En conséquence les radars aéroportés de pointe
avant seront les derniers à passer d’une antenne classique ou
passive à l’antenne active, au terme d’un très gros effort de
développement technologique et industriel.
Développement des modules actifsLes premiers développements exploratoires furent améri-
cains et lancés dans les années 60. L’US Air Force commanda
à la firme Texas deux maquettes d’antennes actives appe-
lée MERA (Molecular Electronic Radar Application) et RASSR
(Reliable Advanced Solid-State Radar). Ces maquettes étaient
constituées respectivement de 604 et 1 648 modules actifs.
Les premiers résultats de cette étude conclurent que les com-
posants de l’époque ne permettaient pas d’obtenir les puis-
sances nécessaires à un radar de pointe avant. Il fallut donc
définir une nouvelle filière de composants microélectroniques
hybrides qui furent développés en technologie de semi-
conducteurs AsGa (arséniure de gallium). Le coût de cette
technologie s’avérant vite très élevé, les Américains décidèrent
en conséquence de lancer un grand programme de dévelop-
pement technologique des semi-conducteurs hybrides en
AsGa.
Le plan MIMIC
A partir des années 1980, les Etats-Unis, par le canal de
la DARPA (leur organisme de recherche fédéral), financèrent
les industriels du radar tels Hughes Electronics et Texas
Instruments afin de développer et de maîtriser la technolo-
gie des circuits intégrés en hyperfréquence basée sur l’arsé-
niure de gallium. Dès la fin des années 80, la DARPA lança le
programme MIMIC (Microwave/Millimeter-wave Monolithic
Integrated Circuits) qui se déclinait en trois phases pour une
enveloppe globale de 500 MUSD. De nombreux industriels
reçurent des contrats pour des recherches qui devaient très
largement irriguer les développements des radars à antennes
actives du F-22, F/A-18, F-15, F-16 et JSF. Certains industriels
valoriseront également ces recherches dans le domaine civil.
Ce plan permit d’élaborer une stratégie de production
flexible associée à une baisse de coûts liée à une production
massive et une standardisation des architectures. Peu à peu,
la puissance des circuits et leur rendement augmentèrent per-rr
mettant aux antennes actives aéroportées de concurrencer
Figure 4 : Configuration d’antenne active à une voie de réception. Cas du RBE2 et des radars US qui peuvent comporter plus
de 1 000 modules. Le nombre de modules est en général secret.
REE N°1/2016 � 115
ENSEIGNEMENT & RECHERCHE
REE : Pierre Giorgini, vous avez publié il y a plus d’un an un ouvrage remarqué, La transition fulgurante1, qui vous a valu récemment le Prix MERI décerné par l’espace éthique des en-treprises de santé ; vous y abordez la rapide transformation affectant le monde contemporain, à un point tel qu’on peut globalement la qualifier d’anthropologique. Quelles en sont, à vos yeux, les effets essentiels en matière d’enseignement supérieur et de formation ?Pierre Giorgini : Ce sujet est immensément vaste. Je crois avoir montré, dans La Transition Fulgurante, que la rupture que nous vi-vons est d’ordre épistémologique et que la création de valeur au sens global, c’est-à-dire intégrant toutes les dimensions de la notion de progrès (environnemental, social et humain), se niche de plus en plus au cœur des rencontres improbables, y compris disciplinaires.
Pour moi, l’arbre de la connaissance s’est enfoncé loin dans la terre du mystère de la vie, tel un rhizome de racines alimentant l’expérience sensible et concrète des hommes. Le réductionnisme disciplinaire nous donne l’illusion parfois, que l’extrémité d’une seule racine alimente l’arbre ou, pire, modélise le système global. Mais quiconque est dans l’expérience sensible voit que l’arbre meurt car il est incapable de se régénérer et comprend qu’il faut le réinventer pour faire face à la nouvelle donne sociale, économique et surtout environnementale.
Comment faire remonter l’ensemble de nos forces à la jonction de l’économie et de la philosophie, des sciences et de l’éthique, de la spiritualité et de l’innovation techno-scientifique sans courir le risque d’un retour à des formes d’obscurantisme ? Notre défi est d’ordre épistémologique, si nous voulons sortir du syndrome de l’île de Pâques et cesser de tuer définitivement nos sources de vie, pour vénérer les nouveaux dieux de l’hédonisme généralisé et de la science réduite à son objet.
Un défi épistémologique !
Or les universités continuent de s’écarter des voies créatrices de valeur globale émergeant de l’interdisciplinarité ; la logique discipli-naire est en effet très puissante, presque inscrite dans l’ADN univer-sitaire et stimulée par la chasse aux classements internationaux. Elles risquent alors de ne plus pouvoir jouer, dans les sociétés évoluées, leur rôle séculaire : la recherche désintéressée du vrai et du bien, en aidant à penser le monde. Alors, où se fera cette recherche ? Cette remise en cause risque d’être fulgurante car simultanément l’inter-net transforme son cœur de métier, par exemple avec l’arrivée des MOOC et des SPOC : l’unité de lieu et de temps, pour l’acquisition
1 Pierre Giorgini. La transition fulgurante - Vers un bouleversement systé-mique du monde ? Editions Bayard 2014 408 p. 18,90 �.
des savoirs formels (instruction) et leur transformation en compé-tences, savoir-faire et savoir-être (éducation) n’est plus nécessaire ! Cela impose à l’Université, pour continuer à créer de la valeur ajou-tée, de se transformer rapidement, avec une approche coopérative et maillée, en écosystèmes apprenants, offrant des univers ouverts de partage des savoirs, de réalisation de projets multidisciplinaires, ouverts sur leur territoire et le monde global.
Mais quel bouleversement pour les enseignants-chercheurs et pour l’organisation pédagogique et physique de l’institution ! La question n’est plus seulement « Comment transmettre ? » avec les nouveaux médias ou outils intelligents en réseau, mais « Que trans-mettre ? » pour former à la « liberté responsable », qui est l’apti-tude à penser par soi-même et en interdépendance, de le faire en conscience et en liberté de conscience ; comment donner à chacun les moyens de repérer toutes les formes d’aliénation et de domina-tion, sociales, culturelles et politiques ?
REE : Vous venez de récidiver et, avec La fulgurante recréation2, vous complétez votre réflexion en évoquant et en précisant quelles sont les voies possibles des initiatives indispensables pour répondre aux défis sociétaux ; vous insistez à juste titre sur l’importance des réseaux et de la co-création pour réen-chanter le monde…P. G. : Je tente de montrer dans mes deux ouvrages, que nous sommes au cœur d’une époque incroyable, où tout est possible pour le pire comme pour le meilleur. Mais la rupture est telle que même les mots d’hier, dans leur passage du signifiant au signifié, sont en panne : ils ne font plus sens car le monde de demain ne peut être pensé avec les modèles et les cadres de référence du monde d’hier.
Alors, seule la mise en conférence « chemin faisant » des signifiés, des points de vue moraux, de toutes les parties prenantes, peut nous donner une chance de reconstruire un sens commun, une his-toire commune, une éthique commune. Mais la rupture est telle que seule la fable ou le rêve peuvent l’esquisser et le stimuler.
REE : Mais, pour vous, que disent de l’Université ce rêve et cette fable ?P. G. : Je crois effectivement qu’il faut que partout les universités re-deviennent de véritables laboratoires de la « recréation du monde ». Dans mon rêve, elles sont évidemment « zéro carbone » ; mais surtout elles offrent aux étudiants, quels que soient leur niveau et leur âge, un environnement de créativité permanente, où chacun peut expérimenter sur le campus de nouvelles techniques, de nou-velles postures sociales, économiques, spirituelles, pour inventer le
2 Pierre Giorgini avec Nicolas Vaillant. La fulgurante recréation Préface d’Erik Orsenna de l’Académie française Editions Bayard Janvier 2016 334 p. 16,90 �.
De fulgurantes innovations à Lille ?Entretien avec Pierre Giorgini
Président-recteur de l’Université catholique de Lille (UCL)
116 ��REE N°1/2016
ENSEIGNEMENT & RECHERCHE
nouveau monde. Devenues des socialshops, où cohabitent chercheurs en technosciences comme en sciences humaines, étu-diants, acteurs économiques et sociaux, elles deviennent des es-paces de création, d’expérimentation et d’observation scientifique des initiatives, qui sont analysées, capitalisées dans une recherche-action transdisciplinaire (anthropologie expérimentale par exemple).
Des ateliers, des fablabs, des Tech’shops, sont ouverts aux étu-diants, mais aussi à quiconque, ayant idée, talent ou envie d’ap-prendre, de fabriquer, de créer une activité (entreprise, association, communauté…). Ils sont équipés des machines les plus sophisti-quées (imprimantes 3D, découpe laser, etc.), les plus traditionnelles (tour à bois, machines à coudre, à broder, à polir…), mais aussi les plus simples (broyeurs de matériaux, de récupération pour car-touches 3D, récupération du bois, plastique…) Ils mettent égale-ment à disposition des utilisateurs équipements microélectroniques et informatiques, instruments de musique, d’enregistrement, de pro-duction audiovisuelle, de création artistique, de synthèse 3D… Des incubateurs de création (entreprises, associations, start-up, entrepre-nariat, etc.) sont installés à proximité.
L’Université devient une véritable ruche, une agora des rencontres improbables. Des panels étudiants/professeurs, animés en réseau, prennent, après débats contradictoires, les décisions les plus structu-rantes sur l’avenir, l’équipement et le fonctionnement de l’institution.
REE : Mais avant l’Université, il y a l’École. Comment celle-ci peut-elle préparer à cette fable ?P. G. : Dans mon rêve, l’École s’est également profondément réfor-mée. Elle a basé son développement et sa pédagogie sur les quatre principes fondateurs de la recréation définis dans La Fulgurante recréation, à savoir l’altérité, la résilience, la ré-inventivité, en ayant revisité son espace de reliance.
Elle est devenue une école de la reliance, c’est-à-dire une école de la connexion qui fait sens et système (voir les travaux de Marcel Bolle de Bal et d’Edgar Morin), une école de la connexion finalisée, qui induit une appartenance signifiante à des réseaux, des commu-nautés de destin, des associations, des sociétés formelles (territoire, état, continent, planète), en mettant en évidence à chaque fois les liens de coresponsabilité, car nos comportements portent une part de responsabilité universelle ; cela consiste à apprendre, non plus par une entrée disciplinaire, mais essentiellement en analysant l’espace de reliance temporelle (histoire, philosophie, économie, sociologie, art…), physique (géographie, géopolitique, économie...) et virtuelle (communautés thématiques, co-créatives...) pour tout projet, sujet ou objet prétexte à l’étude ou à l’action collective. Une pédagogie inversée par problème est généralisée et sert de fil rouge à une reconstruction disciplinaire plus linéaire.
Quatre principes pour recréer l’école !
Très tôt, les apprenants utilisent les ressources média (internet, MOOC, SPOC…) pour acquérir les savoirs nécessaires et les sociali-ser au sein de l’école en leur donnant du sens au travers des groupes apprenants. Les corpus disciplinaires sont ensuite reconstruits a pos-
teriori avec les compléments théoriques supplémentaires néces-saires pour « charpenter la discipline ». Les situations d’apprentissage à partir de situations réelles sont privilégiées. Les acteurs locaux, tels que mairies, services de l’État (police, justice), entreprises, associa-tions, etc., sont fortement impliquées.
L’école est devenue une école de la résilience où s’apprennent la frustration, la patience et le manque assumé, la lenteur de l’accom-plissement d’un désir, le regard positif sur les fragilités et les handi-caps. Des situations difficiles, réelles ou simulées, sont identifiées. Grâce aux nouvelles technologies, des pédagogies d’apprentissage basées sur des temps longs d’investigation, de recherche, d’élabora-tion de solutions en co-création, sont mises en place. Les créations artistiques ou sportives qui demandent souvent des efforts longs et frustrants sont privilégiées ; une vraie éducation à la consommation responsable, mettant chacun en situation d’évaluer les conséquences globales de ses choix. L’école devient celle de la pensée globale.
Une école de l’altérité est née, où chacun apprend à reconnaître et entrer en relation avec l’autre, différent sur le plan culturel et reli-gieux, et à définir avec lui, avec eux, les termes de la modération réci-proque permettant un vivre ensemble. Des pédagogies inversées centrées sur l’analyse des tensions internes à la classe, aux commu-nautés, à partir de disciplines telles que la philosophie, l’histoire, la géopolitique, l’art, permettent de comprendre et d’expérimenter en quoi l’altérité, c’est-à-dire le caractère de ce qui est autre, constitue le cœur de la montée en humanité de chacun.
Enfin une école de la réinventivité, de l’émergence co-créative, est en place. L’école devient très tôt dans la scolarité un écosystème, siège de rencontres improbables, favorisant l’émergence co-créative de solutions, de projets, de résolution de problèmes réels ou simu-lés. Les apprenants sont mis en situation de ré-instituer totalement ou partiellement leurs modes collectifs d’apprentissage et de vie dans l’école. Des groupes tirés au sort deviennent délibératifs sur des sujets de vie de l’école ou de société, à condition d’accepter de travailler leur « capacité démocratique » sur le sujet concerné (wiki-démocratie interne). Cela consiste à réactiver de façon plus volon-tariste la pédagogie institutionnelle, mettant chaque apprenant en situation de réinstituer (choix d’organisation, édition des règles…) les coopérations au sein de l’école en vue des apprentissages. Il s’agit progressivement de sortir l’apprenant du centre du système péda-gogique pour l’ériger comme partenaire à part entière du système centré sur ses apprentissages.
REE : Pour élaborer vos deux ouvrages, vous avez mis en pra-tique une méthode très originale en associant vos collègues des diverses sciences humaines : vous leur donnez la parole pour qu’ils critiquent et mettent en questions vos propres convictions ! Pouvez-vous préciser la richesse, et peut être aus-si les limites, de cette méthode qui renouvelle la maïeutique ?P. G. : Dans La fulgurante recréation, j’ai intitulé un chapitre « Tous facteur Cheval », destiné à faire sentir la rupture épistémologique dans laquelle nous sommes, dans les formes même de construc-tion des savoirs. Le célèbre facteur de Hauterives et son Palais idéal m’est très souvent apparu comme emblématique d’une approche
REE N°1/2016 � 117
ENSEIGNEMENT & RECHERCHE
originale, simple et riche à la fois ; remarquons tout d’abord com-bien la part du rêve et de la continuité est essentielle dans son action quotidienne et inscrite dans la durée : son palais, il a dû l’ima-giner à partir de photos et dessins, des cartes postales, d’images de magazines, mélange de fantasmes et de peurs mais aussi d’émer-veillement et de calcul. Il l’a imaginé mais ne l’a pas construit tel qu’il l’a imaginé ; il l’a fait en l’imaginant et l’a imaginé en le faisant ; il l’a calculé en le faisant et l’a fait parce qu’il l’a calculé…
La combinaison d’un sens qui précède chaque étape de la réalisa-tion, avec le sens renouvelé, altéré par le cheminement de la pensée de l’auteur, faite d’imagination, de mémoire et de rationalité, apparaît lors de la simple visite du palais. La construction s’est faite avec des pierres à la fois glanées au hasard et choisies, mais dans l’ignorance précise de leur rôle futur. C’est cette interaction, ce « faire en mar-chant », cette façon de penser l’œuvre globale en mouvement, en enrichissant à la fois la réalisation et l’étape suivante projetée dans l’imaginaire, qui me fascinent et me donnent l’image de notre huma-nité en construction permanente. Comme celle du modeste facteur drômois, ma pensée vivante est au cœur d’une interaction à la fois créative et rationnelle entre le vécu, le réalisé, l’imaginé et le projeté dans une circularité vivante et enthousiasmante.
Notre monde moderne nous pousse et en même temps il at-tend de nous que nous soyons tous des facteurs Cheval, avec cette capacité de monter en conscience à propos de ce « château d’huma-nité» que nous construisons tous dans le jardin de l’univers, dans une co-élaboration spatiale et temporelle sans limite. Nos cailloux sont la connaissance, notre tournée est notre chemin d’humanité, nos usagers sont nos rencontres, nos cartes postales sont ce que ces rencontres nous permettent d’apprendre et de rêver. L’humanité, c’est cet édifice en construction permanente mais qui ne détruit jamais complètement la forme qui le précède. Ceux qui façonnent l’huma-nité, façonnent en même temps les communautés qui la construisent et les communautés bâtissantes trouvent leur unité dans l’intercom-préhension qu’ont leurs membres de ce qu’ils sont en train de réali-
ser, de la place et du rôle, que chacun a ou souhaite avoir. Alors cette intercompréhension – cette reliance – peut permettre de surmonter les agressions, les effondrements partiels de l’édifice, les accidents de chantiers, les conflits d’intérêt, par la résilience, par l’émergence créative et la ré-inventivité permanente des modes de coopération se nichant au cœur de la relation à ce qui est autre que moi, l’altérité.
Porteur de telles convictions, comment aurais-je pu écrire La fulgurante recréation comme une thèse à développer, comme une argumentation visant à légitimer une hypothèse ? Je pense que l’avenir sera dialectique ou ne sera pas et les prédicats même des théories peuvent être remis en cause. Nous entrons dans l’univers de la complexité et de l’incertitude. Le doute devient, encore plus qu’avant, ferment d’une pensée qui se construit en marchant, mais sans oublier ce qui la fonde et en restant ouverte à la mise en réseau, à la confrontation à d’autres cadres de références, à d’autres disci-plines. Au moment où le fil des grandes lignées disciplinaires est en partie rompu, comment se préserver du retour des obscurantismes cachés derrière un savoir apparent ou une ignorance dissimulée ? En osant l’imposture, mais en acceptant simultanément de la livrer à une mise en conférence contradictoire avec les disciplines basées sur la science !
REE : Depuis bientôt un siècle et demi qu’elle existe, l’UCL comporte diverses composantes, notamment santé, droit, techniques et sciences humaines ; quelles sont les ambitions collectives de l’ensemble de l’UCL et comment articuler la coo-pération interne ?P. G. : L’encyclique du Pape « Laudato si’3 » qui concerne la préser-vation de la maison commune nous offre, comme sur un plateau, la réponse à la question du sens global de l’action de l’UCL, dans des domaines qui paraissent éloignés mais qui pourtant constituent notre
3 NDLR : Le lecteur pourra se référer, à propos de l’encyclique Laudato si’, aux Libres propos de Gilles Bellec parus dans le numéro 2015-5 de la REE.
Figure 1 : Université catholique de Lille (UCL) : les étudiants accueillis dans un édifice néo-classique bien conforme à la tradition des Flandres.
originale, simple et riche à la fois ; remarquons tout d’abord com-bien la part du rêve et de la continuité est essentielle dans son action quotidienne et inscrite dans la durée : son palais, il a dû l’ima-giner à partir de photos et dessins, des cartes postales, d’images demagazines, mélange de fantasmes et de peurs mais aussi d’émer-rrveillement et de calcul. Il l’a imaginé mais ne l’a pas construit tel qu’ill’a imaginé ; il l’a fait en l’imaginant et l’a imaginé en le faisant ; il l’acalculé en le faisant et l’a fait parce qu’il l’a calculé…
La combinaison d’un sens qui précède chaque étape de la réalisa-tion, avec le sens renouvelé, altéré par le cheminement de la penséede l’auteur, faite d’imagination, de mémoire et de rationalité, apparaîtlors de la simple visite du palais. La construction s’est faite avec despierres à la fois glanées au hasard et choisies, mais dans l’ignoranceprécise de leur rôle futur. C’est cette interaction, ce « faire en mar-rrchant », cette façon de penser l’œuvre globale en mouvement, en enrichissant à la fois la réalisation et l’étape suivante projetée dans l’imaginaire, qui me fascinent et me donnent l’image de notre huma-nité en construction permanente. Comme celle du modeste facteur drômois, ma pensée vivante est au cœur d’une interaction à la foiscréative et rationnelle entre le vécu, le réalisé, l’imaginé et le projetédans une circularité vivante et enthousiasmante.
Notre monde moderne nous pousse et en même temps il at-tttend de nous que nous soyons tous des facteurs Cheval, avec cettecapacité de monter en conscience à propos de ce « château d’huma-nité» que nous construisons tous dans le jardin de l’univers, dansune co-élaboration spatiale et temporelle sans limite. Nos caillouxsont la connaissance, notre tournée est notre chemin d’humanité, nos usagers sont nos rencontres, nos cartes postales sont ce que ces rencontres nous permettent d’apprendre et de rêver. L’humanité, c’estcet édifice en construction permanente mais qui ne détruit jamaiscomplètement la forme qui le précède. Ceux qui façonnent l’huma-nité, façonnent en même temps les communautés qui la construisent et les communautés bâtissantes trouvent leur unité dans l’intercom-préhension qu’ont leurs membres de ce qu’ils sont en train de réali-
ser, de la place et du rôle, que chacun a ou souhaite avoir. Alors cette intercompréhension – cette reliance – peut permettre de surmonter les agressions, les effondrements partiels de l’édifice, les accidents de chantiers, les conflits d’intérêt, par la résilience, par l’émergence créative et la ré-inventivité permanente des modes de coopération se nichant au cœur de la relation à ce qui est autre que moi, l’altérité.
Porteur de telles convictions, comment aurais-je pu écrire Lafulgurante recréation comme une thèse à développer, comme une argumentation visant à légitimer une hypothèse ? Je pense quel’avenir sera dialectique ou ne sera pas et les prédicats même des théories peuvent être remis en cause. Nous entrons dans l’univers de la complexité et de l’incertitude. Le doute devient, encore plusqu’avant, ferment d’une pensée qui se construit en marchant, mais sans oublier ce qui la fonde et en restant ouverte à la mise en réseau,à la confrontation à d’autres cadres de références, à d’autres disci-plines. Au moment où le fil des grandes lignées disciplinaires est en partie rompu, comment se préserver du retour des obscurantismes cachés derrière un savoir apparent ou une ignorance dissimulée ?En osant l’imposture, mais en acceptant simultanément de la livrer à une mise en conférence contradictoire avec les disciplines basées sur la science !
REE : Depuis bientôt un siècle et demi qu’elle existe, l’UCL comporte diverses composantes, notamment santé, droit, techniques et sciences humaines ; quelles sont les ambitions collectives de l’ensemble de l’UCL et comment articuler la coo-pération interne ?P. G. : L’encyclique du Pape « Laudato si’3 » qui concerne la préser-rrvation de la maison commune nous offre, comme sur un plateau, la réponse à la question du sens global de l’action de l’UCL, dans des domaines qui paraissent éloignés mais qui pourtant constituent notre
3 NDLR : Le lecteur pourra se référer, à propos de l’encyclique Laudato si’, aux Libres propos de Gilles Bellec parus dans le numéro 2015-5 de la REE.
Figure 1 : Université catholique de Lille (UCL) : les étudiants accueillis dans un édifice néo-classique bien conforme à la tradition des Flandres.
REE N°1/2016 � 125
Il y a quelque témérité
à choisir pour cette
ultime chronique un
titre qui s’inspire d’un
ouvrage qui eut son
heure de célébrité et
que l’on devrait relire :
oserai-je avouer que j’ai entendu parler d’Auguste
Detœuf depuis longtemps, bien avant de suivre
– scolairement – sa voie : enfant, j’allais souvent
en famille dans un village du Valois, qui a depuis
grandi à l’ombre de Roissy. Mon oncle y était à
la fois directeur d’école et secrétaire de mairie ;
grâce à lui j’ai connu deux célébrités locales : le
père Baptiste, maire de la commune, qui me par-rr
la un jour de Jaurès qu’il allait écouter autrefois
quand il militait au syndicat des cochers CGT, et
puis le frère d’Auguste, qui tenait la plus grande
ferme du pays et de qui j’ai compris, il y a plus
de 65 ans, ce que pouvait être, à l’opposé de la
ruralité bocagère, la grande exploitation agricole.
J’ai depuis appris qui était Auguste Detœuf,
polytechnicien (promo 1902), ingénieur général
des ponts et chaussées, artisan de la création
d’Alsthom (1928) et premier président de la
société de 1928 à 1940 : à ce titre, il a été pro-
bablement membre de la SEE et aurait pu tenir,
assurément, la chronique que depuis quelques tt
années je m’efforce d’assurer. Les propos d’O.L.
Barenton, confiseur11 constituent en effet un
ensemble de textes dont beaucoup font pen-
ser à La Bruyère… et certains sont dignes de
Christophe et de son savant Cosinus ! Les pen-
sées, sentences et aphorismes y sont nombreux
et, ensemble, constituent un véritable traité
managérial : on y apprend par exemple, que
réfléchir c’est r attendre quelques jours avant de
ne pas changer d’avis ou encore que consulter
est une façon respectueuse de demander à
quelqu’un d’être de votre avis.
Depuis fort longtemps, je peine devant une
feuille blanche et depuis plus d’un demi-siècle
j’admire le talent de ceux qui régulièrement
savent faire court et original ; le modèle du billet-
tiste restera pour moi Robert Escarpit qui, chaque
après-midi, quelles que fussent les circonstances
de la vie, dictait par téléphone ce qui allait mettre
de l’humour dans la « une » du Monde, alors fort
austère. En acceptant de tenir une « Chronique »
1 Auguste Detoeuf « Propos d'O.L. Barenton, confi-fifiseur » - Editions d'organisation nov. 1982 (230 p. r27,50 �).�
régulière dans REE, en plus d’autres rubriques, j’ai
voulu me prouver à moi-même, la retraite venue
et disposant de temps, qu’écrire est un exercice
à la fois salutaire et abordable.
Je voulais aussi (essayer de) lutter contre
une tendance à l’aboulie et à la procrastination,
sans doute innée, mais que l’âge a tendance à
renforcer. Mais par prudence, j’ai accepté de tenir
dans REE des rubriques qui s’autoalimentent :
avec « Vient de paraître » et les « Echos de l’ensei-
gnement supérieur et de la recherche », on est
assuré que l’actualité viendra sans trêve alimen-
ter l’inspiration, fût-ce au prix de faits divers…
Mais, avec mes débuts journalistiques, j’avais
l’ambition de faire mieux que les échotiers de
la PQR (Presse Quotidienne Régionale) et je
me suis astreint à un travail de documentation,
voire de réflexion, assez chronophage. Il serait
toutefois excessif d’invoquer le temps passé
pour expliquer, a fortiori pour excuser, la façon
extrême dont j’ai parfois respecté les délais fixés
par un comité de rédaction auquel je participe
avec assiduité ! Je persiste à croire, ayant souvent
été le pénultième à fournir ma prose, que j’ai pris
soin de ne jamais entraver ni même retarder la
publication de notre belle revue…
Concernant la « Chronique » elle-même, pour
laquelle l’autonomie et par conséquent l’imagina-
tion sont totales, j’ai pris, dès mon engagement,
le parti-pris d’une formule sécurisante : en choi-
sissant une thématique assez riche pour avoir
inspiré deux auteurs de talents, je tenais un
excellent sujet de chronique !
Je n’en éprouve que plus d’admiration pour
ceux qui régulièrement honorent un rendez-vous
attendu des lecteurs. A propos de la culture scien-
tifique, dont la diffusion me parait essentielle au
sein des sociétés savantes telles que la SEE, qu’il
me soit permis d’affirmer mon admiration pour
ce que font Pierre Barthélémy dans le Monde ou
Jean-Paul Delahaye dans Pour la science...
Parmi mes contributions à la REE, il y a aussi
celles pour lesquelles je n’ai été que l’intermé-
diaire mais qui m’ont donné l’occasion de ren-
contrer des experts ou de correspondre avec eux.
Notre revue sollicite souvent en effet des per-rr
sonnalités trop engagées professionnellement
pour assumer intégralement un article ; alors le
recours à l’interview s’impose, avec des modali-
tés très variées mais qui toujours imposent de
bien connaitre ce que fait et pense votre interlo-
cuteur. Dans tous les cas, la mise en forme finale
impose un travail minutieux associant fidélité à
l’auteur, souci de la langue et respect des règles
typographiques. A cet égard j’avoue, sans glo-
riole mais aussi sans honte, que j’ai très souvent
mérité la satisfaction de mes interlocuteurs et
été fidèle aux enseignements de l’instituteur, qui
m’apprit à respecter l’orthographe et à manier
la langue ; par contre j’ai fait, pour maîtriser la
ponctuation ou mettre à bon escient les majus-
cules, de lents progrès en dépit des amicales et
régulières leçons de notre rédacteur en chef ! Il
m’est même parfois arrivé de me substituer au
signataire, mais la discrétion m’interdit d’en dire
plus et mon aversion du racisme d’imaginer que
j’aurais pu devenir le nègre de qui que ce fût.
Mais comment ne pas mentionner les bien-
faits du travail de chroniqueur, avec la néces-
sité de se documenter et de beaucoup lire, ne
serait-ce que pour lutter contre la tendance à la
sénescence et au vieillissement. Mais l’éloigne-
ment du monde professionnel – déjà 12 ans de
retraite en ce qui me concerne ! – vous prive
insensiblement de sources d’information quoti-
diennes et du dialogue avec vos pairs sans le-
quel il est difficile d’évaluer la pertinence de vos
jugements. Le rythme des découvertes scien-
tifiques comme des évolutions technologiques
– omnia fert aetas ! – et la difficulté à suivre la
recommandation d’Auguste Detœuf à ne jamais
oublier de prévoir l’imprévu, me poussent vers
de nouvelles passions, pour des valeurs moins
fugitives ; la découverte du patrimoine naturel,
historique et architectural de l’Île de France, et
tout spécialement celui de mon Paris natal, va
désormais stimuler mon activité physique et
intellectuelle... �
Bernard Ayrault
En prenant connaissance de
cette « ultime » chronique, digne
des plus grands conteurs, le
comité de rédaction de la REE
a bien du mal à réaliser que ces
lignes marquent le départ de notre ami Bernard
vers de nouvelles passions. Il espère que nos lec-
teurs seront suffisamment nombreux pour lui faire
comprendre que son inspiration n’est pas tarie et
que ses propos sont toujours les bienvenus. Qu’il
soit en tout cas remercié pour l’immense contri-
bution qu’il a apportée au renouveau de la REE. �
Jean-Pierre HauetRédacteur en chef
CHRONIQUE
Propos de B.Ay, chroniqueur
o
h
q
i j j’ i
126 ��REE N°1/2016
LIBRES PROPOS
Gérard Théry Ancien directeur général des télécommunications
L e vaste monde du numérique est pour certain la
planche de salut qui va nous sauver de la crise
que nous vivons.
Alcatel-Lucent est racheté par Nokia. Orange, notre
ancien opérateur historique est attaqué de toutes parts
sur ses métiers traditionnels et peine à se redéployer
sur de nouveaux métiers. Les plus grands acteurs du
numérique affichent des capitalisations considérables,
mais créent de la valeur ajoutée hors de France et hors
d’Europe.
Un constat
Il n’est pas inutile de se placer dans un contexte plus
général. La France enregistre, depuis 35 ans, un quadruple
déclin, économique, industriel, social, technologique.
Déclin économique, dont le signe
majeur est l’endettement, passé de 20 %
du PIB en 1980 à quasiment 100 % en
2015. En quasi équilibre après deux chocs
pétroliers, le budget français affichait voici
peu, un déficit de près de 4 %.
Déclin industriel : la valeur ajoutée
industrielle rapporté au PIB est passée de près de 31 %
en 1980 à moins de 19,4 % en 2014 (sources : Les Échos,
Banque mondiale).
Déclin social : des millions de chômeurs, un niveau
aujourd’hui insupportable.
Déclin technologique : la France se présentait en
1980 avec un avantage technologique indéniable. Un
réseau téléphonique moderne, des technologies de
commutation et de transmission compétitives, fers
de lance de nos exportations, le Minitel et le réseau
Transpac préfigurant les réseaux de consultation futurs,
un projet satellitaire (Télécom 1) et la première ville au
monde câblée en fibre optique, Biarritz, pour tester le
premier service de visiophonie mondial.
En viendrait-on à penser que le général Gamelin,
l’artisan de la débâcle de 1940, a présidé au destin du
pays pendant 35 ans ?
L’interrogation sur le rôle de l’État reste d’actualité.
Il a inspiré jusqu’en 1981, dans sa foi industrialiste, les
plus grandes novations industrielles européennes : le
nucléaire, Ariane, le TGV, Airbus, les Télécoms. Il se
retire dans les années 80, jette son froc aux orties.
À un État inspiré, à qui le reproche fut dit d’être trop
directif et trop puissant, succède un État mollasson,
privé d’inspiration et d’énergie. N’était-il pas possible
d’aborder le nouveau capitalisme et la mondialisation
avec la même lucidité que d’autres pays comme la
Chine, la Corée du sud et un autre pays aussi parfai-
tement libéral que protectionniste et étatique comme
les États-Unis ?
On invoquera, de la part des gouvernants, l’absence
d’une politique économique fondée sur la rigueur qui,
l’Allemagne et d’autres pays européens en ont fait la
démonstration, constitue la clé du développement, de
la prospérité et de la compétitivité.
S’agissant de notre industrie, on discerne une forme
de mépris des classes dirigeantes à l’égard d’activités
réputées sales et polluantes, la financiarisation exces-
sive des comportements des décideurs, la préférence
donnée au revenu de l’actionnaire par rapport au finan-
cement de l’investissement, le choix du
court terme plutôt que du moyen et long
terme… L’intelligence des systèmes poli-
tiques propre à certains pays a manqué :
le retard français est davantage impu-
table à des élites suffisantes et déca-
dentes que le fait de la fatalité.
Les changements structurants des 30 dernières années
Sept changements structurels caractérisent l’évolu-
tion des TIC en 30 ans :
et de mémoire des composants ;
de la communication : l’informatique dès les années
50, les télécoms à partir des années 70, la télévision
beaucoup plus tardivement ;
PC à partir de 1990 ;
le finance ;
du téléphone mobile à partir de 1990 ;
mettant fin à la suprématie des opérateurs historiques ;
à partir de 2000.
Le numérique… Que
de questions !
REE N°1/2016 � 127
LIBRES PROPOS
Autrefois fer de lance de l’ancienne suprématie
technologique française en matière de TIC, l’opéra-
teur historique s’est trouvé marginalisé.
L’État coupable
1998. Le statut de France Télécom est modifié en
vue de l’ouverture du capital et de l’introduction en
bourse. L’entreprise est en sureffectif d’environ 100 000
agents. Aucune mesure sociale de conversion des em-
plois n’est préalablement prise.
Une politique de la concurrence et de la régulation discutable à partir de 2003.
Inspirée en cela des recommandations de Bruxelles,
la politique menée par les autorités françaises chargées
de la régulation et de la concurrence, obéit dès 2003 à
un modèle hyper juridique et despotique dans l’entière
acception du terme. À la tête de ces organismes, de
hauts fonctionnaires, bien abrités derrière leurs bureaux
Louis XV, ignorants de la dure réalité industrielle faite de
conflits, de menaces sur l’emploi, de larmes et de sueur,
d’adaptations douloureuses.
2004. La chasse à l’opérateur historique commence.
France Télécom est contraint de mettre gratuitement à
disposition de nouveaux concurrents son réseau de dis-
tribution pour lancer l’ADSL. Ce réseau a été largement
construit ou rénové de 1975 à 1980, il est quasiment
neuf, il figure à l’actif de l’opérateur et a été évalué à
plusieurs milliards par la Commission de privatisation.
A la suite d’acquisitions hasardeuses, France Télécom
est en quasi dépôt de bilan. L’entreprise est sauvée par
une injection massive de capital venant de l’ERAP et par
le renouvellement de ses dirigeants. Les investissements
en fibre optique, permettant l’accès à des hauts débits
fixes et mobiles, sont oubliés. Leur rentabilité financière
n’est pas jugée suffisante.
Tout est en place pour fabriquer « Grand Corps Malade »
au moment où aux États-Unis, au Japon, en Chine, se
confortent des opérateurs puissants, aux ressources finan-
cières considérables, capables de lancer des investisse-
ments importants. Le prestigieux CNET d’autrefois est ravalé
au rôle de centre d’appui technique subsidiaire d’Orange.
Aujourd’huiLe triomphe du mobile
Le mobile s’impose au détriment du fixe. Le terminal
devient “smart”, il sert autant à s’informer, à réserver,
à jouer, à se distraire, à se faire enregistrer, à payer, à
photographier, à s’exhiber, qu’à téléphoner. Il s’érige en
instrument de communication universel. La plupart des
acteurs industriels et des fournisseurs de service font le
virage sur l’aile de s’adapter presque davantage au termi-
nal mobile qu’au fixe.
Selon le professeur Lionel Nakache, la société hyper-
connectée fonctionne comme le cerveau d’un épilep-
tique. Perte de la perception des différences, appauvris-
sement de la pensée collective, perte de conscience et
perte de l’esprit critique, hallucination et aura épilep-
tique, sensation de bonheur…
Asservis à ces nouveaux usages, nous restons cepen-
dant conscients de nos comportements : aussi multiples
qu’ils soient, ils restent globalement soumis à la pensée,
aux besoins, au doigt et à l’œil. Nous sommes robotisés
avec un reste de cervelle.
Les nouveaux maîtres de l’univers
Naissent et grandissent pendant ces 30 années les
grands monstres américains du logiciel (Microsoft),
du routeur (Cisco), de l’accès multiple (Apple), de la
connaissance (Google), de la communication humaine
(Facebook, Tweeter), de l’accès aux contenus (You
Tube), de l’achat en ligne (Amazon).
Ces hyper puissances disposent d’un pouvoir sans
contre-pouvoir. Leur avance incontestable en matière
d’algorithmes et de gestion du numérique, leur permet
de régner sans partage sur le monde des données infor-
matives, érigeant ainsi une encyclopédie de la satisfac-
tion des besoins, une bibliothèque des bibliothèques
irremplaçable dans la vie professionnelle et personnelle.
D’autres préemptent la vie associative, la communi-
cation sociale, l’hypertrophie de l’égo : « Je me montre
donc je suis, je suis donc je tweete ». Une floraison de
points de vue que reprennent les médias dans leurs
débats : Kevin, Florian, Sibylle, Dylan, Alison, Léonardo,
Nelson, saturent les fréquences. Les médias font leurs
choux gras des blogs, des sites Facebook et des tweets
des hommes politiques. L’avenir du pays, son passé, son
destin, sont absents de ces bavardages.
La plupart de ces monstres américains se sont
construits ex nihilo, financés pendant des années sans
générer le moindre profit, par la seule valorisation du
capital. Leurs actionnaires ont su attendre, leur porte-
feuille a foi dans l’avenir. Sur la rive Est de l’Atlantique,
les grands acteurs européens sont court-termistes
Autrefois fer de lance de l’ancienne suprématie
technologique française en matière de TIC, l’opéra-
teur historique s’est trouvé marginalisé.
L’État coupable
1998. Le statut de France Télécom est modifié en
vue de l’ouverture du capital et de l’introduction en
bourse. L’entreprise est en sureffectif d’environ 100 000
agents. Aucune mesure sociale de conversion des em-
plois n’est préalablement prise.
Une politique de la concurrence et dela régulation discutable à partir de 2003.
Inspirée en cela des recommandations de Bruxelles,
la politique menée par les autorités françaises chargées
de la régulation et de la concurrence, obéit dès 2003 à
un modèle hyper juridique et despotique dans l’entière
acception du terme. À la tête de ces organismes, de
hauts fonctionnaires, bien abrités derrière leurs bureaux
Louis XV, ignorants de la dure réalité industrielle faite de
conflits, de menaces sur l’emploi, de larmes et de sueur,
d’adaptations douloureuses.
2004. La chasse à l’opérateur historique commence.
France Télécom est contraint de mettre gratuitement à
disposition de nouveaux concurrents son réseau de dis-
tribution pour lancer l’ADSL. Ce réseau a été largement
construit ou rénové de 1975 à 1980, il est quasiment
neuf, il figure à l’actif de l’opérateur et a été évalué à
plusieurs milliards par la Commission de privatisation.
A la suite d’acquisitions hasardeuses, France Télécom
est en quasi dépôt de bilan. L’entreprise est sauvée par
une injection massive de capital venant de l’ERAP et par
le renouvellement de ses dirigeants. Les investissements
en fibre optique, permettant l’accès à des hauts débits
fixes et mobiles, sont oubliés. Leur rentabilité financière
n’est pas jugée suffisante.
Tout est en place pour fabriquer « Grand Corps Malade »
au moment où aux États-Unis, au Japon, en Chine, se
confortent des opérateurs puissants, aux ressources finan-
cières considérables, capables de lancer des investisse-
ments importants. Le prestigieux CNET d’autrefois est ravalé
au rôle de centre d’appui technique subsidiaire d’Orange.
Aujourd’huiLe triomphe du mobile
Le mobile s’impose au détriment du fixe. Le terminal
devient “smart”, il sert autant à s’informer, à réserver,
à jouer, à se distraire, à se faire enregistrer, à payer, à
photographier, à s’exhiber, qu’à téléphoner. Il s’érige en
instrument de communication universel. La plupart des
acteurs industriels et des fournisseurs de service font le
virage sur l’aile de s’adapter presque davantage au termi-
nal mobile qu’au fixe.
Selon le professeur Lionel Nakache, la société hyper-rr
connectée fonctionne comme le cerveau d’un épilep-
tique. Perte de la perception des différences, appauvris-
sement de la pensée collective, perte de conscience et
perte de l’esprit critique, hallucination et aura épilep-
tique, sensation de bonheur…
Asservis à ces nouveaux usages, nous restons cepen-
dant conscients de nos comportements : aussi multiples
qu’ils soient, ils restent globalement soumis à la pensée,
aux besoins, au doigt et à l’œil. Nous sommes robotisés
avec un reste de cervelle.
Les nouveaux maîtres de l’univers
Naissent et grandissent pendant ces 30 années les
grands monstres américains du logiciel (Microsoft),
du routeur (Cisco), de l’accès multiple (Apple), de la
connaissance (Google), de la communication humaine
(Facebook, Tweeter), de l’accès aux contenus (You
Tube), de l’achat en ligne (Amazon).
Ces hyper puissances disposent d’un pouvoir sans
contre-pouvoir. Leur avance incontestable en matière
d’algorithmes et de gestion du numérique, leur permet
de régner sans partage sur le monde des données infor-rr
matives, érigeant ainsi une encyclopédie de la satisfac-
tion des besoins, une bibliothèque des bibliothèques
irremplaçable dans la vie professionnelle et personnelle.
D’autres préemptent la vie associative, la communi-
cation sociale, l’hypertrophie de l’égo : « Je me montre
donc je suis, je suis donc je tweete ». Une floraison de
points de vue que reprennent les médias dans leurs
débats : Kevin, Florian, Sibylle, Dylan, Alison, Léonardo,
Nelson, saturent les fréquences. Les médias font leurs
choux gras des blogs, des sites Facebook et des tweets
des hommes politiques. L’avenir du pays, son passé, son
destin, sont absents de ces bavardages.
La plupart de ces monstres américains se sont
construits ex nihilo, financés pendant des années sans
générer le moindre profit, par la seule valorisation du
capital. Leurs actionnaires ont su attendre, leur porte-
feuille a foi dans l’avenir. Sur la rive Est de l’Atlantique,
les grands acteurs européens sont court-termistes
136 ��REE N°1/2016
Impression : Jouve - 53100 Mayenne Dépôt légal : mars 2016
Edition/Administration : SEE - 17, rue de l’Amiral Hamelin - 75783 Paris cedex 16Tél. : 01 5690 3709 - Fax : 01 5690 3719Site Web : www.see.asso.fr
Directeur de la publication :François Gerin
Comité de rédaction : Bernard Ayrault, Alain Brenac,Patrice Collet, André Deschamps, Jean-Pierre Hauet,Jacques Horvilleur, Marc Leconte
Secrétariat de rédaction : Alain Brenac, Aurélie Bazot Tél. : 01 5690 3717
Partenariats Presse & Annonces :Mellyha Bahous - Tél. : 01 5690 3711
Régie publicitaire : FFE - Cyril Monod - Tél. : 01 5336 3787 cyril.monod@revue-ree.fr
Promotion et abonnements : 5 numéros : mars, mai, juillet,octobre, décembre. Aurélie Bazot - Tél. : 01 5690 3717 - www.see.asso.fr/reePrix de l’abonnement 2016 :France & UE : 120 � - Etranger (hors UE) : 140 �Tarif spécial adhérent SEE : France & UE : 60 � - Etranger : 70 �Vente au numéro : France & UE : 28 � - Etranger : 30 �
Conception & réalisation graphiqueJC. Malaterre - Tél. : 01 7946 1470
Impression : Jouve - 53100 Mayenne.Siège social : 11 Bd de Sébastopol - 75027 Paris cedex 1Tél. : 01 4476 5440
CPPAP : 1017 G 82069
Copyright : Toute reproduction ou représentation intégrale ou partielle, par quelque procédé que ce soit, des présentes pages publiées faite sans l’autori-sation de l’éditeur, est illicite et constitue une contrefaçon. Toutefois les copiespeuvent être utilisées après autorisation obtenue auprès du CFC - 20 rue des Grands Augustins, 75006 Paris (Tél. : 01 4404 4770) auquel la SEE a donné mandat pour la représenter auprès des utilisateurs (loi du 11 mars 1957, art. 40& 41 et Code Pénal art. 425).
La revue REE est lue par plus de 10 000 ingénieurs et cadres de l’industrie,dirigeants d’entreprises, directeurs des ressources humaines, formateurs...Profitez de ce lectorat ciblé et de qualité pour publier vos annonces (em-plois, stages, manifestations...).
Répertoire des annonceursREE Abonnement 2016 ...................................................................... C 2Schneider Electric ............................................................................. p.3GENERAL CABLE ............................................................................ p.25REE Archives ................................................................................... p.953EI Abonnement 2016 ................................................................... p.114SEE Adhésion 2016 ....................................................................... p.124CIGRÉ .................................................................................................. C3Microwave & RF ................................................................................. C4
Prochains Grands DossiersDossier 1 : L'Afrique et l'électricitéDossier 2 : Avancées sur les câbles électriques :
extraits d'articles issus de JICABLE 2015
Une publication de la
Entre science et vie sociétale,
les éléments du futur
6 CLUBS TECHNIQUES� Automatique, Informatique et Systèmes� Ingénierie des Systèmes d’Information et de Communication� Électronique� Radar, Sonar et Systèmes Radioélectriques� Électrotechnique� Systèmes électriques
12 GROUPES RÉGIONAUX
Conférences nationales et internationales Journées d’études thématiques Conférences-DébatCongrès internationaux, en partenariat ou non, avec d’autressociétés scientifiques
La SEE contribue à l’organisation ������������������ ���������������� ������������ �������������� ���������� et ses Groupes régionaux
Senior et Émerite SEE Prix : Brillouin-Glavieux, Général Ferrié, André Blanc-Lapierre...Médailles : Ampère, Blondel...
La SEE récompense les contributeurs éminents au progrès des sciences et technologies dans ses domaines
Revue de l’Électricité et de l’Électronique (REE) Revue 3EI Monographies Publications électroniques : SEE Actualités
La SEE favorise le partage du savoir, et contribue aux débats sur des problèmes de société en éditant des revues ����� �������� ��������� ��� ������
La SEE fédère un vaste réseau d’experts universitaires et industriels en faveur des ������������� �������� � �������������
La SEE, société savante française fondée en 1883, forte de 3 000 membres, couvre les secteurs de l’Électricité, de l’Électronique et des Technologies de l’Information et de la Communication. Elle a pour vocation
de favoriser et de promouvoir le progrès dans les do-maines : Énergie, Télécom, Signal, Composants, Auto-matique, Informatique.
SOCIÉTÉ DE L’ÉLECTRICITÉ, DE L’ÉLECTRONIQUE ET DES TECHNOLOGIES DE L’INFORMATION ET DE LA COMMUNICATION
d f i t d
17, rue de l’Amiral Hamelin - 75783 Paris cedex 16 Tél. : 01 56 90 37 09/17 - Fax : 01 56 90 37 19
www.see.asso.fr
Vous voulez... Vous abonner à la REE ? Acheter un numéro ? Cliquer ICI Ou bien téléphoner au 01 56 90 37 04
Recommended