Upload
jean-pierre-hauet
View
236
Download
3
Embed Size (px)
DESCRIPTION
Cet aperçu permet de découvrir le sommaire et les principaux articles du numéro REE 2015-5 publié en janvier 2016 - Pour s'abonner, merci de vous rendre à la dernière page.
Citation preview
ÉNERGIEÉNERGIE TELECOMMUNICATIONSTELECOMMUNICATIONS SIGNALSIGNAL COMPOSANTSCOMPOSANTS AUTOMATIQUEAUTOMATIQUE INFORMATIQUEINFORMATIQUE
Nu
mér
o
2
015 EDITORIAL
L’Europe, l’énergie et les réseaux intelligents
Michel DerdevetSecrétaire général ERDF
ENTRETIEN AVEC Philippe Pradel
Vice-présidentDéveloppement nucléaire
ENGIE
www.see.asso.fr
5
ISSN
126
5-65
34 Les brevets, clef des stratégies de propriété industriellePar Jean-Charles Hourcade
L'ARTICLE INVITÉ
DOSSIERDOSSIER
Cet aperçu gratuit permet aux lecteurs ou aux futurs lecteurs de la REE dedécouvrir le sommaire et les principaux articles du numéro 2015-5 de la revue,publié en janvier 2016. Pour acheter le numéro ou s'abonner, se rendre à ladernière page.
�
�
�
�
�
�
�
�
�
�
��
��
���������� ���������� ����������������������������������������
��������������������������������� ������������� !�"#�������
$������������������������%�&'���
�
�������������� �� ����������������� �������������� ������������� ������������������������������� !��"#� �$��%&#�����'���� ������ �����������������(����������� �������������)�������������
���*�����$ +������,�����-$��'�$���.�� ���/������������� ���0������������� ��� �������������%&#� ���'����1��������*�����$ +�������,�����-$���-�� ��� �0������������ ���2 ������������ ��� 0������������� ����3���� �4��-�#������ (�,�� �� �- ���"���$����������������������������*�� ���$ +����� ��$-��"�-��$�� �%&#�����'������%&#� �������-����.������*���-5�"-�$ �� ����#$����� 4-���%��$��'�����-6���"��%���-�����7����"���%��$��%���%����-��� " �����
�������������� �������������������� ������������ � �
�������������� ��������� ��������� ������������ ���������������� �����!�!"�������#�����������#���������� �
�
�
$��%������������������ � �&���������� �"%' ��(��#���������������� ��������!����)������� �!��*+����!��,��������� �
��������-������� ������������� ��� $��������!�-��� ���.�!� ��� ������ �-������ �����������(�!��������� ���������� �
������������ �������������� � ��������� �����/�������!��� �� ������� �0������������ �%��������1/����2��"������3��!��
���.�������(��������� �45*46*6789��-� ���������:��# ��������#�!!%��� ;���.���������' ��-� ��!��!�������������!��.�!������������!��������-�!�������������������������
����������� ����������������-�����7�$��'���,� )��-��%��$8�� ��$�����$ ��,�)0)2.�9�� ����%�5� (�, �������,���$���..� 0(�/��.)� )�,����:���������!��
�������������������������� ����!"#"��
REE N°5/2015 � 1
A u-delà de la COP 21, la France et l’Europe conservent pour les prochaines années une responsabilité particulière : celle de continuer à être force de propositions afin de faire de la
transition vers une économie décarbonée une réussite à la fois économique et sociétale.
On l’oublie trop souvent, les Européens furent les pre-miers à faire de la lutte contre le dérèglement climatique une grande politique structurante de ce demi-siècle.
Mais, pionniers, nous nous trouvons encore en première ligne face aux nombreux défis technologiques (déploie-ment de nouveaux moyens de production, renouvelables et décentralisés, rénovation massive des parcs immobi-liers, invention de nouveaux modèles énergétiques lo-caux), sociétaux (acceptabilité d’une évolution des modes de vie) et économiques (activation de circuits de finan-cement innovants et mobilisation de l’épargne) qui struc-turent la transition énergétique.
La manière de relever ces défis dépendra des choix faits dans chaque État membre (et même, de plus en plus, dans chaque région ou collectivité de l’Union), mais les solutions trouvées auront en commun de devoir s’insé-rer dans des systèmes énergétiques dont les réseaux de transport et de distribution, d’électricité ou de gaz, four-nissent déjà, sur des millions de kilomètres, l’architecture.
Continuer à « faire système », grâce aux réseaux, afin de délivrer une énergie dans les meilleures conditions d’effi-cacité et de coût, est ainsi l’impératif absolu pour la sécu-rité d’approvisionnement des Européens, notre confort de vie, la compétitivité de nos entreprises et donc pour nos emplois. L’Europe est la zone du monde qui offre les ser-vices énergétiques de la meilleure qualité ; cet atout doit être conforté.
Or, les réseaux énergétiques européens sont soumis à un cahier des charges profondément renouvelé dans ce
contexte de transition énergétique, puisque leur organisa-tion doit désormais permettre :
d’accompagner la décentralisation, les moyens de pro-duction renouvelables étant dispersés en centaines de milliers de sites sur l’ensemble des territoires. Cela impose de repenser en profondeur les réseaux, no-tamment de distribution, qui n’ont pas été initialement conçus pour cette fonction de collecte des énergies renouvelables ; de piloter une complexité d’un ordre nouveau en rai-son de la variabilité de certaines énergies renouvelables (éolien, photovoltaïque) mais aussi de l’émergence de nouveaux usages, tels les véhicules électriques ;d’assurer les solidarités entre les Etats et régions, dans un contexte où les incertitudes technologiques des filières nouvelles viennent s’ajouter à celles, plus anciennes, d’ordre géopolitique ;de continuer à garantir un égal accès aux services éner-gétiques, sans que la transition devienne un facteur de discrimination à l’encontre des citoyens les plus fragiles économiquement.
Mettre les intelligences en commun pour adapter les ré-seaux est une nécessité si les Européens veulent réussir la transition énergétique. L’article 194 du Traité de Lisbonne trace déjà la voie à une intervention plus forte de l’Union en la matière. Mais les Européens doivent aller au-delà et explorer au plus vite de nouveaux espaces de coopéra-tion, d’innovation et d’investissements conjoints.
Le défi est de taille car des centaines de milliards d’inves-tissements devront être engagés d’ici à 2030, et il n’est nul besoin d’argumenter pour se convaincre que, dans une Europe convalescente, chaque euro devra être investi avec le plus grand souci d’efficacité pour nos collectivités.
Cette « Europe énergétique en réseaux », que nous ap-pelons de nos vœux, ne sera pas qu’un défi physique, technique ou économique. Elle devra aussi incarner ces « singularités partagées » qui caractérisent aujourd’hui
L’Europe, l’énergie et les réseaux intelligents
EDITORIAL MICHEL DERDEVET
2 ��REE N°5/2015
l’espace énergétique européen : à la verticalité des hié-rarchies, nationales, succèdera l’horizontalité de la com-munication entre les territoires ; à l’autorité des pouvoirs en place, la légitimité du citoyen, de l’initiative et de la réussite ; à l’uniformité industrielle, la diversité des mo-dèles d’organisation ; à un univers d’Etats, le flux des échanges sur l’espace européen.
Plus que jamais, il faut d’urgence faire émerger une approche européenne cohérente et pragmatique dans le domaine des réseaux, pour résoudre les difficultés d’aujourd’hui, et répondre aux défis de demain. Et nous devons organiser nos efforts autour de trois axes majeurs :
rénover la sécurité d’approvisionnement et la coopération entre les entreprises de réseaux, mais aussi les collectivi-tés locales porteuses de la transition énergétique ; renforcer les coordinations des régulations et les leviers de financement pour optimiser les coûts des infrastruc-tures, tout en investissant sur les territoires traversés par ces infrastructures stratégiques ;
promouvoir l’Europe en leader de l’innovation énergé-tique, en donnant un nouvel élan et une nouvelle dimen-sion à sa R&D, notamment à travers la normalisation, la création d’une plate-forme des données énergétiques, la mise en place de corridors des mobilités innovantes ou encore la fondation d’un Collège d’Europe de l’Energie.
Le 9 mai 1950, Robert Schuman évoquait le fait que « l’Europe ne se fera pas d’un coup, ni dans une construc-tion d’ensemble : elle se fera par des réalisations concrètes créant d’abord une solidarité de fait ». Plus de 65 ans plus tard, une vraie politique européenne en matière d’infrastructures énergétiques irait à l’évidence dans cette (juste) direction, et donnerait un contenu concret au concept d’ « d'Union de l’énergie ».
Michel Derdevet est secrétaire général et membre du directoire d’ERDF.
Il est maître de conférences à l’IEP de Paris, professeur au Collège d’Europe de Bruges.
4 ��REE N°5/2015
sommaireNuméro 5 ����
1 EDITORIAL L’Europe, l’énergie et les réseaux intelligents
Par Michel Derdevet
4 SOMMAIRE
6 FLASH INFOS Thread : vers un standard de fait de l’Internet des objets ?8 Le MIMO massif10 Des composants de nouvelle génération pour la traction électrique13 Sécurité des mobiles et de l’Internet des objets (IoT) :
un micronoyau compatible POSIX14 Survol de Pluton par la mission NASA “New Horizons”15 Après Solar Roadways et SolaRoad, voici Wattway17 Bientôt des smartphones dotés d’une caméra 3 D ? 18 Collecter l’énergie des ondes électromagnétiques avec
un rendement voisin de 119 Selon l’Organisation météorologique mondiale (OMM), les teneurs
en gaz à effet de serre l’atmosphère continuent à croître21 Le prix Nobel de physique 2015, une étape supplémentaire
dans l’histoire du neutrino
25 ACTUALITÉS L’Accord de Paris 29 Maison Ampère de Poleymieux : inauguration de l’Espace
Ampère et signature du contrat de mécénat avec RTE
30 A RETENIR Congrès et manifestations
32 VIENT DE PARAÎTRE La REE vous recommande
34 ARTICLE INVITÉ Les brevets, clef des stratégies de propriété industrielle
Par Jean-Charles Hourcade
44 RADAR 2014 Radars à antennes électroniques : Plus sensibles
et plus agiles au prix d’une complexité accrue Introduction Par Sylvain Azarian
47 Analyse et comparaison de formes d’ondes pour le radar MIMO Par Hongbo Sun, Frédéric Brigui, Marc Lesturgie
55 Codage spatio-temporel multi-rafales pour systèmes à antenne active
Par Guy Desodt, Georges-Edouard Michel, Jean-Paul Guyvarch, François Le Chevalier, Olivier Rabast
p. 1
p. 44
p. 34 p. 97
Photo de couverture : © Stéphane Saillant - Onera
REE N°5/2015 � 5
ets
06
64 Ordonnancement des tâches pour radar multifonction avec contrainte en temps dur et priorité
Par Vincent Jeauneau, Frédéric Barbaresco, Thomas Guenais
75 Antenne active multi-facettes à balayage électronique en tech-nologie « tuile »
Par G Byrne, A M Kinghorn, R W Lyon et G D Morrison79 Nouveaux développements pour les antennes actives
et les modules T/R Par Yves Mancuso, Christian Renard83 Suppression des directions aveugles d’une antenne réseau
grâce aux métamatériaux Par Thomas Crepin, Cedric Martel, Benjamin Gabard,
Fabrice Boust, Jean-Paul Martinaud, Thierry Dousset, Pablo Rodriguez-Ulibarri, Miguel Beruete, Claudius Loecker, Thomas Bertuch, Jose Antonio Marcotegui, Stefano Maci
89 RETOUR SUR ... Les grandes étapes des télécommunications intercontinentales
Le câble, la radio, le satellite Par Bernard Ayrault
97 ENTRETIEN AVEC... Philippe Pradel
Vice-président développement nucléaire ENGIE ENGIE et le développement du nucléaire
101 ENSEIGNEMENT & RECHERCHE Femmes et numérique Par Sandrine Vaton 107 Echos de l’enseignement supérieur Par Bernard Ayrault
109 CHRONIQUE L’homme et après…? Par Bernard Ayrault
111 LIBRES PROPOS Une lecture de Laudato si’ Par Gilles Bellec
117 SEE EN DIRECT La vie de l'association
27-29 JANUARY 2016TOULOUSE, France
CENTRE DE CONGRÈS PIERRE BAUDIS
Organized by:
www.erts2016.org
6 � REE N°5/2015
FLASHINFOS
Thread : vers un standard de fait de l’Internet des objets ?
A l’occasion de son forum technique tenu à Paris le
1er octobre 2015, la société Freescale a présenté sa solur -
tion d’implémentation du protocole Thread destiné à
assurer la connexion sans fil entre objets communicants
dans le domaine de la domotique.
Thread est encore peu connu en France mais sa
montée en puissance est telle qu’il pourrait rapidement
devenir un standard de fait dans le domaine de l’inter-rr
net des objets, avant même d’être officiellement reconnu
comme norme par les instances internationales.
Thread est en effet soutenu par un consortium dénom-
mé Thread Group (http://threadgroup.org), formé en oc-
tobre 2014 et regroupant aujourd’hui plus de 220 membres
parmi lesquels la plupart des grands noms de l’électronique
internationale. Après la publication de la spécification 1.0
de Thread l’été dernier, plus de 30 produits ou composants
étaient en cours de certification à la mi-novembre 2015 et
des stacks logiciels certifiés en provenance d’ARM, de Free-
scale et de Silicon Labs sont à présent disponibles.
La cible visée par Thread est le marché de la domo-
tique, c’est-à-dire celui des Home Area Networks (HAN).
L’objectif de Thread est d’offrir une solution ouverte
permettant de connecter entre eux des équipements
domestiques par des liaisons sans fil, de façon simple,
économique et sûre et avec une très faible consomma-
tion d’énergie. Thread offre également la possibilité de
raccorder le réseau local à l’Internet et donc d’opérer à
distance toute sorte d’équipements (électroménager, sé-
curité, éclairage, contrôle d’accès…) à partir de tablettes
ou de smartphones (figure 1).
Thread apparaît ainsi comme un réseau local à faible
consommation pouvant s’interfacer, sans solution de conti-
nuité, avec l’Internet. Il fait partie de la catégorie des LLN
(Low Power and Lossy networks c-à-d réseaux à basse puis-
sance et avec pertes). Il tire parti de l’expérience acquise
lors des travaux menés au cours des dernières années pour
interfacer avec Internet les réseaux locaux développés sur
la base du standard IEEE 802.15.4 : ZigBee, WirelessHart,
ISA100.11a. Il partage avec eux beaucoup de points com-
muns : il s’agit en particulier d’un réseau capable de s’orga-
niser en réseau maillé, apte à reconfigurer le routage des
messages au cas où la défaillance d’un équipement vient à
interrompre un chemin de transmission.
Cependant Thread ne vise pas à atteindre les perfor-rr
mances exigées dans le domaine du contrôle industriel.
Thread n’est pas déterministe, il n’est pas fondé, comme
l’ISA100.11a, sur une répartition des slots de communi-
cation par multiplexage temporel (Time Division Mul-
tiple Access ou TDMA) : les équipements rentrent sur
le réseau par une procédure de « best effort » du type
CSMA-CA1 (utilisée dans ZigBee) afin d’éviter au maxi-
mum les collisions. Thread est conçu pour répondre aux
besoins de la domotique, avec des débits maximum sur
les segments de 250 kbit/s et une portée suffisante pour
couvrir correctement une maison.
On trouve dans un réseau Thread (figure 2) :
connectivité avec le monde « hors réseau » ;
des « devices » dotés de la capacité de routage et qui,
en règle générale, sont alimentés de façon permanente ;
donc à très faible consommation et pouvant être ali-
mentés par batterie et qui se réveillent sur événement
en entrant alors en communication avec le routeur
« parent » qui leur est assigné ; certains de ces devices
peuvent éventuellement devenir routeurs, ils sont quali-
fiés de REED (Router-Eligible End devices) ;
stockant les informations clés et les distribuant aux rou-
teurs.
Un protocole de routage, fondé sur la qualité obser-rr
vée des communications entre routeurs, permet de doter
chaque routeur d’une table de routage des messages.
1 CSMA-CA: Carrier Sense Multiple Access with Collision Avoidance.
Figure 1 : Schéma de principe de Thread.Source : d’après le Thread Group.
REE N°5/2015 � 7
FLASHINFOS
Le mécanisme d’auto-cicatrisation permet à un routeur de
déceler un défaut dans une transmission vers un autre rou-
teur et de recalculer en conséquence la table de routage.
Un réseau Thread peut contenir plusieurs centaines
d’abonnés d’extrémité et jusqu’à 32 routeurs actifs, ce qui est
très largement suffisant pour les applications domotiques.
Le stack de communication Thread s’appuie pour l’es-
sentiel sur des protocoles existants (figure 3). Il repose au
niveau des couches basses sur le protocole de communi-
cation IEEE 802.15.4 (2006), ce qui permet de bénéficier
de la disponibilité de chips à très bon marché, dévelop-
pés notamment pour les besoins de ZigBee.
Au-dessus de ces couches basses, on trouve des
protocoles développés dans le cadre de l’Internet IPv6.
En particulier, le protocole 6LoWPAN2 qui joue un rôle
d’articulation fondamental entre le monde de l’IPv6 et
celui des réseaux locaux 802.15.4. C’est lui en particulier
qui règle les problèmes de compression d’en-têtes pour
passer des adresses à 128 bits de l’IPv6 aux adresses du
réseau local codées sur 16 bits. Le protocole 6LowPAN
assure également la fragmentation et le réassemblage,
des trames de l’IPv6 dont la longueur peut atteindre
1280 bytes, de façon à pouvoir les router avec le mini-
mum de « frais généraux » dans le réseau local où la lon-
gueur des trames ne doit pas excéder 127 bytes.
Au-dessus de la « glue » 6LoWPAN, on trouve le proto-
cole de couche 3 IPv6 qui est au cœur de la conception
du système et doit assurer l’interopérabilité entre tous les
équipements, locaux ou distants.
Les trames IPv6 sont routées par l’algorithme RIP
(Routing Information Protocol) issues du monde de
l’Internet. Quant à la couche transport, elle utilise, pour
avoir la dynamique nécessaire, le protocole UDP sécurisé
par DTLS (Datagram Transport Layer Security).
La couche application ne fait pas partie du stack
Thread. Elle est laissée au choix de l’utilisateur qui pour-
ra, en particulier, installer CoAP (Constrained Application
-
tinée aux équipements à faibles ressources.
En transversal, différents mécanismes de sécurité,
s’ajoutant à ceux de l’IEEE 802.15.4 sont implémentés.
Quels sont les points forts de Thread ?
-
mantes du monde des réseaux locaux et de l’Internet ;
-
nismes d’auto-cicatrisation ;
2 6LoWPAN veut dire “IPv6 Low Power Wireless Personal Area Networks”.
Figure 2 : Schéma simplifié d’un réseau Thread. Source : Thread Group.
Figure 3 : Le stack de communication Thread – Source : Thread Group.
8 � REE N°5/2015
FLASHINFOS
■
Le MIMO massif
elliptiques et mécanismes sophistiqués d’échange de
de nouveaux équipements ;
consommations d’énergie.
Avec Thread on voit se profiler dans l’IoT et dans l’IIoT
(Internet industriel des objets) deux familles de réseaux
locaux sans fil couplés à l’Internet :
exigeantes en termes de temps de latence, taux de
perte de paquets, aléas dans les délais de transmis-
sion (jitter). Ces réseaux utiliseront des mécanismes
de séquencement temporel déterministes dérivés de
celui de l’ISA10.11a et qui seront conformes à la spé-
cification 6tisch de l’IETF (IPv6 over the TSCH mode
of IEEE 802.15.4e) ; la spécification de ces réseaux se
fait actuellement au sein du groupe de travail DetNet
(Deterministic Networking) de l’IETF ;
Thread répondant à un cahier des
charges moins exigeant et qui seront plus simples à
mettre en œuvre tout en offrant des niveaux de perfor-rr
mances et de sécurité élevés.
La solution Thread peut s’avérer la mieux adaptée
pour assurer à l’avenir les communications qui s’établi-
ront dans les logements en direction des équipements
électriques, à partir des boîtiers connectés aux comp-
teurs communicants du type Linky qui seront proposés
par les fournisseurs d’énergie ou les opérateurs d’effa-
cement. ■
JPH
Le MIMO massifLa technique MIMO, décrite dans les années 1990,
est utilisée dans beaucoup de systèmes de communica-
tion mobile récents. C’est notamment le cas de l’exten-
sion très haut débit de la 3G (HSPA+), des LTE et LTE-
Advanced, du WiMAX et des versions les plus récentes
du Wi-Fi (802.11n et 802.11ac). Elle consiste à tirer parti
de la diversité spatiale de propagation en multipliant les
antennes d’émission et de réception aux deux extrémités
du lien radio et donc le nombre de sous-canaux radio
MIMO présente deux avantages importants, il permet
d’une part « d’améliorer la qualité du lien en s’affranchis-
sant des évanouissements de canaux » et d’autre part
« d’augmenter le débit d’information sans augmenter la
bande passante ou la puissance transmise ».
Le MIMO multiutilisateur (Mu-MIMO) offre une capa-
cité d’accès multiples à un même canal de transmission
tout en utilisant le MIMO sur chaque liaison (à la façon de
l’OFDMA et de l’OFDM).
En principe, plus le nombre d’antennes est élevé, plus
la capacité du canal mesurée en bit/s.Hz augmente. Mais
les antennes doivent être espacées d’au moins une demi
longueur d’onde pour ne pas interférer et leur nombre
se heurte vite aux limites de taille qui s’appliquent no-
tamment aux terminaux mobiles, sauf à recourir à des
fréquences très élevées, aux alentours de 60 Hz par
exemple, auquel cas l’espacement est réduit à 2,5 mm.
C’est l’objectif du standard IEEE 802.11ad qui utilise des
ondes millimétriques à 60 GHz. Il est alors possible d’ins-
taller un très grand nombre d’antennes : c’est ce qu’on
appelle le MIMO massif, concept dérivé du Mu-MIMO
mais qui n’avait jusqu’alors fait l’objet que de travaux aca-
démiques (figure 2).
Les travaux relatifs aux systèmes de 5e génération consi-
dèrent également la possibilité de recourir au MIMO mas-
sif. Cette technique consiste à placer au niveau des stations
de base (BS) desservant une cellule, un grand nombre
d’antennes – des centaines voire des milliers – dépassant
largement le nombre de terminaux actifs dans cette cellule
qui eux n’ont qu’une antenne. Le grand nombre d’antennes
permet à la station de base de focaliser l’énergie rayonnée
dans un espace réduit autour du terminal avec lequel il
communique. Ainsi, d’importants progrès doivent pouvoir
être faits en termes d’efficacité spectrale et également de
consommation d’énergie (figure 3).
Pour être mis en œuvre, le MIMO massif comme le
MIMO classique, exige une connaissance des caractéris-
tiques instantanées des canaux radio disponibles : pour
le canal montant du terminal à la station, le terminal émet
périodiquement des pilotes à la réception desquels la
station de base peut estimer les caractéristiques des dif-
férents canaux. Concernant le canal descendant, à cause
de la mobilité du terminal qui impose de renouveler avec
une grande fréquence l’estimation et le nombre de canaux
à estimer, la transmission des résultats par les terminaux
n’est pas faisable car elle consommerait des ressources
considérables. C’est pourquoi on envisage en général un
MIMO massif s’appuyant sur un mode de fonctionnement
en TDD (Time Division Duplexing) où terminaux et sta-
tions de base se répartissent dans le temps la même res-
source en fréquences : on s’appuie alors sur l’estimation
de canal faite dans le sens montant en considérant que la
réponse du canal est la même dans les deux sens.
REE N°5/2015 � 25
ACTUALITÉS
L’Accord de Paris
Initiée lors de la conférence de Durban sur les change-ments climatiques de décembre 2011 (la COP17), la négo-ciation sur un accord post-2020 sur le climat incluant tous les pays qui sont parties à la Convention cadre des Nations-Unies sur les changements climatiques (« la Convention »), est ar-rivée à son terme le samedi 12 décembre 2015 avec l’adop-tion d’un texte de 17 pages, appelé Accord de Paris, qui est annexé aux résolutions de la Conférence de Paris sur le cli-mat (la COP21, c’est-à-dire la 21e conférence des Parties à la Convention).
Cette adoption a été saluée à juste titre comme un grand succès diplomatique, à mettre au crédit des Nations-Unies mais aussi et surtout de la diplomatie française, emmenée par Laurent Fabius qui depuis trois ans, a organisé et conduit un travail de préparation remarquable, sur le plan technique et politique, permettant de parvenir à ce résultat qui, lors de l’adoption de la plate-forme de Durban, était considéré par beaucoup comme très incertain.
Mais aujourd’hui le texte est là, disponible à l’heure et tra-duit en français, anglais, arabe, chinois, espagnol et russe, chaque version faisant également foi. Il est précédé des ré-solutions de la conférence qui en constituent en quelque sorte le premier décret d’application et qui contiennent des dispositions essentielles à la compréhension de l’ensemble.
Il reste à savoir quel sera l’impact dans la durée de ce texte salué dans le monde entier : certains le considèrent
comme un évènement historique, d’autres l’estiment dé-cevant et insuffisant pour répondre au défi du changement climatique. Les développements qui suivent visent à don-ner à nos lecteurs certains éléments d’information et de compréhension sur le contenu de l’accord et sur sa portée exacte.
Les aspects juridiques
L’Accord de Paris s’appuie sur la Convention de 1992 et est destiné à en être approuvé par les Parties. Au stade ac-tuel, il n’est pas encore formellement signé : il a été déclaré par la COP apte à l’être. La période de signature d’une année s’ouvrira à New York, au siège des Nations unies, le 22 avril 2016 pour s’achever le 21 avril 2017. Puis débutera la période la plus délicate de l’adhésion effective des Etats, celle qui avait tant retardé l’entrée en vigueur du protocole de Kyoto. Cette approbation pourra prendre différentes formes selon les constitutions ou les lois propres à chaque Etat : ratifica-tion, acceptation, approbation ou adhésion. L’Accord pourra entrer en vigueur le 30e jour suivant le dépôt de leurs instru-ments de ratification par 55 Parties au moins à la Convention représentant un total d’au moins 55 % du total des émissions mondiales de gaz à effet de serre.
Il y a de bonnes chances que cette entrée en vigueur intervienne avant 2020, date à laquelle le protocole de Kyoto, prorogé par l’amendement de Doha sur la période
Photo 1 : A la tribune, lors de l’adoption de l’accord de Paris, Laurence Tubiana, Christiane Figueres, Laurent Fabius et François Hollande. Crédit photo : COP21.
26 ��REE N°5/2015
ACTUALITÉS
2013-2020, s’éteindra de lui-même faute d’être prorogé au-delà1. Mais la chose n’est pas certaine. Il est possible que des difficultés surgissent, aux Etats-Unis notamment. Cela tient à la nature du texte, qualifié d’ « accord », qui n’est donc pas officiellement un « traité » mais qui en est quand même un. Le point-clé est de savoir si l’Accord de Paris sera consi-déré comme un traité au sens de l’article II de la constitution américaine ce qui impliquerait une ratification par une ma-jorité des 2/3 du Sénat des Etats-Unis où les Républicains, opposés à toute forme d’accord, ont aujourd’hui la majorité.
Pour éviter d’être confrontés à cette épreuve, les négocia-teurs américains ont obtenu qu’un certain nombre d’engage-ments ne soient pas formulés en termes prescriptifs mais de-viennent aspirationnels ou volontaires. S’agissant des « contri-butions déterminées au niveau national », sur lesquelles nous reviendrons, on relève par exemple le membre de phrase suivant : « Les contributions déterminées au niveau natio-nal... peuvent inclure, selon qu’il convient, entre autres, des informations chiffrables... ». Certains en ont conclu que l’Ac-cord avait perdu tout caractère d’engagement juridique alors que la plate-forme de Durban stipulait que l’accord à mettre en place devait être juridiquement contraignant, ce que nos responsables politiques ont à maintes reprises rappelé2. Il est
1 Il est à noter que l’amendement de Doha de décembre 2012 n’a pas encore reçu la ratification d’un nombre suffisant de Parties pour officiel-lement entrer en vigueur. Il n’est pas exclu qu’il s’éteigne avant d’avoir jamais existé.
2 L’ordre du jour de la COP21 était rédigé en ces termes : Adoption of a protocol, another legal instrument, or an agreed outcome with legal force under the Convention applicable to all Parties.
exact qu’à plusieurs endroits un “should” est venu rempla-cer le “shall” initial. Cependant il demeure dans les textes adoptés à la fin de la COP21, dans la version anglaise, 139 occurrences du mot “shall” contre 39 du mot “should”. Diffi-cile dans ces conditions de soutenir que le texte n’emporte pas des obligations. Le problème est en fait de déterminer le prisme de lecture. Selon que l’on se place du point de vue des pouvoirs réglementaires ou législatifs d’un Etat donné, pour autant qu’ils soient distincts, il pourra être considéré que le texte génère ou ne génère pas des obligations juri-diques. D’une façon générale, on peut considérer que l’Ac-cord est assez contraignant du point de vue de la méthode mais reste indicatif du point de vue de la définition des ac-tions précises à mener.
A l’instar de la Convention, l’Accord de Paris peut donc être vu comme une architecture ou un cadre (un “framework”), dont la durée de vie, comme celle de la Convention, peut s’étaler sur plusieurs dizaines d’années, autour duquel peut s’organiser une stratégie de lutte contre les changements cli-matiques, balisée chaque année par des COP successives dont la prochaine se tiendra en 2016 à Marrakech (Maroc).
La philosophie générale de l’accord
Les disputations autour du protocole de Kyoto et les palino-dies qui s’en sont ensuivies ont convaincu les Parties qu’une approche top-down consistant à imposer des limites aux émis-sions de chacun des états, comme cherchait à le faire le pro-tocole de Kyoto, était une impasse compte tenu de la disparité des situations de chacune des Parties et de leur refus, notam-ment de la part des pays en développement, de se voir im-
Photo 2 : La salle au Bourget, lors de l’adoption de l’accord de Paris, le samedi 12 décembre 2015 – Crédit photo : COP21.
REE N°5/2015 � 27
ACTUALITÉS
poser des limitations qui pourraient venir contrecarrer leur dé-veloppement. L’Accord adopte en conséquence la démarche inverse. Il fixe des objectifs très généraux – en l’occurrence la limitation à 2 °C de l’élévation de la température moyenne de la planète – et, constatant que la tendance actuelle ne va pas dans cette direction, demande à chaque Partie de contri-buer à la réalisation de l’objectif et même au-delà (en visant 1,5 °C) par des contributions volontaires, « les contributions déterminées au niveau national », que chaque Etat doit élabo-rer dans un esprit d’équité et dans un contexte de développe-ment durable et de lutte contre la pauvreté.
Après avoir rappelé le principe de responsabilité com-mune mais différenciée, l’Accord met ainsi chaque Partie devant ses responsabilités en demandant des contributions, qui n’auront pas valeur d’engagements formels, mais seront publiées et discutées au vu et au su de l’ensemble des Par-ties dans un esprit de transparence et de solidarité.
L’innovation majeure est d’amener l’ensemble des Parties à contribuer à la réalisation de l’objectif commun, chacune à la hauteur de ses moyens, en mettant ainsi un terme à la dichotomie du protocole de Kyoto qui voulait que les pays en développement restassent les spectateurs passifs de l’effort consenti par les pays économiquement les plus avancés (les pays de l’annexe B). Cette approche a été rendue possible par l’évolution des positions de la plupart des Etats et notam-ment des deux grands émetteurs : les Etats-Unis et la Chine, laquelle est confrontée à des problèmes considérables de pollution atmosphérique dans ses grandes cités. Cette évolu-tion s’est concrétisée par le dépôt, préalablement à la COP21, de contributions prévues en provenance de 185 gouverne-ments (les Intended Nationally Determined Commitments ou INDCs).
La décision de la COP21 ne fait pas preuve de naïveté : elle reconnait que les contributions actuellement déposées conduiront en 2030 à des émissions de gaz à effet de serre au niveau global de 55 Gt de CO
2 en 2030 alors qu’il faudrait les ramener à 40 Gt pour respecter l’objectif de 2 °C et à moins pour espérer atteindre celui de 1,5 °C ce qui semble aujourd’hui tout à fait hors de portée. L’Accord définit un cadre qui, sans être formellement contraignant, devrait constituer une incitation forte pour chaque Etat à s’associer en équité à la réalisation de l’objectif, ce qui, dans le cas des Etats-Unis par exemple, pourrait amener l’administration au pouvoir, quelle qu’elle soit, à réfléchir à deux fois avant de décider de s’éloigner de la trajectoire commune.
L’atténuation des émissions et les contri-butions déterminées au niveau national
Chaque Partie devra donc soumettre sa « contribution dé-terminée au niveau national ». Si l’ampleur n’en est pas fixée de façon normative, ces contributions devront refléter des « efforts ambitieux » en vue de réaliser l’objet de l’Accord de-vant se traduire au niveau mondial par un plafonnement des
émissions dans les meilleurs délais, suivi au cours de la deu-xième partie du siècle par un équilibre entre les émissions et les capacités d’absorption des puits de gaz à effet de serre.
La forme de ces contributions est en apparence laissée relativement libre mais la COP et ses organes subsidiaires se réservent la possibilité de fixer des règles précises. Le souci de clarté et de transparence est l’un des points essentiels de l’Accord afin de permettre de dresser dès 2023 un bilan mondial de mise en œuvre qui éclairera les Parties dans la détermination et l’actualisation de leurs contributions.
Ces contributions devront correspondre à des objectifs ex-primés en chiffres absolus pour les pays développés cepen-dant que les pays en développement sont encouragés à pas-ser progressivement à des objectifs de réduction ou de limita-tion de leurs émissions eu égard à leurs contextes nationaux.
Les contributions seront déterminées tous les cinq ans à compter de 2020, les premières devant être déposées et/ou actualisées au moment du dépôt des instruments d’adhé-sion à l’Accord avec un rapport de situation prévu en 2018. Chaque partie pourra à tout moment modifier sa contribution mais à la condition d’en relever le niveau d’ambition.
L’Accord reconnait la possibilité pour les Parties qui le souhaitent d’agir de façon concertée dans la définition et la réalisation de leur niveau d’ambition et de leurs contribu-tions, comme c’est le cas aujourd’hui de l’Europe. Il ouvre également la voie à un mécanisme de mutualisation des ef-forts (le mécanisme pour le développement durable), qui pourrait constituer une réincarnation du mécanisme de dé-veloppement propre implémenté dans le cadre du protocole de Kyoto, étant noté que la participation à ce mécanisme resterait volontaire et ne concernerait que les réductions des émissions s’ajoutant à celles qui se produiraient autrement (principe d’additivité).
L’adaptation
L’Accord reconnaît que l’adaptation aux changements cli-matiques est un problème mondial qui se pose à tous, avec des dimensions locales, nationales, régionales ou interna-tionales. En conséquence, les Parties reconnaissent qu’elles devraient, sous différentes formes, intensifier leur coopéra-tion en vue d’améliorer l’action pour l’adaptation. Ces efforts seront reflétés dans le bilan mondial et ceux des pays en développement seront reconnus selon des modalités fixées par la COP.
Cependant, les résolutions de la COP21 stipulent claire-ment, à la demande des Etats-Unis, que les pertes et dom-mages liés aux changements climatiques « ne peuvent don-ner lieu ni servir de fondement à aucune responsabilité ni indemnisation ».
En définitive, hormis le droit reconnu aux pays en dévelop-pement d’exposer leurs efforts en matière d’adaptation, cette partie de l’Accord reste faible et relève pour l’essentiel de la déclaration d’intention. Le problème de fond est en fait celui du financement, de l’atténuation comme de l’adaptation.
28 ��REE N°5/2015
ACTUALITÉS
L’assistance financière aux pays en développement
On sait que depuis la COP15 de Copenhague en 2009, cette question est au cœur des débats, les pays dévelop-pés ayant pris l’engagement, non juridiquement contraignant, d’apporter chaque année aux pays en développement des financements d’au minimum 100 Md USD à compter de 2020, pour leur permettre de mener les actions de mitiga-tion et d’adaptation nécessaires.
La difficulté à matérialiser cette promesse a été l’un des obstacles les plus difficiles à la finalisation de l’Accord de Pa-ris. Au final, les pays en développement ont obtenu dans l’Ac-cord un engagement des pays développés (avec un “shall”) de leur fournir « des » ressources financières aux fins tant de l’atténuation que de l’adaptation. Avec un “should” cette fois, lesdits pays développés « devraient continuer de montrer la voie en mobilisant des moyens de financement de l’action climatique... ». Aucun chiffre ne figure dans l’accord propre-ment dit et les résolutions de la COP21 se limitent à dire que « les pays développés entendent poursuivre leur objectif collectif annuel de mobilisation » et que « la COP fixera avant 2025 un nouvel objectif chiffré collectif à partir d’un niveau plancher de 100 Md USD par an, en tenant compte des besoins des pays en développement ».
On le voit, ces dispositions sont faibles et peuvent être interprétées comme traduisant un certain rapport de forces. Mais pouvait-il en aller autrement en l’absence d’une gouvernance beaucoup plus forte impliquant le prélèvement et la redistribution de ressources ?
La même remarque pourrait être faite à propos des dispositions relatives au transfert de technologies qui restent pour l’essentiel – hormis les obligations de reporting – au niveau de la déclaration d’intentions et innovent peu par rapport aux dispositions de la Convention.
Les marchés et le prix du carbone
L’absence de dispositions fortes relatives au prix du car-bone est considérée par beaucoup comme une faiblesse majeure de l’accord. Mais on sait depuis longtemps que la plupart des Parties à la Convention n’étaient pas prêtes à s’engager dans un remake du protocole de Kyoto imposant un prix de marché au niveau mondial, considérant que le concept de prix du carbone vient interférer de trop près avec les ressorts de leur développement économique et que sa fixation par un mécanisme qui leur échappe constituerait une forme de perte de nationalité.
On notera cependant que l’Accord reconnaît que les Parties peuvent « mener à titre volontaire des démarches concertées
passant par l’utilisation de résultats d’atténuation transférés au niveau international » et, comme mentionné précédemment, prévoit un mécanisme de transfert des droits entre pays hôtes des projets et pays acquéreurs de ces droits. Lorsqu’elles s’engagent dans des mécanismes volontaires de ce type, les Parties doivent en assurer l’intégrité environnementale et la transparence, en respectant les règles fixées par la COP afin d’éviter notamment les doubles comptes.
Se trouve ainsi préservée la possibilité pour certaines Par-ties de constituer des « clubs carbone » qui, pourront être reconnus au niveau international mais devront respecter les règles fixées par la COP.
Derrière cette approche, on peut lire la conviction que la fixation d’un prix du carbone au niveau mondial relève de l’utopie et serait peut-être inefficace. Si un prix du carbone est en soit souhaitable pour intégrer les externalités liées aux émissions de CO2, ce prix se forme, de façon explicite ou implicite, au travers de la réglementation, de la standar-disation ou du marché, à des niveaux qui varient dans des proportions considérables en fonction des secteurs appli-catifs et des zones géographiques. L’Accord de Paris fait le pari qu’une approche décentralisée laissant toute sa place à la subsidiarité sera plus efficace qu’un dispositif imposé depuis l’amont.
En conclusion…
L’Accord de Paris impose peu mais il établit un process fondé sur une architecture constituée de règles et d’institu-tions aujourd’hui acceptées par tous, qui est de nature à per-mettre la construction, pierre par pierre et au fil des années, d’une stratégie concertée au niveau mondial autour d’ob-jectifs partagés. Vu de cette façon, l’Accord de Paris pourrait servir d’accélérateur à toutes les initiatives prises localement – en Europe, aux Etats-Unis et en Chine tout particulièrement à les aider à se déployer et à viser progressivement des ob-jectifs de plus en plus ambitieux.
Bien entendu la responsabilité de la conférence des Parties à la Convention est énorme et comme chacun sait, le diable est toujours dans les détails. Après tant d’échecs et de déceptions, c’est quand même la pre-mière fois depuis 1992 qu’un vent d’optimisme vient ra-fraîchir le climat. �
Jean-Pierre HauetRédacteur en chef de la REE
Membre émérite de la SEE
REE N°5/2015 � 29
Le samedi 10 octobre 2015, a été inauguré l’Espace Ampère d’une capacité de 50 places, dans l’ancienne grange de la maison d’Ampère, propriété de la SEE à Poleymieux au Mont d’Or.
Grâce à la générosité de l’Institut de France, de la Fonda-tion Total, du Ministère de la culture, des élus de la Métro-pole de Lyon dont son président, de Madame le maire de Poleymieux, des divers mécènes, parmi lesquels EDF, EDF-ENR-Solaire, AIDELEC, SOGEDO, ERDF, COIRO et RTE, les travaux d’aménagement de cette salle et d’équipement du bâtiment (notamment la réalisation d’un système de produc-tion d’électricité photovoltaïque en toiture) ont été menés à bien au bout de six ans d’efforts.
Une convention de mécénat entre le RTE et la Société des amis d’André Marie Ampère (SAAMA) a été signée par Frédéric Dohet, délégué de RTE pour la région Rhône-Alpes- Auvergne, et Geneviève Comte-Bellot, présidente de la Société des amis d’André-Marie Ampère, en présence de la SEE qui était représentée par son Président, François Gerin, accompagné de Patrick Leclerc, président du groupe régional Rhône Bourgogne, et du vice-président André Gromier.
L’espace Ampère sera mis à la disposition des entreprises, administrations et établissements d’enseignement pour tous types de manifestations, ce qui contribuera à accroître la no-toriété de la maison d’Ampère tout en la faisant bénéficier de nouvelles ressources. �
Figure 1 : Une vue de la nouvelle salle le jour de son inauguration.
Figure 2 : Francois Gerin, président de la SEE et Frédéric Dohet, délégué de RTE pour la région Rhône-Alpes Auvergne.
ACTUALITÉS
Maison Ampère de Poleymieux : inauguration de l’Espace Ampère
et signature du contrat de mécénat avec RTE
34 ��REE N°5/2015
Les brevets, clef des stratégies de propriété industrielle
L'ARTICLE INVITÉ
The global patent system governs a fundamental regulation mechanism, which organizes a fair and reasonable return to-wards the inventors of technologies used in downstream products, thus allowing a more secure flow of innovation exchangesthroughout the worldwide industry. Globalization and the massive introduction of digital technologies in most industrial fieldshave further increased the importance of patents to protect innovation and fuel R&D investments.Recent attacks against the patent system, initiated by downstream players trying to escape their obligations to share a portioniiof their profits with upstream investors in technology, have the potential to deter R&D investments and deserve a renewed attention from the innovation ecosystem as a whole.Patents should not be considered today based on the sole merits of protecting inventions, but rather as a versatile tool to ac-cccompany the investment strategies of innovating companies. The proper definition of adequate IP strategies hence becomes a fundamental component of global enterprise strategies. Proper attention to patents and more generally to IP strategies should be paid by the whole command chain within innovative companies, from research engineers up to the CEO level.
ABSTRACT
JEAN-CHARLES HOURCADEDirecteur général de France Brevets
Introduction
L es enjeux relatifs aux brevets ne sont pas nou-
veaux dans l’industrie et sont récurrents depuis
leur émergence, en particulier dans les indus-
tries électroniques et électriques. Ils prennent
cependant un relief particulier depuis quelques années,
conséquence directe des transformations considérables in-
duites dans le tissu industriel par la pénétration généralisée
du numérique, la mondialisation des échanges, l’affirmation
de la Chine comme grande puissance industrielle et les bou-
leversements qui en ont résulté sur les chaînes de valeur.
En accompagnement de ces transformations, l’écosys-
tème des brevets et de la propriété industrielle (“IP”) connaît
une évolution rapide. La majorité des entreprises françaises
peine encore à en prendre la pleine mesure. Le présent ar-rr
ticle tentera d’éclairer ces grandes tendances et de donner
quelques clefs utiles pour la réflexion et l’action.
Les brevets, principes généraux
Le brevet est un titre juridique,portant sur un contenu technique
Le brevet est un titre juridique qui protège les droits de
l’inventeur, lui garantissant pendant en général 20 ans l’exclu-
sivité des droits d’exploitation de l’invention brevetée. Au-
delà, l’invention tombe dans le domaine public et sera donc
exploitable par tous.
Le détenteur d’un brevet peut choisir la voie de l’exploita-
tion directe, c’est-à-dire de bénéficier pendant sa durée de vali-
dité de l’exclusivité accordée par le brevet. Il peut aussi décider
de concéder à des tiers des licences d’exploitation, moyennant
le versement de redevances. Ce dernier mode de valorisation
des brevets est communément appelé “licensing”.
Comme tout droit, il est applicable dans les juridictions dans
lesquelles le titre a été délivré. Dans le cas d’une exploitation
non autorisée par un tiers, le détenteur du droit bafoué peut
saisir les tribunaux et demander soit l’arrêt du trouble causé,
en pratique le retrait de vente du produit contrefaisant, soit une
réparation financière sous forme de dommages et intérêts.
Toute invention n’est pas brevetable et les critères de bre-
vetabilité sont stricts :
Ainsi une nouvelle recette de cuisine ou un théorème ma-
thématique ne sont-ils pas brevetables ;
ce sens, toute communication qui en aurait exposé publi-
quement des éléments les ferait tomber dans le domaine
public ;
caractérise par une « activité inventive », c’est-à-dire qu’elle
ne paraisse pas évidente à un homme de l’art au moment
de son dépôt ;
décrite, rendant possible sa libre exploitation après l’expi-
ration du brevet. Ce point peut dissuader des inventeurs
de déposer un brevet, par exemple si le bénéfice attendu
d’exploitation paraît devoir perdurer au-delà de 20 ans.
REE N°5/2015 � 35
L'ARTICLE INVITÉ
Les brevets, avantages et inconvénients
Le droit exclusif accordé, dérogatoire au droit de la concur-
rence puisqu’il interdit à un concurrent de copier, se com-
prend en fait comme un compromis. Le breveté retire de son
dépôt des avantages potentiels, mais doit assumer en retour
certains inconvénients :
20 ans, l’invention tombe dans le domaine public et tous
les concurrents seront libres de l’utiliser sans frais. La pé-
riode peut paraître longue, mais l’expérience montre qu’il
s’écoule en moyenne de 8 à 10 ans entre le moment de
l’invention et son éventuelle adoption à grande échelle sur
le marché. La fenêtre de valorisation est encore plus limitée
si l’on prend en compte les risques d’obsolescence de la
technologie brevetée ;
l’innovation protégée. Cette information donne aux concur-
rents du déposant des indications qui peuvent être pré-
cieuses. Ceux-ci peuvent a minima suivre l’évolution de la
stratégie et de l’état de l’art de leurs propres concurrents.
Ils peuvent s’en inspirer pour d’autres développements,
déposer des brevets qui améliorent le procédé – auquel
cas ils seront redevables de redevances pour le brevet de
base – voire déposer des brevets conçus intelligemment
pour contourner entièrement et faire mieux que l’invention
initiale.
Pour ces raisons, certains industriels préfèrent protéger
leurs inventions par le secret industriel. D’autres préfèrent se
contenter de la protection minimale apportée en France par
le recours aux « enveloppes Soleau », qui évitent la publica-
tion d’informations mais qui ne permettent que d’enregistrer
la date et l’origine d’une invention, sans emporter de droits
vis à vis de tiers.
Du rôle des brevets dans l’industrie mondiale
Le brevet, mécanisme régulateurOn peut considérer l’ensemble du système des brevets,
harmonisé au niveau mondial par l’OMPI (Organisation mon-
diale de la propriété intellectuelle), comme un système de ré-
gulation des échanges dans l’innovation industrielle. Certains
acteurs excellent dans le développement de technologies de
base destinées à être intégrées dans les produits d’autres
industriels, d’autres dans la fourniture de produits et services
au consommateur final. Tant que les seconds achètent aux
premiers les composants et sous-ensembles intégrant ces
technologies de base et financent ainsi leur investissement
de R&D, l’équilibre des échanges est assuré. Toutes les situa-
tions n’obéissent cependant pas à ce schéma idyllique.
Dans de très nombreux cas, le fabricant du produit final va
se fournir auprès de fournisseurs concurrents de ceux qui ont
inventé et développé ces technologies. Seule la protection
par des brevets pourra permettre aux inventeurs de sécu-
riser une juste compensation, soit auprès des fournisseurs
concurrents, soit auprès des industriels clients.
Dans d’autres cas, l’invention ne se matérialise plus dans
des fournitures industrielles. C’est par exemple le cas de
nombreux designs d’antennes, qui n’existent plus matérielle-
ment que sous la forme de structures conductrices directe-
ment imprimées sur des cartes ou moulées dans des coques
plastiques. Seul le brevet permet à l’inventeur de sécuriser un
retour sur son investissement.
Dans d’autres cas, un industriel placé en aval de la chaîne
de valeur sera tenté de mettre en œuvre directement des in-
ventions dans son propre processus de production, sans veil-
ler à en informer les inventeurs. Ceci est un fait très général
dans la vie réelle. Dans tous ces cas, et bien d’autres encore,
le brevet est le mécanisme permettant à l’industriel inventeur
de faire valoir des droits sur leur utilisation par des tiers avec
qui il n’a souvent jamais eu le moindre contact.
L’impact additionnel de la mondialisation et du numérique
La mondialisation des échanges, s’accompagnant d’une
spécialisation accrue des acteurs, est venue amplifier l’as-
siette des problèmes potentiels. Dans la téléphonie mobile
par exemple, ou de façon plus générale en informatique, on
ne compte quasiment plus aucun acteur européen dispo-
sant d’une part de marché significative sur le marché des
terminaux et des produits grand public. Les entreprises euro-
péennes sont donc massivement dans le cas d’acteurs in-
vestissant dans les technologies de base et dépendant pour
leur équilibre économique des ventes auprès de ceux qui
contrôlent l’accès au client final, ou des redevances sur bre-
vets si le modèle de ventes B2B (“Business To Business”) ne
leur est pas accessible.
La pénétration généralisée des technologies numériques
a également amplifié ces effets. Un produit numérique in-
tègre un nombre croissant de technologies, développées par
un écosystème de plus en plus diversifié d’entreprises inno-
vantes. L’exemple le plus abouti est celui des smartphones,
qui intègrent des milliers d’inventions brevetées par des ac-
teurs de taille très variable, dont des centaines d’inventions
réputées nécessaires à la conformité avec des normes (voir
plus loin).
Le mot de l’avocat du diable...
Des voix s’élèvent périodiquement de la part d’indus-
triels plutôt consommateurs que producteurs de brevets,
donc plutôt payeurs que percepteurs de redevances, pour
remettre en cause le système mondial des brevets. Ces ten-
sions entre innovateurs et consommateurs d’innovations ont
Les brevets, avantages et inconvénients
Le droit exclusif accordé, dérogatoire au droit de la concur-rr
rence puisqu’il interdit à un concurrent de copier, se com-
prend en fait comme un compromis. Le breveté retire de son
dépôt des avantages potentiels, mais doit assumer en retour
certains inconvénients :
20 ans, l’invention tombe dans le domaine public et tous
les concurrents seront libres de l’utiliser sans frais. La pé-
riode peut paraître longue, mais l’expérience montre qu’il
s’écoule en moyenne de 8 à 10 ans entre le moment de
l’invention et son éventuelle adoption à grande échelle sur
le marché. La fenêtre de valorisation est encore plus limitée
si l’on prend en compte les risques d’obsolescence de la
technologie brevetée ;
l’innovation protégée. Cette information donne aux concur-rr
rents du déposant des indications qui peuvent être pré-
cieuses. Ceux-ci peuvent a minima suivre l’évolution de la
stratégie et de l’état de l’art de leurs propres concurrents.
Ils peuvent s’en inspirer pour d’autres développements,
déposer des brevets qui améliorent le procédé – auquel
cas ils seront redevables de redevances pour le brevet de
base – voire déposer des brevets conçus intelligemment
pour contourner entièrement et faire mieux que l’invention
initiale.
Pour ces raisons, certains industriels préfèrent protéger
leurs inventions par le secret industriel. D’autres préfèrent se
contenter de la protection minimale apportée en France par
le recours aux « enveloppes Soleau », qui évitent la publica-
tion d’informations mais qui ne permettent que d’enregistrer
la date et l’origine d’une invention, sans emporter de droits
vis à vis de tiers.
Du rôle des brevetsdans l’industrie mondiale
Le brevet, mécanisme régulateurOn peut considérer l’ensemble du système des brevets,
harmonisé au niveau mondial par l’OMPI (Organisation mon-
diale de la propriété intellectuelle), comme un système de ré-
gulation des échanges dans l’innovation industrielle. Certains
acteurs excellent dans le développement de technologies de
base destinées à être intégrées dans les produits d’autres
industriels, d’autres dans la fourniture de produits et services
au consommateur final. Tant que les seconds achètent aux
premiers les composants et sous-ensembles intégrant ces
technologies de base et financent ainsi leur investissement
de R&D, l’équilibre des échanges est assuré. Toutes les situa-
tions n’obéissent cependant pas à ce schéma idyllique.
Dans de très nombreux cas, le fabricant du produit final va
se fournir auprès de fournisseurs concurrents de ceux qui ont
inventé et développé ces technologies. Seule la protection
par des brevets pourra permettre aux inventeurs de sécu-
riser une juste compensation, soit auprès des fournisseurs
concurrents, soit auprès des industriels clients.
Dans d’autres cas, l’invention ne se matérialise plus dans
des fournitures industrielles. C’est par exemple le cas de
nombreux designs d’antennes, qui n’existent plus matérielle-
ment que sous la forme de structures conductrices directe-
ment imprimées sur des cartes ou moulées dans des coques
plastiques. Seul le brevet permet à l’inventeur de sécuriser un
retour sur son investissement.
Dans d’autres cas, un industriel placé en aval de la chaîne
de valeur sera tenté de mettre en œuvre directement des in-
ventions dans son propre processus de production, sans veil-
ler à en informer les inventeurs. Ceci est un fait très général
dans la vie réelle. Dans tous ces cas, et bien d’autres encore,
le brevet est le mécanisme permettant à l’industriel inventeur
de faire valoir des droits sur leur utilisation par des tiers avec
qui il n’a souvent jamais eu le moindre contact.
L’impact additionnel de la mondialisationet du numérique
La mondialisation des échanges, s’accompagnant d’une
spécialisation accrue des acteurs, est venue amplifier l’as-
siette des problèmes potentiels. Dans la téléphonie mobile
par exemple, ou de façon plus générale en informatique, on
ne compte quasiment plus aucun acteur européen dispo-
sant d’une part de marché significative sur le marché des
terminaux et des produits grand public. Les entreprises euro-
péennes sont donc massivement dans le cas d’acteurs in-
vestissant dans les technologies de base et dépendant pour
leur équilibre économique des ventes auprès de ceux qui
contrôlent l’accès au client final, ou des redevances sur bre-
vets si le modèle de ventes B2B (“Business To Business”) ne
leur est pas accessible.
La pénétration généralisée des technologies numériques
a également amplifié ces effets. Un produit numérique in-
tègre un nombre croissant de technologies, développées par
un écosystème de plus en plus diversifié d’entreprises inno-
vantes. L’exemple le plus abouti est celui des smartphones,
qui intègrent des milliers d’inventions brevetées par des ac-
teurs de taille très variable, dont des centaines d’inventions
réputées nécessaires à la conformité avec des normes (voir
plus loin).
Le mot de l’avocat du diable...
Des voix s’élèvent périodiquement de la part d’indus-
triels plutôt consommateurs que producteurs de brevets,
donc plutôt payeurs que percepteurs de redevances, pour
remettre en cause le système mondial des brevets. Ces ten-
sions entre innovateurs et consommateurs d’innovations ont
RADAR 2014
IntroductionLa loi de Moore prédit depuis plusieurs
années le cycle d’évolution de l’informa-
tique : toujours plus rapide, toujours plus
petit, toujours moins gourmand en éner-
gie électrique. Cette évolution ne s’est
pas limitée aux éléments de calcul des or-
dinateurs, mais a bénéficié à l’ensemble
de l’industrie électronique. Elle a par
exemple également bénéficié aux ampli-
ficateurs de puissance hyperfréquence
réalisés en technologie « intégrée » qui
fonctionnent à des fréquences toujours
plus élevées, avec des rendements amé-
liorés et des puissances plus importantes.
Ces moyens de calcul et ces circuits radiofré-
quences constituent les ingrédients élémentaires
qui composent les radars : émettre un signal ra-
diofréquence, le laisser se propager dans l’envi-
ronnement puis capter et analyser les signaux qui
sont réfléchis par les éventuelles « cibles » et sont
atténués et modifiés selon la distance parcourue
et la nature des milieux rencontrés.
Le gain obtenu en encombrement et en
consommation a permis d’étendre le nombre de
voies utilisées en émission comme en réception,
les dernières générations de radar pouvant embar-
quer jusqu’à plusieurs centaines d’antennes dans
un espace réduit. Ces nouveaux systèmes per-
mettent d’élargir les fonctionnalités offertes en
apportant, par exemple, la possibilité de former
des faisceaux orientables électroniquement, la
possibilité de diviser le faisceau émis en plusieurs
sous-faisceaux disjoints et simultanés pour suivre
plusieurs « cibles » en même temps.
Bien sûr, ces performances sont obtenues au
prix d’une complexité accrue et les équipes de
recherche et développement ont à résoudre les
nombreux challenges qui accompagnent ces nou-
velles possibilités. La conférence « Radar 2014 »,
organisée par la SEE et le club R2SR en octobre
2014 à Lille, a été l’occasion de rassembler pour
quelques jours les principaux acteurs du domaine,
industriels ou académiques, toutes na-
tions confondues. Les dernières avan-
cées techniques et algorithmiques ont
été présentées à une audience de près
de 450 visiteurs.
Ce dossier a été élaboré avec la
volonté de vous présenter un aperçu
des avancées les plus notables dans le
domaine. Nous y avons sélectionné des
travaux parmi les plus significatifs en
rapport avec les systèmes multivoies.
Le dossier aborde dans un premier
temps sous l’angle théorique les nou-
veaux problèmes que posent ces archi-
tectures et présente quelques-unes des
solutions envisagées pour y répondre. Ensuite, les
solutions industrielles qui ont été imaginées pour
rendre ces concepts théoriques opérationnels
sont présentées, offrant ainsi un éclairage complet
sur l’utilisation des antennes électroniques dans
les radar actuels.
Concevoir des formes d’onde adaptées aux radars multivoies
Il y a d’abord la nécessité de définir la nature
des signaux qui seront émis par ces antennes.
On parle ici de « forme d’onde ». La capacité du
radar à estimer la distance ou la vitesse des objets
détectés est directement reliée à la nature de ces
signaux. Lorsque plusieurs antennes sont utilisées
à l’émission, une nouvelle variable entre en jeu
avec la possibilité d’émettre des signaux différents
d’une antenne à l’autre, d’un instant à l’autre. Le
terme « radar MIMO » (Multiple Input, Multiple
Output) est généralement employé pour dési-
gner des systèmes où les voies d’émission et de
réception sont utilisées de façon indépendante et
simultanément. Ce nouveau degré de liberté aug-
mente significativement la complexité de l’étude
de cette forme d’onde mais ouvre des possibilités
jusqu’alors impossibles dans les radars monovoie :
pointer plusieurs faisceaux électromagnétiques
presque instantanément suivant des axes en azi-
Introduction
44 ��REE N°5/2015
Radars à antennes électroniquesPlus sensibles et plus agiles
au prix d’une complexité accrue
Sylvain AzarianONERA
Département électromagnétisme
et radar Président du Club technique R2SR
Introduction RADAR 2014
mut et élévation différents, permettant à un radar
multivoie de réaliser des fonctions de surveillance
de l’espace, la poursuite et la reconnaissance des
cibles en continu.
La conception de nouvelles formes d’onde est
un travail de recherche à part entière et requiert
des outils mathématiques adaptés pour prédire
les résolutions en distance et vitesse que le radar
pourra espérer atteindre. L’outil le plus couram-
ment utilisé est la « fonction d’ambiguïté » qui per-
met d’évaluer la capacité d’une forme d’onde à bien
rendre compte de la position et de la vitesse d’une
cible, avec une ambiguïté minimale. Un premier
article de notre sélection aborde ce problème de
la construction de formes d’onde adaptées. Dans
cette étude intitulée « Analyse et comparaison
de formes d’ondes pour le radar MIMO » [1]
les auteurs présentent un tour d’horizon des
différentes techniques classiquement utilisées pour
les radars multivoies et résument les performances
qui peuvent être atteintes. Trouver la forme d’onde
optimale reste une tâche difficile et les auteurs
montrent qu’il n’y a qu’une suite de compromis qui
permette d’atteindre le niveau de performances
recherché pour une application donnée.
Quelle que soit la forme d’onde émise, seules
les zones qui sont éclairées par le signal d’émission
peuvent être surveillées. Couvrir une large portion
de l’espace suppose donc d’émettre un signal non
focalisé dans une direction privilégiée, on parle
alors de « fonction de veille ». Cette émission non
focalisée rend alors complexe la localisation précise
des éventuelles cibles qui seraient détectées dans
ce mode, il faut donc ensuite modifier la forme
d’onde émise et focaliser l’énergie vers les zones
d’intérêt. Les auteurs de l’article « Codage spa-
tio-temporel multi-rafales pour systèmes à
antenne active » [2] proposent une approche qui
exploite la possibilité d’exploiter conjointement la
diversité des formes d’onde employées à l’émis-
sion, la diversité spatiale à la réception, et l’emploi
de formes d’ondes évoluant dans le temps.
Organiser le temps alloué à chaque mission du radar
Une autre réponse à ce problème d’optima-
lité consiste à découper le temps de fonctionne-
ment en phases successives pendant lesquelles
le radar ne se consacre qu’à une tâche. Chaque
nouvelle phase est alors assortie de sa configu-
ration optimale et c’est l’enchaînement rapide
de ces différentes phases qui permettra de rem-
plir l’ensemble des missions. Bien sûr, se posent
alors de nouvelles questions : combien de temps
doit-on consacrer à une mission sans pénali-
ser les autres ? Quelle est le meilleur enchaîne-
ment ? Une approche originale est présentée dans
l’article « Ordonnancement des tâches pour un
radar multifonction avec contrainte de temps
dur et priorité » [3]. Ici les auteurs séparent les
différentes missions à remplir en deux grandes
familles : celles qui imposent un cadencement
strict et celles qui peuvent être exécutées à tout
moment. En situation réelle, le nombre de tâches
que le radar doit réaliser évolue au cours du temps
et dépend du contexte : l’arrivée d’une nouvelle
cible dans le périmètre de détection du radar im-
posera de passer d’abord plus de temps à analyser
ce nouvel objet pour évaluer le risque associé. Les
auteurs proposent une approche algorithmique
permettant au radar de s’adapter dynamiquement
à l’ensemble des missions qu’il devra effectuer en
fonction du contexte rencontré.
Fabriquer et intégrer ces radars multivoies
La tendance majoritairement rencontrée chez
les fabricants de système radar multivoies re-
pose sur la conception de briques élémentaires
intégrant toutes les pièces nécessaires : circuits
générateurs de forme d’onde d’émission, circuits
d’amplification pour l’émission et la réception,
commutateurs, antennes. Très compactes, ces
briques peuvent alors être embarquées à bord
d’un avion d’arme comme le Rafale, ou encore sur
des drones par exemple.
Là encore, les ingénieurs doivent relever des
défis complexes tels que la dissipation thermique,
la consommation électrique, la tenue aux vibra-
tions, etc. Il devient alors nécessaire d’intégrer les
contraintes de différents métiers et d’aborder la
conception de l’ensemble au niveau « système » pour
identifier les bons compromis et leurs conséquences.
Un aperçu de cette complexité est présenté
dans l’article « Antenne active multi-facettes à
balayage électronique en technologie ‘’tuile’’ »
[4] où les auteurs explorent les configurations pos-
sibles de positionnement des différents éléments
© St
épha
ne Sa
illant
- On
era
REE N°5/2015 � 45
RADAR 2014
et se consacrent à l’exploration d’une disposition
de type « dièdre » pour un radar multivoie opérant
en bande X.
Avec un éclairage plus large, les auteurs de
l’article « Nouveaux développements pour
les antennes actives et les modules T/R » [5]
dressent un panorama des travaux de recherche
et développement en cours sur ces antennes
compactes.
Ces deux articles montrent qu’une difficulté
supplémentaire apparaît lorsque l’on intègre ces
antennes et leurs circuits de traitement associés
dans un espace contraint : il devient complexe
d’obtenir une focalisation du faisceau constante
dans toutes les directions, en particulier pour
des angles « rasants » (proches de la structure
où est installée l’antenne). Cette mauvaise foca-
lisation se traduit par une perte significative de
performance et on parle alors « d’angle mort ». Le
dernier article de notre sélection explore, dans le
cadre du projet METALESA financé par l’Agence
Européenne de Défense
(AED), une approche à base
de « métamatériaux ». Dans
leur article intitulé « Suppres-
sion des directions aveugles
d’une antenne réseau grâce
aux métamatériaux » [6],
les auteurs montrent l’apport
de structures périodiques
de petites dimensions pour
étendre le domaine angulaire
des antennes.
Radars à antennes électroniques actives : un standard de fait.
Bien que tous les points durs techniques et
théoriques n’aient pas encore tous été levés, les
possibilités offertes par ces systèmes à diversité
« spatiale et temporelle » sont telles que ces radars
sont très certainement destinés à prendre une
place déterminante. Leur capacité en particulier à
permettre la réalisation de plusieurs fonctions en
simultané sont la garantie d’une sécurité accrue.
Développées vers la fin des années 70, les
antennes actives ont peu à peu envahi les radars,
sol d’abord puis aéroportés au fur et à mesure des
progrès technologiques liés à l’électronique de
puissance, sa capacité d’intégration et de miniatu-
risation. Les problèmes les plus ardus demeurent
encore le conditionnement et l’intégration des mo-
dules actifs dans les antennes avant que celles-ci se
fondent comme les antennes conformes dans les
plate-formes. Peu à peu les différents équipements
jadis bien identifiables se fonderont dans les plates-
formes de manière éclatée
pour remplir la fonction de dis-
crétion qui demeure l’une des
plus importantes nécessités.
Les antennes actives à balayage
électronique sont au cœur de
cette mutation et seront les
capteurs indifférenciés pour les
fonctions radar, guerre électro-
nique ou communication des
plates-formes aéroportées du
futur pilotées ou non. �
Analyse et comparaison de formes d’ondes pour le radar MIMO Hongbo Sun, Frédéric Brigui, Marc Lesturgie ........................................................................................................... p. 47Codage spatio-temporel multi-rafales pour systèmes à antenne activeGuy Desodt, Georges-Edouard Michel, Jean-Paul Guyvarch, François Le Chevalier, Olivier Rabaste .......................................................................................................................... p. 55Ordonnancement des tâches pour un radar multifonction avec contrainte de temps dur et prioritéVincent Jeauneau, FrédéricBarabaresco, Thomas Guenais ..................................................................................... p. 64Antenne active multi-facettes à balayage électronique en technologie tuileG Byrne, A M Kinghorn, R W Lyon et G D Morrison ............................................................................................. p. 75Nouveaux développements pour les antennes actives et les modules T/RYves Mancuso, Christian Renard ..................................................................................................................................... p. 79Suppression des directions aveugles d›une antenne réseau grâce aux métamatériauxThomas Crépin, Cédric Martel, Benjamin Gabard, Fabrice Boust, Jean-Paul Martinaud, Thierry Dousset, Pablo Rodriguez-Ulibarri, Miguel Beruete, Claudius Loecker, Thomas Bertuch, José Antonio Marcotegui, Stefano Maci ....................................................................................................................... p. 83
LES ARTICLES
Introduction
46 ��REE N°5/2015
Sylvain Azarian est chargé de mission
au département Electromagnétisme et
radar à l’Onera et est en charge des « nou-
veaux concepts radars ». Il est également
directeur adjoint du laboratoire Sondra
(Supélec-Onera-NUS-DSO-Research
Alliance) à Supélec et s’intéresse plus
particulièrement aux systèmes radars
distribués et aux radars passifs. En 2015, il
a été élu président du club technique R2SR
de la SEE.
REE N°5/2015 ��47
RADARS À ANTENNES ÉLECTRONIQUES RADAR 2014
Analyse et comparaison de formes d’ondes pour le radar MIMOPar Hongbo Sun1, Frédéric Brigui2, Marc Lesturgie2
Temasek Laboratories@NTU - Nanyang Technological University1, Département électromagnétique et radarONERA - The French Aerospace Lab2
Choosing a proper waveform is a critical task for the implementation of multiple-input multiple-output (MIMO) radars. In addition to the general requirements for radar waveforms such as good resolution, low
sidelobes, etc. MIMO radar waveforms also should possess good orthogonality. In this paper we give a brief over-view of MIMO radar waveforms, which are classified into four categories: (1) time division multiple access (TDMA), (2) frequency division multiple access (FDMA), (3) Doppler division multiple access (DDMA), and (4) code division multiple access (CDMA). A special circulating MIMO waveform is also addressed. The properties, as well as applica-tion limitations of different waveforms, are analyzed and compared. Some simulations results are also presented to illustrate the respective performance of different waveforms.
ABSTRACT
IntroductionDe par son architecture et son mode
de fonctionnement, le radar MIMO offre
de nombreux avantages, notamment en
termes de performance de détection et
d’estimation d’une cible. Le radar MIMO
peut être classifié selon deux configu-
rations géométriques: le radar MIMO
cohérent dont les émetteurs sont co-
localisés [1] et le radar MIMO statistique
dont les émetteurs sont distants les uns
des autres [2]. Leurs performances res-
pectives et leurs potentielles supériorités
sur d’autres systèmes radar plus conven-
tionnels ont été largement étudiées,
notamment dans [1] et [2]. Néanmoins
la plupart de ces études s’appuient sur
l’hypothèse de formes d’onde parfaite-
ment orthogonales, ignorant les effets de
signaux réels en pratique.
Le choix d’une forme d’onde appro-
priée est essentiel à la mise en œuvre
pratique des radars MIMO. Outre les pro-
priétés nécessaires des formes d’onde
radar classiques, telles que par exemple
la résolution ou la valeur des lobes se-
condaires, les formes d’onde pour le
radar MIMO doivent être orthogonales.
Mathématiquement, des formes d’ondes
parfaitement orthogonales n’existent
pas. Mais des formes d’onde quasiment
orthogonales ont été proposées dans de
nombreux travaux. Cependant, à notre
connaissance, il existe peu d’études [3,
4] comparant et évaluant les différentes
formes d’onde développées jusqu’à
maintenant pour le radar MIMO.
Dans cette étude, nous tentons de
donner une brève présentation de dif-
férentes formes d’ondes radar. Nous
proposons de les classifier selon quatre
approches basées sur la transmission
multiple par répartition : (1) en temps
(time division multiple access, TDMA),
(2) en fréquence (frequency division
multiple access, FDMA), (3) en Doppler
(Doppler division multiple access, DDMA)
et (4) en code (code division multiple
access, CDMA). Nous étudions de plus
la forme d’onde appelée le chirp circulant
et basée sur une autre approche. « Rien
n’est gratuit » résume bien les compro-
mis qu’impose le choix d’une forme
d’onde ; des pertes en performance
(puissance émise, ambiguïté Doppler,
lobes secondaires) sont inévitables. Dans
les sections suivantes, nous analysons et
comparons les propriétés et les limita-
tions de plusieurs formes d’onde. Nous
suggérons également les applications
pratiques adéquates associées aux diffé-
rentes formes d’ondes. Des résultats sur
simulation illustreront les performances
de celles-ci. Nous considérons dans cette
étude un radar MIMO cohérent avec un
réseau de Ne antennes espacées de la
moitié de longueur d’onde. La bande de
fréquence est notée B et la fréquence
centrale des signaux émis fe.
Transmission multiple par répartition en temps/approche MIMO TDMA
L’approche TDMA exploite la division
du domaine temporel pour transmettre
simultanément les signaux MIMO.
Transmission alternée en temps
La manière la plus intuitive et la plus
simple de séparer des signaux émis par
différents émetteurs est de considérer
un schéma de transmission alternée.
Chaque antenne d’émission émet suc-
cessivement dans son temps imparti.
On obtient ainsi une forme d’onde parfai-
tement orthogonale, adaptée aux formes
d’onde usuellement utilisées en radar,
comme le chirp. Cette forme a été testée
avec succès dans l’étude [5].
Bien que l’émission alternée TDMA
soit facile à mettre en œuvre, il est
évident que les capacités de transmission
ne sont pas exploitées dans leur totalité.
Comparée au radar MIMO dans lequel
toutes les antennes émettrices sont
capables d’émettre simultanément, la
RADARS À ANTENNES ÉLECTRONIQUESRADAR 2014
48 ��REE N°5/2015
transmission alternée souffre d’une perte
significative de puissance à l’émission,
entrainant la réduction de la distance à
laquelle une cible peut être détectée.
Transmission échelonnée en temps (Time-Staggered LFMCW)
La forme d’onde Time-Staggered
LFMCW (Linear Frequency Modulated
Continuous Wave) est un signal conti-
nu, modulé linéairement en fréquence
et dont l’émission est échelonnée en
temps. Cette forme d’onde consiste en
Ne copies du signal LFMCW, chaque
transmission d’une copie étant échelon-
née dans le temps et chaque membre
étant transmis par chaque antenne,
comme illustré figure 1.
Comparée à la transmission alternée,
la forme d’onde échelonnée en temps
LFMCW permet d’exploiter pleinement
les capacités de transmission du radar
MIMO puisque les antennes émettent
simultanément. De plus, elles sont sé-
parables selon leurs retards en temps et
les interférences croisées indésirables
peuvent être filtrées. Ce qui garantit
une forte orthogonalité. Enfin, cette
forme d’onde a été utilisée avec succès
sur un radar MIMO transhorizon haute
fréquence (HF-OTH) australien [6]. La
forme d’onde échelonnée en temps
LFMCW est toutefois exclusivement
réservée aux radars à onde continue
avec une forte tolérance en PRF (Pulse
Repetition Frequency – fréquence de
répétition des impulsions), c’est-à-dire
des radars HF. Pour les autres systèmes
radar, les contraintes de PRF et d’ambi-
guïté en distance rendent difficiles l’utili-
sation d’une telle forme d’onde.
Transmission multiple par répartition en fréquence/approche MIMO FDMA
La transmission simultanée dans dif-
férentes bandes de fréquence est une
autre approche pour générer des formes
d’onde MIMO. L’approche FDMA est
également appelée codage spatio-fré-
quentiel dans la littérature et peut être
implémentée sur une unique impulsion
(temps court) ou sur un train d’impul-
sions (temps long).
Forme d’onde MIMO FDMA temps court
Les formes d’onde basées sur l’ap-
proche FDMA en temps court consistent
à émettre des chirps dans différentes
bandes de fréquences et se répétant
identiquement d’impulsion à impulsion
(comme illustré figure 2). Le chirp est
émis à une fréquence centrale séparée
de B entre deux émetteurs successifs
pour éviter tout chevauchement fréquen-
tiel. Les signaux transmis sont ainsi ortho-
gonaux sur chaque impulsion, en temps
court.
La figure 3 présente la fonction d’am-
biguïté en distance/angle de cette forme
d’onde avec B = 100 kHz et Ne = 4.
Comme l'illustre la figure 3, la contrepar-
tie de cette forme d’onde est un fort cou-
plage distance-angle induit par la relation
linéaire entre la fréquence centrale des
signaux transmis et l’indice des émetteurs.
Figure 1 : Illustration de la forme d’onde time-staggered.
Figure 2: Schéma de transmission de la forme d’onde FDMA en temps court.
Figure 3: Fonction d’ambiguïté en distance/angle de la forme d’onde.
transmission alternée souffre d’une perte
significative de puissance à l’émission,
entrainant la réduction de la distance à
laquelle une cible peut être détectée.
Transmission échelonnéeen temps (Time-Staggered LFMCW)
La forme d’onde Time-Staggered
LFMCW (Linear Frequency ModulatedW
Continuous Wave) est un signal conti-
nu, modulé linéairement en fréquence
et dont l’émission est échelonnée en
temps. Cette forme d’onde consiste en
Ne copies du signal LFMCW, chaque
transmission d’une copie étant échelon-
née dans le temps et chaque membre
étant transmis par chaque antenne,
comme illustré figure 1.
Comparée à la transmission alternée,
la forme d’onde échelonnée en temps
LFMCW permet d’exploiter pleinement
les capacités de transmission du radar
MIMO puisque les antennes émettent
simultanément. De plus, elles sont sé-
parables selon leurs retards en temps et
les interférences croisées indésirables
peuvent être filtrées. Ce qui garantit
une forte orthogonalité. Enfin, cette
forme d’onde a été utilisée avec succès
sur un radar MIMO transhorizon haute
fréquence (HF-OTH) australien [6]. La
forme d’onde échelonnée en temps
LFMCW est toutefois exclusivement W
réservée aux radars à onde continue
avec une forte tolérance en PRF (Pulse
Repetition Frequency – fréquence de
répétition des impulsions), c’est-à-dire
des radars HF. Pour les autres systèmes
radar, les contraintes de PRF et d’ambi-
guïté en distance rendent difficiles l’utili-
sation d’une telle forme d’onde.
Transmission multiple par répartition en fréquence/approche MIMO FDMA
La transmission simultanée dans dif-
férentes bandes de fréquence est une
autre approche pour générer des formes
d’onde MIMO. L’approche FDMA est
également appelée codage spatio-fré-
quentiel dans la littérature et peut être
implémentée sur une unique impulsion
(temps court) ou sur un train d’impul-
sions (temps long).
Forme d’onde MIMO FDMA temps court
Les formes d’onde basées sur l’ap-
proche FDMA en temps court consistent
à émettre des chirps dans différentes
bandes de fréquences et se répétant
identiquement d’impulsion à impulsion
(comme illustré figure 2). Le chirp est
émis à une fréquence centrale séparée
de B entre deux émetteurs successifs
pour éviter tout chevauchement fréquen-
tiel. Les signaux transmis sont ainsi ortho-
gonaux sur chaque impulsion, en temps
court.
La figure 3 présente la fonction d’am-
biguïté en distance/angle de cette forme
d’onde avec B = 100 kHz et Ne = 4.
Comme l'illustre la figure 3, la contrepar-rr
tie de cette forme d’onde est un fort cou-
plage distance-angle induit par la relation
linéaire entre la fréquence centrale des
signaux transmis et l’indice des émetteurs.
Figure 1 : Illustration de la forme d’onde time-staggered.
Figure 2: Schéma de transmission de la forme d’onde FDMAen temps court.
Figure 3: Fonction d’ambiguïté en distance/anglede la forme d’onde.
REE N°5/2015 � 89
RETOUR SUR ❱❱❱❱❱❱❱❱❱
Bernard AyraultAncien directeur de Télécom Bretagne(Institut Mines Télécom)Membre émérite de la SEE
IntroductionQu’on n’attende pas de cet article un éclairage
technique, mais plutôt quelques réflexions sur trois
grandes aventures technologiques, le câble, la radio
puis le satellite, qui se sont succédé, et parfois concur-rr
rencées, depuis le milieu du 19e siècle. Monsieur de
la Palisse aurait remarqué qu’entre les continents on
trouve souvent des mers, des océans même, qui de
toute éternité ont représenté un milieu hostile pour
l’homme et un lieu privilégié pour ses explorations et
ses activités économiques : les télécommunications
intercontinentales ont donc affronté puis surmonté
un milieu hostile tout en symbolisant la nécessité
des accords entre les pays riverains. Les considéra-
tions géopolitiques sont donc très prégnantes depuis
près de deux siècles à propos de télécommunications
intercontinentales et nous en relèverons quelques
aspects surprenants ou oubliés.
Au temps de la Révolution, le télégraphe optique
de Chappe a, pour la première fois dans l’histoire de
l’humanité, permis le transfert d’un signal plus vite que
la course de l’homme ou du cheval ; il s’est développé
avec dynamisme tout au long de la première moitié
du 19e siècle. La nécessité d’investissements impor-rr
tants comme de règles nouvelles donnait un poids
important à l’autorité régalienne : la marine nationale
disposa rapidement d’une liaison entre le ministère
et Brest et les préfets reçurent vite du ministère de
l’Intérieur les consignes, y compris celles, discrètes en
période électorale, qu’évoque Stendhal dans Lucien
Leuwen. Une quinzaine d’années après la conquête,
les hauts plateaux algériens étaient accessibles à par-rr
tir d’Alger. Mais la Méditerranée restait un redoutable
obstacle pour une transmission rapide des consignes
gouvernementales : la mer joua un rôle essentiel
dans les communications intercontinentales, comme
dans l’essor et la gouvernance des empires coloniaux
qui se constituèrent tout au long du siècle.
Le regard historique suggère également quelques
précieuses observations quant aux rapports entre le
progrès des connaissances scientifiques, les déve-
loppements technologiques et la diffusion sociétale.
On aura l’occasion de remarquer, dans la succession
des trois grands moyens, l’existence de plusieurs
constantes de temps : est-ce un hasard si environ un
demi-siècle sépare l’émergence de la radio de celle
du câble, puis celle du satellite après l’essor de la
radio ? La nécessité d’investissements massifs pour
un « câblage » territorial ou international explique sans
doute, avec l’inertie de la société, une telle durée.
On s’étonnera par contre d’une durée plus courte,
de l’ordre de deux décennies, entre les grandes décou-
vertes et la mise au point de technologies efficaces. On
verra également combien est fort le lien entre les pro-
grès de la science et le développement des télécom-
munications : l’histoire associe de grands noms dans
les deux domaines et nombreux sont les physiciens
illustres dont les travaux sont aux fondements des télé-
communications, ou même à l’origine d’entreprises
performantes.
Les grandes étapes des télécommuni-cations intercontinentales Le câble, la radio, le satellite
Science and technology have been contributing for centuries to essential human needs: food, lighting, clothing, and also com-municate. Since the early 19th century, the development of this last aspect has been spectacular and has involved three phases,each associated with a major scientific advance followed by a technological and entrepreneurial dynamism.The article presents some essential aspects of a story whose consequences widely structure the contemporary uses of com-munication and heavily contribute to globalization.
ABSTRACT
90 ��REE N°5/2015
❱❱❱❱❱❱❱❱❱❱❱ RETOUR SUR
Qu’il soit permis aussi dans ces considérations liminaires
de souligner combien tout ce domaine a été tributaire des
progrès de l’électronique depuis la fin du 19e siècle, puis de
l’informatique depuis le milieu du 20e ; il n’est pas étonnant
que la SEE, fondée aux temps de la fée électricité soit mar-
quée de diverses façons par la prégnance des télécommu-
nications intercontinentales : associée au prix qui honore
Edouard Branly, elle décerne avec l’IEEE le prix Alain Gla-
vieux, pour les progrès décisifs des turbocodes ; son grand
prix honore le général Gustave Ferrié, grand nom de la radio,
et c’est elle qui a eu l’honneur de recevoir en héritage la
maison d’Ampère.
Le courant continu et la télégraphie électriqueLes grandes lois physiques du courant continu et les pionniers
C’est de 1800 que date la pile de Volta, qui fait passer de
l’électrostatique à l’électrocinétique ; dès 1809 on imagine un
système 35 fils (i.e. autant que de lettres et de chiffres) qui
permettrait de communiquer à distance par un jeu d’interrup-
teurs, dès lors que l’on saurait détecter de faibles courants.
Ce sera possible après les contributions décisives d’Oers-
ted (1820 : action d’un courant sur un aimant) et d’Ampère
(1821 : actions réciproques courant-aimant) qui instituent la
boussole comme détecteur, puis après la mise au point des
lois de l’induction (1840 : Faraday) grâce auxquelles on peut
concevoir des électroaimants et construire les précieux galva-
nomètres à cadre mobile.
L’Europe des savants était alors une réalité efficace : dès
1833 Gauss et Weber réussissent une liaison expérimen-
tale entre deux bâtiments de l’université de Göttingen et
Wheatstone (l’homme du « pont », fort utile pour la mesure
des faibles courants) et dépose des brevets qui conduisent
à une liaison de 13 miles en 1838. En 1840 il propose de
transmettre des signaux le long des voies ferrées qui com-
mencent à sillonner l’Angleterre.
Le passage au stade opérationnel
Le génial Morse vient en Europe proposer le procédé de
codage qui le rendra célèbre, mais il essuie partout un échec
et on lui préfère le dispositif de Wheatstone ; avec ténacité il
finira par faire adopter dans son pays l’alphabet qui restera en
usage pendant un siècle et demi pour les communications
maritimes. Avec retard sur l’Europe, on inaugure en 1855 la
liaison entre Washington et Baltimore : depuis 10 ans, les
Français ont mis en service les liaisons entre la capitale et
Versailles (1842) puis Saint Germain (1845). Les compa-
gnies se sont créées et, dans notre pays, on assiste à une
dynamique croissance, simultanée sous le second Empire
avec celle des chemins de fer : la machine à vapeur et l’élec-
tricité sont bien les deux grandes innovations du 19e siècle.
Wheatstone, qui est aussi un grand esprit entrepreneur,
a créé avec Cooke l’Electric Telegraph Company et suggéré
dès 1840 l’idée de liaisons sous-marines ; mais les premiers
essais butent sur les questions d’étanchéité, de résistance
mécanique et de corrosion. Mais déjà se fait sentir le besoin
de coopération entre états et on crée le Bureau international
des administrations télégraphiques, localisé en Suisse.
A l’assaut des mers
Sur terre le succès du nouveau télégraphe électrique est
rapide et fait abandonner dès les années 1850 le télégraphe
optique de Chappe, sensible le jour à l’aléa de la météo et de
faible débit. Mais en mer, il faut, avant d’établir des liaisons
opérationnelles, surmonter quelques difficultés : l’invention
de la gutta percha va permettre de résoudre les questions
d’étanchéité et, comme il n’est pas question de renoncer au
cuivre en raison de sa forte conductivité, on structure le câble
avec des torons d’acier qui assurent rigidité et résistance méca-
nique lors de la pose ou du relevage. On arme des bâtiments
propres à embarquer des dizaines puis des centaines de km
de câbles et on tente l’aventure en 1865 d’une pose transat-
lantique, avec deux navires partis des Etats-Unis et d’Angleterre
à la rencontre l’un de l’autre ; comme pour presque toutes
les liaisons maritimes cette première tentative échoue. Mais
dès l’année suivante le Great Eastern (le plus grand navire
de l’époque qu’on a armé pour la pose de câbles) réussit et
récupère même le câble de l’année précédente : on est donc
fondé à penser que ce numéro de REE célèbre le sesquicente-
naire d’une très grande réussite technologique !
Figure 1 : Le Great Eastern. A son époque le Great Eastern était le plus grand bâtiment au monde ;
il pose en 1865 le premier câble télégraphique transatlantique entre l’Irlande et les USA, puis en 1869, entre Brest-Déolen et Saint Pierre
et Miquelon, le premier câble français.
Qu’il soit permis aussi dans ces considérations liminaires
de souligner combien tout ce domaine a été tributaire des
progrès de l’électronique depuis la fin du 19e siècle, puis de
l’informatique depuis le milieu du 20e ; il n’est pas étonnant
que la SEE, fondée aux temps de la fée électricité soit mar-rr
quée de diverses façons par la prégnance des télécommu-
nications intercontinentales : associée au prix qui honore
Edouard Branly, elle décerne avec l’IEEE le prix Alain Gla-
vieux, pour les progrès décisifs des turbocodes ; son grand
prix honore le général Gustave Ferrié, grand nom de la radio,
et c’est elle qui a eu l’honneur de recevoir en héritage la
maison d’Ampère.
Le courant continu et la télégraphie électriqueLes grandes lois physiques du courant continuet les pionniers
C’est de 1800 que date la pile de Volta, qui fait passer de
l’électrostatique à l’électrocinétique ; dès 1809 on imagine un
système 35 fils (i.e. autant que de lettres et de chiffres) qui
permettrait de communiquer à distance par un jeu d’interrup-
teurs, dès lors que l’on saurait détecter de faibles courants.
Ce sera possible après les contributions décisives d’Oers-
ted (1820 : action d’un courant sur un aimant) et d’Ampère
(1821 : actions réciproques courant-aimant) qui instituent la
boussole comme détecteur, puis après la mise au point des
lois de l’induction (1840 : Faraday) grâce auxquelles on peut
concevoir des électroaimants et construire les précieux galva-
nomètres à cadre mobile.
L’Europe des savants était alors une réalité efficace : dès
1833 Gauss et Weber réussissent une liaison expérimen-
tale entre deux bâtiments de l’université de Göttingen et
Wheatstone (l’homme du « pont », fort utile pour la mesure
des faibles courants) et dépose des brevets qui conduisent
à une liaison de 13 miles en 1838. En 1840 il propose de
transmettre des signaux le long des voies ferrées qui com-
mencent à sillonner l’Angleterre.
Le passage au stade opérationnel
Le génial Morse vient en Europe proposer le procédé de
codage qui le rendra célèbre, mais il essuie partout un échec
et on lui préfère le dispositif de Wheatstone ; avec ténacité il
finira par faire adopter dans son pays l’alphabet qui restera en
usage pendant un siècle et demi pour les communications
maritimes. Avec retard sur l’Europe, on inaugure en 1855 la
liaison entre Washington et Baltimore : depuis 10 ans, les
Français ont mis en service les liaisons entre la capitale et
Versailles (1842) puis Saint Germain (1845). Les compa-
gnies se sont créées et, dans notre pays, on assiste à une
dynamique croissance, simultanée sous le second Empire
avec celle des chemins de fer : la machine à vapeur et l’élec-
tricité sont bien les deux grandes innovations du 19e siècle.
Wheatstone, qui est aussi un grand esprit entrepreneur,
a créé avec Cooke l’Electric Telegraph Company et suggéréy
dès 1840 l’idée de liaisons sous-marines ; mais les premiers
essais butent sur les questions d’étanchéité, de résistance
mécanique et de corrosion. Mais déjà se fait sentir le besoin
de coopération entre états et on crée le Bureau international
des administrations télégraphiques, localisé en Suisse.
A l’assaut des mers
Sur terre le succès du nouveau télégraphe électrique est
rapide et fait abandonner dès les années 1850 le télégraphe
optique de Chappe, sensible le jour à l’aléa de la météo et de
faible débit. Mais en mer, il faut, avant d’établir des liaisons
opérationnelles, surmonter quelques difficultés : l’invention
de la gutta percha va permettre de résoudre les questions
d’étanchéité et, comme il n’est pas question de renoncer au
cuivre en raison de sa forte conductivité, on structure le câble
avec des torons d’acier qui assurent rigidité et résistance méca-
nique lors de la pose ou du relevage. On arme des bâtiments
propres à embarquer des dizaines puis des centaines de km
de câbles et on tente l’aventure en 1865 d’une pose transat-
lantique, avec deux navires partis des Etats-Unis et d’Angleterre
à la rencontre l’un de l’autre ; comme pour presque toutes
les liaisons maritimes cette première tentative échoue. Mais
dès l’année suivante le Great Eastern (le plus grand navire
de l’époque qu’on a armé pour la pose de câbles) réussit et
récupère même le câble de l’année précédente : on est donc
fondé à penser que ce numéro de REE célèbre le sesquicente-
naire d’une très grande réussite technologique !
Figure 1 : Le Great Eastern. A son époque le Great Eastern était le plus grand bâtiment au monde ;
il pose en 1865 le premier câble télégraphique transatlantique entrel’Irlande et les USA, puis en 1869, entre Brest-Déolen et Saint Pierre
et Miquelon, le premier câble français.
REE N°5/2015 � 97
Vice-président Développement nucléaire ENGIE
ENTRETIEN AVEC PHILIPPE PRADEL
REE : Vous avez été directeur de la
Direction de l’énergie nucléaire du
Commissariat à l’énergie atomique.
Vous voici à présent Vice-président
Développement nucléaire chez ENGIE.
On peut y voir la volonté d’ENGIE
de renforcer sa présence dans le
domaine du nucléaire. Quelles sont
actuellement les ambitions d’ENGIE ?
Quel rôle entend-il jouer dans la
stratégie nucléaire française ?
Philippe Pradel : Votre question ap-
pelle plusieurs réponses. Permettez-moi
tout d’abord de faire un peu d’historique
et de rappeler l’engagement précoce
d’ENGIE dans le domaine du nucléaire.
Nous avons été pionnier en Europe avec
le développement, en partenariat avec
EDF, du premier réacteur à eau pres-
surisée construit en France, celui de
Chooz A, mis en service en 1965, arrêté
en 1999 et qui constitue à présent un
chantier-pilote des opérations de dé-
construction. Par la suite, nous avons
construit sept réacteurs représentant
au total une puissance de 6 000 MW et
dont certains ont été construits en par-
tenariat avec EDF : Tihange 1, Chooz B
et Tricastin. Nous étions opérateur sur
Tihange 1, dont la propriété est répartie
à 50/50 entre la France et la Belgique,
et nous avons des droits de tirage sur
Chooz B et sur la centrale du Tricastin.
Ceci est très important car nous avons
ainsi démontré notre capacité à travailler
en partenariat, de façon équilibrée, sur
de grands projets.
Aujourd’hui, nous exploitons sept réac-
teurs représentant en Belgique 6 000 MW
de puissance installée. Ces 6 000 MW
sont une composante importante du parc
de 115 GW que nous exploitons dans le
monde.
ENGIE est l’un des rares acteurs à maî-
triser l’ensemble des métiers de la filière
nucléaire (ingénierie, exploitation, main-
tenance, gestion des déchets, déman-
tèlement). Nous sommes très présents
dans les services y compris ceux de l’en-
richissement avec une participation de
5 % dans l’usine d’enrichissement GBII
inaugurée en 2010 au Tricastin. Nous
avons donc une position sur toute la
chaîne de valeur de l’énergie nucléaire,
et sommes ouverts et habitués à toute
forme de coopérations équilibrées.
Pour l’avenir, notre stratégie est de
promouvoir un mix énergétique diversifié,
équilibré et décarboné : le nucléaire joue
un rôle important au sein de cette stra-
tégie et le développement de notre parc
nucléaire est donc pour nous une ques-
tion qui reste tout à fait à l’ordre du jour.
REE : Comment choisissez-vous
les projets auxquels vous souhaitez
participer ?
P. P. : Nous sommes très sélectifs en
termes de pays et de marchés. Nous
nous intéressons aux pays où un marché
est établi, c’est à dire où il existe un mar-
ché convenablement régulé où l’on peut
passer des accords du type PPA (Power
Purchase Agreements) ou de type CfD
(Contract for Difference). Nous nous
intéressons uniquement à la technologie
des réacteurs nucléaires à eau pressuri-
sée de troisième génération, technologie
dans laquelle nous avons de l’expérience
et du savoir-faire.
Notre réponse au caractère très capi-
talistique des projets dans le domaine
du nucléaire consiste à travailler en par-
tenariat – coopération avec l’exploitant
nucléaire local ou avec des partenaires
locaux influents au niveau politique et
industriel – en recherchant des plans
de financement partagés entre fonds
propres et endettement garanti.
Nous pensons que le modèle de par-
tenariat et de risques partagés qui est
tout à fait usuel dans le domaine du pé-
trole et du gaz, s’impose également dans
celui du nucléaire. Malheureusement, ni
la France, ni l’Europe ne sont dotées à ce
jour d’instruments de financement qui
leur permettent de faire face de manière
suffisamment efficace à la concurrence
des autres acteurs, Russie, Chine, Japon
et Etats-Unis.
REE : Malgré ces difficultés,
vous parvenez cependant à être
présent dans certains grands projets.
Quels sont actuellement vos chan-
tiers principaux ?
P. P. : Le premier projet est celui mené
par NuGen – ou NuGeneration, société
de projet détenue à 60 % par Toshiba et à
40 % par ENGIE - en Grande-Bretagne qui
vise à construire, trois réacteurs du type
AP1000 sur le site de Moorside adjacent
à celui de Sellafield, le long de la mer d’Ir-
lande. Les réacteurs auront une puissance
totale de 3,6 GW et utiliseront la tech-
nologie développée par Westinghouse.
Nous avons une position d’investisseur
mais nous apportons également notre
Un pionnier de l’énergie nucléaire avec une expérience
de plus de 50 ans
ENGIE et le développement du nucléaire
L’avenir du nucléaire est dans les partenariats équilibrés
à l’instar du domaine pétrolier
Aujourd’hui, deux projets principaux :
NuGen (Grande-Bretagne) et Sinop (Turquie)
98 ��REE N°5/2015
REE : Quels sont les atouts
qui ont été déterminants dans
le choix des autorités turques ?
REE : Nous voulions justement vous
demander où en était le dévelop-
pement de ce réacteur et comment
il se positionnait aujourd’hui sur le
marché.
REE : ENGIE n’est pas directement par-
tie prenante aux négociations en cours
sur AREVA. Elle ne peut pourtant pas
s’en désintéresser. En particulier votre
partenaire Mitsubishi Heavy Industries
a formulé son intérêt pour une prise
de participation dans la partie réacteurs
d’AREVA. Cela ne risque-t-il pas de
créer une situation très compliquée ?
REE : La loi sur la transition énergétique
et la croissance verte a été adoptée en
août dernier. Quel regard portez-vous
sur les dispositions votées, en particu-
lier sur celles relatives au nucléaire ?
savoir-faire d’opérateur. Actuellement, les
études de caractérisation du site sont en
cours et elles alimenteront d’autres tra-
vaux tels que les activités réglementaires
et commerciales ainsi que les démarches
concernant l’obtention de différents per-rr
mis et autorisations administratives. Au
terme de ces analyses et études détaillées
et après l’obtention des permis et accords
nécessaires, une décision finale d’investis-
sement pourra être prise fin 2018.
Le second est le projet de construc-
tion d’une centrale nucléaire à proximité
de la ville de Sinop, en Turquie le long de
la mer Noire. Ce projet de quatre réac-
teurs ATMEA1 développant 4 480 MW
sera réalisé en BOO (Build-Own-Ope-
rate) par un consortium associant ENGIE,
Mitsubishi Heavy Industries (MHI),
ITOCHU et la Turkish Electricity Genera-
tion Corporation (EÜAS) dans le cadre
d’un accord intergouvernemental entre la
Turquie et le Japon. Au stade actuel, les
études de faisabilité qui devraient durer
de 18 à 24 mois se poursuivent sur le site.
REE : Quels sont les atouts
qui ont été déterminants dans
le choix des autorités turques ?
P. P. : La solidité des partenaires et de
l’offre technique, le degré d’avancement
dans les procédures de certification sont
des paramètres importants. Rappelons
que les réacteurs seront du type ATMEA1,
un réacteur à eau pressurisée de généra-
tion III+ conçu selon les critères de sécu-
rité et de fiabilité les plus stricts par une
co-entreprise constituée par Mitsubishi
Heavy Industries et AREVA. Ils bénéficie-
ront du meilleur de l’expérience accumu-
lée depuis plusieurs dizaines d’années
par les deux partenaires.
REE : Nous voulions justement vous
demander où en était le dévelop-
pement de ce réacteur et comment
il se positionnait aujourd’hui sur le
marché.
P. P. : L’ATMEA1 est un réacteur de troi-
sième génération à eau pressurisée, qui
se situe au meilleur niveau de la tech-
nologie actuelle dans le domaine du nu-
cléaire (on parle parfois de 3G+ !). Avec
une puissance de 1 100 MW, le réacteur
est particulièrement bien adapté aux
réseaux de dimension moyenne qui ne
peuvent pas accueillir des réacteurs de
taille supérieure (rappelons que l’EPR a
une puissance unitaire de 1 600 MW),
en particulier ceux de la plupart des pri-
mo-accédants au domaine nucléaire.
Il bénéficie de l’expérience des deux
partenaires et en particulier de celle de
MHI dans le domaine de la prévention
des risques sismiques. Il est doté de trois
boucles de refroidissement redondantes
et d’un récupérateur de corium1. Sa
conception en fera un outil de très haut
rendement énergétique et sa durée de vie
prévisionnelle est d’emblée de 60 ans.
Le “basic design” a reçu en 2012 un
avis positif sur les options de sûreté de
la part de l’ASN (Autorité de sûreté nu-
cléaire) et l’ATMEA1 retient aujourd’hui
l’intérêt de plusieurs pays : le Vietnam,
le Brésil, sans oublier la France où nous
avions proposé la réalisation d’un réac-
teur en vallée du Rhône.
REE : ENGIE n’est pas directement par-
tie prenante aux négociations en cours
sur AREVA. Elle ne peut pourtant pas
s’en désintéresser. En particulier votre
partenaire Mitsubishi Heavy Industries
a formulé son intérêt pour une prise
de participation dans la partie réacteurs
d’AREVA. Cela ne risque-t-il pas de
créer une situation très compliquée ?
P. P. : Compte tenu du contexte que j’ai
rappelé et de la coopération qui s’est
nouée depuis 2006 entre AREVA et MHI
autour du projet ATMEA1, il est tout à fait
naturel que MHI s’intéresse au devenir
de la partie « réacteurs » d’AREVA.
REE : La loi sur la transition énergétique
et la croissance verte a été adoptée en
août dernier. Quel regard portez-vous
sur les dispositions votées, en particu-
lier sur celles relatives au nucléaire ?
P. P. : La stratégie énergétique, dans
le domaine nucléaire en particulier,
est définie au niveau national et a fait
l’objet d’un vote par le parlement. Nous
sommes heureux que les choses aient
été clarifiées et que la loi reconnaisse
un rôle important au nucléaire qui est,
1 Le corium est le magma métallique et mi-néral constitué d’éléments fondus du cœur d’un réacteur nucléaire et des minéraux qu’il peut absorber lors de son trajet.
ATMEA1 :un réacteur au meilleur niveau
de la technologie actuelle
MHI est un partenaire naturel
Philippe Pradel est diplômé
de l’École Polytechnique et de l’École
nationale supérieure des techniques
avancées (ENSTA). Il est entré au Com-
missariat à l’énergie atomique (CEA)
en 1980 pour travailler sur le réacteur
expérimental Superphénix et a rejoint la
COGEMA en 1987 pour travailler sur le
retraitement du combustible nucléaire à
l’usine de retraitement de La Hague. Il
occupe diverses fonctions de responsa-
bilités chez COGEMA puis AREVA avant
d’être nommé directeur de la Direction de
l’énergie nucléaire du CEA. Depuis 2010,
il occupe le poste de vice-président GSND
(ENGIE).
Philippe Pradel est membre de l’Académie
des technologies et chevalier de la Légion
d’honneur.
REE N°5/2015 � 101
ENSEIGNEMENT & RECHERCHE
Sandrine Vaton Professeure, Télécom Bretagne
Etat des lieuxVous avez dit « Egalité » ?
A tteindre l’égalité entre tous les citoyens fait partie des principes affirmés dans les textes fondateurs de la France, dès la première République. L’égalité des sexes est ainsi formulée dans le préambule de la constitution
de 1946 : « La loi garantit à la femme, dans tous les domaines, des droits égaux à ceux de l’homme ».
Pourtant, force est de constater qu’en 2015 on est très loin de l’égalité entre les femmes et les hommes, en particulier dans le domaine salarial. D’après les chiffres 2013 de l’APEC et de l’INSEE, les inégalités de salaires s’élèvent à 27 % dans le privé et 18 % dans le public (en faveur des hommes). Les pensions de retraite des femmes sont de l’ordre de 30 % inférieures à celles des hommes. Les femmes cadres supérieures gagnent 14 % de moins que les hommes, l’écart étant de 5 % en début de carrière et de l’ordre de 20 % après 50 ans.
Une situation paradoxale : le rendement des diplômes dépendrait-il du genre ?
Leurs résultats en matière scolaire pourraient laisser croire que les femmes entament leur carrière avec de meilleurs atouts que les hommes. 85 % des femmes de 25 à 34 ans sont diplômées du second cycle de l’éducation secondaire contre 83 % des hommes du même âge. 48 % des femmes sont diplômées de l’enseigne-ment supérieur contre 38 % des hommes.
Bien qu’elles soient plus nombreuses à être diplômées du supérieur, les femmes accusent un retard salarial significatif sur les hommes. On pourrait en conclure que le rendement d’un diplôme du supérieur est plus faible pour une femme que pour un homme. Cette situation n’est bien sûr pas satisfaisante. On est bien loin de l’égalité que nous promettent les grands prin-cipes de la République.
Analyse des principaux facteurs d’inégalité
Pour comprendre cet apparent paradoxe il faut analyser les fac-teurs d’inégalités.
Le temps partiel, qui peut être choisi, souvent pour des raisons d’or-ganisation familiale, mais qui est également subi par un certain nombre de salariées surtout parmi les moins qualifiées, est un premier facteur d’inégalité : 80 % des salarié-e-s à temps partiel sont des femmes.
Les tâches domestiques restent l’apanage des femmes. Ces contraintes et le fait de souvent privilégier au sein du couple la carrière de l’homme ont aussi un impact négatif sur l’évolution de carrière des femmes.
La fonction exercée et le secteur d’activité sont aussi des fac-teurs d’inégalité majeurs. La notion de « salaire d’appoint » a la peau dure et les métiers traditionnellement à prédominance féminine souffrent d’évaluation discriminante [1].
Le plafond de verre (de l’anglais, glass ceiling effect) désigne le fait que les niveaux supérieurs de la hiérarchie ne sont pas acces-sibles à certaines catégories, par exemple les femmes, du fait d’un réseau de pouvoir implicite.
Ces différents facteurs contribuent à expliquer, même s’ils ne les justifient pas, les différences salariales au détriment des femmes. Il reste toutefois une différence inexpliquée de l’ordre de 9 % à com-pétences, diplômes, temps de travail et poste occupé équivalents. C’est la part de la discrimination pure dans les différences salariales.
Métiers du numérique : opportunités et choix d’orientation genrés
Revenons sur un des facteurs explicatifs identifiés ci-dessus, le secteur d’activité et le métier exercé. Certains secteurs sont pour-voyeurs d’emplois correctement rémunérés, c’est en particulier le cas du numérique : il est important d’encourager les jeunes, et en particulier les jeunes femmes, à s’orienter vers ce secteur.
Le 15 octobre 2015, a eu lieu en Bretagne la conférence « Le nu-mérique : des métiers en tous genres », à l’initiative de l’associa-tion Femmes & sciences et de l’université européenne de Bretagne (UEB), en association avec certains établissements d’enseignement supérieur et de recherche et en partenariat avec le rectorat d’aca-démie de Rennes. Lors de cette journée, plus de 600 scolaires, filles et garçons, de collèges et lycées, ont été sensibilisé-e-s aux opportunités offertes par le numérique.
Femmes et numériqueDes opportunités formidables
La place croissante des technologies de l’information dans tous les secteurs de l’économie fait du numérique un pourvoyeur d’emplois en croissance rapide, tant par le nombre que par la diversité des métiers proposés. Les
jeunes diplômés, et en particulier les jeunes femmes, y sont très attendus. Le dynamisme du secteur représente une opportu-nité d’épanouissement pour toutes et pour tous. Pourtant les femmes sont très peu nombreuses à s’orienter vers les forma-tions dans ce domaine et à y faire carrière. Cet article propose un état des lieux sur la féminisation des formations et métiers du numérique, s’interroge sur le manque d’attractivité du secteur auprès des jeunes femmes et présente la grande variété des actions mises en place pour tenter d’y remédier.
RÉSUMÉ
102 ��REE N°5/2015
ENSEIGNEMENT & RECHERCHE
Perspectives des métiers du numérique
D’après les chiffres 2012 du Syntec numérique, la rémunération brute annuelle moyenne dans les entreprises de la fédération est de 48,3 k� (contre 33,1 k� pour l’ensemble de l’économie). 93,7 % des salariés sont en CDI (contre 69,5 % pour l’ensemble de l’économie). 68,9 % des salariés sont cadres (contre 15,6 % pour l’ensemble de l’économie).
Seules 27,3 % des salariés des entreprises du Syntec numérique sont des femmes contre 48,4 % pour l’ensemble de l’économie. Ce secteur, qui emploie majoritairement des cadres, offre des salaires plutôt confortables, mais les femmes y sont sous-représentées, en particulier dans les fonctions techniques (techniciennes, ingé-nieures). La pyramide des âges met par ailleurs en évidence un dé-séquilibre avec un fort déficit de femmes parmi les jeunes. Il y a en effet beaucoup d’hommes jeunes dans le numérique, mais pas de femmes dans les mêmes proportions. Avec des projections prenant en compte les départs en retraite dans les années à venir, le pour-centage de femmes dans le secteur devrait donc encore baisser...
Il est indispensable que les femmes participent activement à la transition numérique, qu’elles soient les actrices de ce change-ment plutôt qu’elles ne le subissent. Le numérique est une révolu-tion en profondeur de la société, qui remet en cause les modes de fonctionnement anciens, au même titre que naguère l’écriture ou l’imprimerie. Ses domaines d’intervention sont très variés : aéronau-tique, défense, télécommunications, énergie, transports, banque... La MEITO, dont la mission est de contribuer au développement économique des activités TIC en Bretagne, suscite également des programmes croisés entre numérique et agriculture, numérique et bâtiment, numérique et santé ou biotechnologies...
La numérisation de l’économie aura un impact fort sur la nature des emplois. Certains emplois vont disparaître dans les prochaines années du fait du passage à l’ère numérique. D’autres vont évoluer pour s’enrichir en TIC, et ceci est vrai dans tous les domaines de l’éco-nomie, pas uniquement dans les nouvelles technologies. Les jeunes sont encore trop peu nombreux à acquérir des compétences profes-sionnelles dans le domaine. Le nombre d’emplois de cadres à pour-voir en France dans le secteur du numérique en 2015 était de l’ordre de 35 000 et les entreprises peinent souvent à trouver suffisamment de personnes formées, par exemple en sécurité informatique.
Il est indispensable que les jeunes, et en particulier les jeunes femmes, prennent conscience de cette évolution des métiers et en tiennent compte dans leurs choix d’orientation. Accroître la repré-sentation des femmes dans le secteur serait bénéfique aux femmes elles-mêmes, mais aussi à l’industrie du numérique. D’après un communiqué de la Commission européenne publié en 2013, ac-croître la présence des femmes dans le secteur de l’économie nu-mérique de l’UE permettrait d’augmenter de neuf milliards d’euros le PIB annuel. Il est par ailleurs reconnu, notamment par l’étude Women Matter de Mc Kinsey & Company, que les organisations qui intègrent le plus de femmes aux postes d’encadrement affichent une meilleure performance organisationnelle et une plus forte ren-tabilité financière.
Des choix d’orientation genrés
Malgré les atouts du secteur, les jeunes femmes sont très peu nombreuses à s’orienter vers les sciences et technologies de l’in-formation et de la communication (STIC). Elles sont en moyenne 27 % dans les écoles d’ingénieurs, ce qui est déjà fort peu, et c’est dans les écoles de chimie, d’agriculture, agro-alimentaire ou agrono-mie qu’on les retrouve essentiellement. Au niveau des classes pré-paratoires aux grandes écoles scientifiques elles sont majoritaires en filière BCPST (biologie, chimie, physique et sciences de la Terre) avec 70 % des effectifs, mais très minoritaires dans les filières MPSI (maths-physique-sciences de l’ingénieur) et PT (physique technolo-gie) avec respectivement 28 et 11 % des effectifs.
Dans les écoles à dominante informatique ou STIC, les jeunes femmes sont rares, leur proportion atteignant rarement les 20 %. Certaines écoles, bien souvent des écoles d’informatique, n’ont que de l’ordre de 5 à 10 % de femmes parmi les étudiant-e-s. Le même phénomène peut être observé dans certaines écoles de
Le plafond de verre enfin expliqué ?
Dans un article récent, Avin et al. [2] font une analyse mathématique du mécanisme du « plafond de verre ». Pour cela ils partent des données de la base DBLP des publications scientifiques en mathématiques et infor-matique. Ils font l’hypothèse que trois conditions inter-viennent dans l’apparition d’un plafond de verre :
femmes, -
socient plus facilement avec des femmes et les hommes avec des hommes, et
les nœuds roses représentant les femmes et les nœuds bleus les hommes, et ils simulent par ordinateur son évo-
des trois conditions énoncées ci-dessus. Ils observent alors l’apparition d’un plafond de verre, les nœuds les plus connectés ayant de fortes chances d’être bleus.
--
l’on supprime l’une quelconque des trois conditions ci-dessus, alors le phénomène de plafond de verre n’appa-raît plus.
Perspectives des métiers du numérique
D’après les chiffres 2012 du Syntec numérique, la rémunération brute annuelle moyenne dans les entreprises de la fédération est de 48,3 k� (contre 33,1 k� pour l’ensemble de l’économie). 93,7% des salariés sont en CDI (contre 69,5 % pour l’ensemble de l’économie). 68,9 % des salariés sont cadres (contre 15,6 % pour l’ensemble de l’économie).
Seules 27,3 % des salariés des entreprises du Syntec numérique sont des femmes contre 48,4 % pour l’ensemble de l’économie. Ce secteur, qui emploie majoritairement des cadres, offre des salairesplutôt confortables, mais les femmes y sont sous-représentées,en particulier dans les fonctions techniques (techniciennes, ingé-nieures). La pyramide des âges met par ailleurs en évidence un dé-séquilibre avec un fort déficit de femmes parmi les jeunes. Il y a eneffet beaucoup d’hommes jeunes dans le numérique, mais pas de femmes dans les mêmes proportions. Avec des projections prenant en compte les départs en retraite dans les années à venir, le pour-rrcentage de femmes dans le secteur devrait donc encore baisser...
Il est indispensable que les femmes participent activement à la transition numérique, qu’elles soient les actrices de ce change-ment plutôt qu’elles ne le subissent. Le numérique est une révolu-tion en profondeur de la société, qui remet en cause les modes defonctionnement anciens, au même titre que naguère l’écriture ou l’imprimerie. Ses domaines d’intervention sont très variés : aéronau-tique, défense, télécommunications, énergie, transports, banque...La MEITO, dont la mission est de contribuer au développementéconomique des activités TIC en Bretagne, suscite également desprogrammes croisés entre numérique et agriculture, numérique et bâtiment, numérique et santé ou biotechnologies...
La numérisation de l’économie aura un impact fort sur la nature des emplois. Certains emplois vont disparaître dans les prochaines années du fait du passage à l’ère numérique. D’autres vont évoluer pour s’enrichir en TIC, et ceci est vrai dans tous les domaines de l’éco-nomie, pas uniquement dans les nouvelles technologies. Les jeunes sont encore trop peu nombreux à acquérir des compétences profes-sionnelles dans le domaine. Le nombre d’emplois de cadres à pour-rrvoir en France dans le secteur du numérique en 2015 était de l’ordre de 35 000 et les entreprises peinent souvent à trouver suffisamment de personnes formées, par exemple en sécurité informatique.
Il est indispensable que les jeunes, et en particulier les jeunes femmes, prennent conscience de cette évolution des métiers et en tiennent compte dans leurs choix d’orientation. Accroître la repré-sentation des femmes dans le secteur serait bénéfique aux femmes elles-mêmes, mais aussi à l’industrie du numérique. D’après un communiqué de la Commission européenne publié en 2013, ac-croître la présence des femmes dans le secteur de l’économie nu-mérique de l’UE permettrait d’augmenter de neuf milliards d’euros le PIB annuel. Il est par ailleurs reconnu, notamment par l’étude Women Matter de Mc Kinsey & Company, que les organisations quirintègrent le plus de femmes aux postes d’encadrement affichent une meilleure performance organisationnelle et une plus forte ren-tabilité financière.
Des choix d’orientation genrés
Malgré les atouts du secteur, les jeunes femmes sont très peu nombreuses à s’orienter vers les sciences et technologies de l’in-formation et de la communication (STIC). Elles sont en moyenne27 % dans les écoles d’ingénieurs, ce qui est déjà fort peu, et c’est dans les écoles de chimie, d’agriculture, agro-alimentaire ou agrono-mie qu’on les retrouve essentiellement. Au niveau des classes pré-paratoires aux grandes écoles scientifiques elles sont majoritaires en filière BCPST (biologie, chimie, physique et sciences de la Terre) avec 70 % des effectifs, mais très minoritaires dans les filières MPSI(maths-physique-sciences de l’ingénieur) et PT (physique technolo-gie) avec respectivement 28 et 11 % des effectifs.
Dans les écoles à dominante informatique ou STIC, les jeunes femmes sont rares, leur proportion atteignant rarement les 20 %.Certaines écoles, bien souvent des écoles d’informatique, n’ont que de l’ordre de 5 à 10 % de femmes parmi les étudiant-e-s.Le même phénomène peut être observé dans certaines écoles de
Le plafond de verre enfin expliqué ?
Dans un article récent, Avin et al. [2] font une analysemathématique du mécanisme du « plafond de verre ». Pour cela ils partent des données de la base DBLP des publications scientifiques en mathématiques et infor-matique. Ils font l’hypothèse que trois conditions inter-viennent dans l’apparition d’un plafond de verre :
femmes, -
socient plus facilement avec des femmes et les hommesavec des hommes, et
les nœuds roses représentant les femmes et les nœuds bleus les hommes, et ils simulent par ordinateur son évo-
des trois conditions énoncées ci-dessus. Ils observentalors l’apparition d’un plafond de verre, les nœuds les plusconnectés ayant de fortes chances d’être bleus.
--
l’on supprime l’une quelconque des trois conditions ci-dessus, alors le phénomène de plafond de verre n’appa-raît plus.
REE N°5/2015 � 109
Sous un titre insolent, Dieu n’estplus ce qu’il était, la chronique de REE 2015-4 s’efforçait de montrer comment s’articulent, à propos de
nos origines, physique et métaphysique. Pour celle-ci, nous nous tournons vers l’avenir, tant les évolutions technologiques et les réflexionséthiques interfèrent quant aux possibilités et aux finalités de l’humanité…
Les progrès de l’informatique, stockage et traitement de l’information, irriguent de nom-breux domaines : qu’il s’agisse de l’automa-tique et de la robotique, des neuroscienceset de l’intelligence artificielle, de l’interactionhomme-machine et des techniques palliativesau handicap, le progrès permet d’améliorer la condition humaine. On va bientôt comprendreet stimuler les mécanismes, physiologiques donc matériels, de la conscience ; les neuros-ciences autorisent l’espoir de guérir des mala-dies encore invalidantes ou dégénératives.
Ce qui touche à l’intelligence et au cerveau s’inscrit dans ce que le progrès contempo-rain a de spectaculaire, mais aussi de mysté-rieux. Ainsi le prix du journal Le Monde de larecherche universitaire vient d’être décerné à Jonathan Grizou (INRIA Bordeaux) pour la miseau point d’algorithmes d’apprentissage permet-tant d’adapter les interfaces cerveau-machine à chaque patient. Le progrès met en jeu desmécanismes subtils, souvent vulgarisés sous leterme d’ondes qui garde dans le grand public son aura de mystère, voire de danger !
Les interfaces cerveau-machine qui aug-mentent l’humain pour dépasser ses limites,tel est le thème du premier ouvrage qui inspirenos propos ; sous un titre, Une puce dans la tête, qui fleure les excès du marketing, DorianNeerdael, jeune philosophe et éthicien formé à l’Université Libre de Bruxelles (ULB), explore d’une plume alerte les interrogations suscitéespar ces dispositifs qui produisent des applica-tions performantes, décisives pour améliorer lasituation de handicapés ; le tapage médiatique étouffe d’ailleurs le plus souvent, le caractèrenovateur mais limité des résultats acquis et les submerge de commentaires où l’aspect théra-peutique l’homme réparé le cède trop facile-ment au sensationnel de l’homme augmenté,voire de l’homme dépassé…
La pertinence de l’ouvrage de Dorian Neerdael et la facilité de son abord tiennent à
un sympathique équilibre entre la technicité philosophique et la complexité scientifique : elles ont d’ailleurs séduit le jury du prix « X PHI-LO » récompensant chaque année un ouvrageconfrontant science et philosophie. Face aux excès de la prospective sur la fusion cerveau-machine, notre philosophe insiste autant sur lespromesses que sur les menaces d’une quête il-limitée de performances : c’est à juste titre qu’ilen appelle à Kant ou à Diderot pour concilier esprit critique et perspective humaniste.
Comment ne pas souscrire à une conclu-sion insistant sur la différence entre augmen-
tation et amélioration et appelant à renoncer àune quête de performance illimitée qui pour-rrrait à terme menacer la pérennité de la viesur terre… Cette prudence méthodologique s’oppose aux post- et aux des trans-huma-nistes dont les analyses confinent à l’utopie ouau rêve, parfois même au délire, par exemplequand on spécule sur la transmission de pen-sée ou sur la possibilité de d’immortalité grâce à la cryogénie.
La REE, avec ses récents dossiers sur lescontributions des TIC à la santé ou à la lutte
contre la dépendance, est évidemment sen-sible à la prospective sur toutes ces questionset elle a reçu avec intérêt le nouveau cahier dela Fondation Télécom. Créée par Alcatel-Lucent, BNP Paribas et Orange et associant des parte-naires importants, cette fondation a mobiliséles spécialistes des diverses écoles de Télécom pour illustrer les recherches entreprises et ima-giner leurs développements : le thème « TIC et santé » est en effet un objectif stratégique de l’Institut Mines-Télécom auquel elles appar-rrtiennent. C’est un cahier dense, et l’on peutmesurer des retombées avérées, telles la créa-tion de startups, ainsi que les attentes socié-tales pour les prochaines décennies où les TIC joueront un rôle souvent décisif ; la plupart desdispositifs externes, mécaniques et/ou numé-riques, susceptibles d’augmenter l’humain sontenvisagés, même si les thèmes controverséscomme les puces implantées dans le corps oules modifications du génome sont hors champ de cette prospective.
Les recherches concernant l’homme répa-ré, où les conséquences du handicap, de ladépendance, du vieillissement ou de la mala-die sont partiellement ou totalement effacées,connaissent grâce au prodigieux essor destechnosciences un grand succès ; l’efficacité même de ces retombées conduit naturelle-ment à un homme augmenté, dès lors qu’elles concernent les capacités biologiques de l’es-pèce : en imaginant une « Loi de Moore » pour de tels dispositifs, on en vient naturellement à imaginer que viendra, assez vite d’ailleurs, le moment ou la machine dépassera l’humain,inaugurant l’ère du post humanisme.
Le cahier ne nous parait pas témoigner à l’égard de ces perspectives de la même rigueur éthique que Dorian Neardall ; il fait une placeparfois complaisante à la « singularité » envisa-gée en 2005 par Raymond C. Kurzweil. Sou-haitons que les capacités de réflexion philo-sophique de l’Institut, dont on a pu apprécier la pertinence (cf l’ouvrage piloté par BrigitteMunier sur La sociologie du corps à l’épreuve des nouvelles technologies), continuent d’innerss -rrver les recherches techniques. Quand les biolo-gistes s’inquiètent d’une possible dérive eugé-nique et les statisticiens des risques sociétauxdes « Big Data », il serait regrettable que s’affai-blisse une indispensable vigilance éthique. �
B. AyAA .
CHRONIQUE
L’Homme, et après… ?
Dorian Neerdael Une puce dans la tête
Les interfaces cerveau-machine qui augmentent l’humain pour dépasser ses limites
Editions FYP Collection Présence août 2014 - 160 p. - 15,50 �
D ri N rd l
Ouvrage collectif L’Homme augmenté
Notre humanité en quête de sensCahier de la Fondation Télécom
juin 2015 - 28 p.
REE N°5/2015 � 111
LIBRES PROPOS
Gilles Bellec Ingénieur général des mines
La communication du pape François dans
l’encyclique « Laudato si’ » (« Loué sois-tu »)
a retenti au niveau mondial. Elle s’adresse à
tous les hommes de bonne volonté afin de
guider leurs actions mais sans chercher à imposer ses
solutions car :
61. L’Église n’a pas de raison de proposer une parole
définitive et elle comprend qu’elle doit écouter puis
promouvoir le débat honnête entre scientifiques, en
respectant la diversité d’opinions.
L’apocalypse nucléaire qui avait suscité
l’encyclique « Pacem in terris » n’a pas eu
lieu. Un autre risque se profile insidieuse-
ment avec le progrès : l’activité humaine
menace « l’ordre admirable » qui per-
met la vie sur Terre.
Ce risque était déjà identifié par Lamarck en 1820
dans son « Système analytique des connaissances posi-
tives de l’homme » :
L’homme, par son égoïsme trop peu clairvoyant pour
ses propres intérêts, par son penchant à jouir de tout ce
qui est à sa disposition, en un mot, par son insouciance
pour l’avenir et pour ses semblables, semble travailler à
l’anéantissement de ses moyens de conservation et à la
destruction même de sa propre espèce… On dirait qu’il
est destiné à s’exterminer lui-même après avoir rendu
le globe inhabitable.
Aujourd’hui la destruction s’étend progressivement à
l’ensemble du globe et les alertes viennent de tous les
horizons scientifiques. Le risque ne réside plus, comme
dans le passé, dans des destructions locales succes-
sives. II est devenu global.
Le diagnostic ne suscite pas le doute :
161. Les prévisions catastrophistes ne peuvent plus
être considérées avec mépris ni ironie. Nous pourrions
laisser trop de décombres, de déserts et de saletés
aux prochaines générations. Le rythme de consom-
mation, de gaspillage et de détérioration de l’environ-
nement a dépassé les possibilités de la planète, à tel
point que le style de vie actuel, parce qu’il est insou-
tenable, peut seulement conduire à des catastrophes.
Le pape invite à penser le monde comme un espace
« clos et fini ». Cette vision qui n’est pas nouvelle conduit
cependant à une révolution de la représentation du
monde aussi importante que celle de l’espace impul-
sée par Galilée ou celle de l’écoulement du temps par
Darwin. Il s’agit de prendre en compte les problèmes
nouveaux provoqués par des hommes plus nombreux,
plus riches, plus protéinés et plus mobiles.
Comme « Tout est lié », la vision du pape inclut la ques-
tion sociale :
49. Une vraie approche écologique se transforme
toujours en une approche sociale, qui doit intégrer
la justice dans les discussions sur l’environnement,
pour écouter tant la clameur de la terre que la cla-
meur des pauvres.
Pour faire partager sa vision, le pape ne vise pas le com-
promis :
194. Il ne suffit pas de concilier, en un
juste milieu, la protection de la nature
et le profit financier, ou la préservation
de l’environnement et le progrès. Sur ces
questions, les justes milieux retardent
seulement un peu l’effondrement. Il s’agit simple-
ment de redéfinir le progrès.
*
* *
Le message est puissant. « Tout est lié » : le style
répétitif est circulaire comme l’économie devrait être cir-
culaire pour sortir de la « culture du déchet ».
Pour résumer, la question des pauvres et celle de la
nature sont liées, le matérialisme individualiste créateur
de richesses détruit le monde, le partage traditionnel
chrétien ne suffit plus, la sobriété collective s’impose. Un
changement de comportement, mettant fin à l’accumula-
tion des richesses matérielles est nécessaire. Il est encou-
ragé et rendu acceptable par la valorisation des richesses
spirituelles de la vie intérieure mais aussi des richesses
de la nature, de la création humaine, de l’art, de la poésie.
Une injonction à un tel niveau questionne en profon-
deur les instruments de politique publique sous plusieurs
angles : la responsabilité, l’impatience, le partage et le
marché et enfin la diversité comme source de richesse.
Responsabilité et éloge de la sobriété et de la lenteur
Comment inciter les hommes à la responsabi-
lité vis-à-vis de l’ordre naturel ? Les moines donnent
un exemple poussé à l’extrême de « saine sobriété ».
De son côté, homo faber vise l’efficacité accrue du
Une lecture de Laudato si’
112 ��REE N°5/2015
LIBRES PROPOS
prélèvement sur la nature par la mobilisation de la
techno-science, l’usage d’équipements performants et
l’accumulation de richesse technique.
Sans oublier – ni le surestimer – le potentiel du…
22… modèle circulaire de production qui assure
des ressources pour tous comme pour les généra-
tions futures et qui suppose de limiter au maximum
l’utilisation des ressources non renouvelables, d’en
modérer la consommation, de maximiser l’efficacité
de leur exploitation, de les réutiliser et de les recycler.
Comment évoluer vers une société plus riche et plus
sobre ? Riche en capital accumulé par dynamisme indi-
viduel, sobre en consommation par nécessité collective
et policée pour respecter l’environnement.
Le philosophe Hans Jonas développe dans une
phrase très abstraite le principe de la responsabilité :
« L’action a lieu dans un contexte où tout emploi à
grande échelle d’une capacité engendre, en dépit de
l’intention droite des agents, une série d’effets liée étroi-
tement aux effets « bénéfiques » immédiats et intention-
nés, série qui aboutit, au terme d’un processus cumu-
latif à des conséquences néfastes dépassant parfois de
loin le but recherché ».
En remplaçant le mot action par les mots transport,
tourisme, agriculture ou le mot pêche, le sens s’éclaire.
La question de la responsabilité humaine dans un
monde clos est alors posée.
La démographie mérite une attention particulière car
les prélèvements sur la nature dépendent du nombre
de convives à la table de la consommation. Rien n’em-
pêche alors de substituer dans la phrase évoquée le mot
action par paternité. Le pape balaye l’objection : « La
croissance démographique est pleinement compatible
avec un développement intégral et solidaire ».
Dans d’autres occasions, le pape développe le
concept de paternité responsable mais limité au contexte
familial et social, sans référence au caractère clos et fini
du monde. Pourtant quand on associe autant « la cla-
meur des pauvres et de la terre », la tension entre l'équi-
libre de l'ordre naturel et l'accès aux ressources pour des
populations plus nombreuses ne peut être niée.
Dans un système clos, toute consommation a une
contrepartie. La concurrence entre la Terre et les hu-
mains s’impose. Une dynamique est lancée. Au cours
du XXe siècle, la population humaine a été multipliée par
7 et le nombre des grands animaux sauvages ou des
poissons a été divisé par 10 ou 100 selon les espèces et
les scientifiques parlent de 6e extinction. Le genre homo
s’accroît au détriment de la nature. Et un peuplement
plus nombreux tend à éloigner les hommes de la nature,
ce qui, pour le pape, rend la pauvreté plus dure encore.
L’avenir devra inévitablement établir un équilibre entre la
sobriété contrainte et l’artificialisation accrue des modes
de vie.
Pour illustrer l’origine commune des problèmes, le
pape invente un mot espagnol volontairement non tra-
duit : « la rapidacion ». Ce concept polysémique peut
inclure l’éloignement du rythme naturel de la vie pour
des hommes soumis à l’accélération des changements,
à la vitesse et aux cadences dans les usines non robo-
tisées du tiers monde, comme le sort réservé aux ani-
maux d’élevage à la vie artificielle et écourtée.
Responsabilité vis-à-vis du déroulement du temps, l’immédiateté et le marché
Le bon usage du marché est interpellé :
190. L’environnement fait partie de ces biens que les
mécanismes du marché ne sont pas en mesure de
défendre ou de promouvoir de façon adéquate.
La critique du marché par le pape concerne davan-
tage les dysfonctionnements du marché (spéculation,
court-termisme, absence de prise en compte des exter-
nalités comme les déchets) que le marché lui-même.
Cette critique du pape peut être rapprochée de celle
qu’il adopte sur la techno-science quand celle-ci prétend
avoir réponse à tout. Il ne faut pas diviniser le marché
aujourd’hui, comme on le faisait de l’industrie au XIXe
siècle, quand Saint Simon écrivait en 1830 : « L’objet de
l’industrie est l’exploitation du globe... Par elle, l’homme
participe aux manifestations successives de la divinité
et continue ainsi l’œuvre de la création. De ce point de
vue, l’industrie devient le culte ».
La première critique des marchés concerne « l’immé-
diateté » au détriment du long terme, car :
197. Nous avons besoin d’une politique aux vues
larges qui suive une approche globale.
et, encore plus grave :
160. Ce qui est en jeu vis-à-vis des générations
futures, c’est notre propre dignité… parce que cela
met en crise le sens de notre propre passage sur
cette terre.
Le pape aurait aussi pu évoquer la politique monétaire
ou financière avec le taux d’intérêt ou d’actualisation mais
il ne le fait pas. Dans la relation entre développement et
prélèvement sur la nature par la mobilisation de la
techno-science, l’usage d’équipements performants et
l’accumulation de richesse technique.
Sans oublier – ni le surestimer – le potentiel du…
22… modèle circulaire de production qui assure
des ressources pour tous comme pour les généra-
tions futures et qui suppose de limiter au maximum
l’utilisation des ressources non renouvelables, d’en
modérer la consommation, de maximiser l’efficacité
de leur exploitation, de les réutiliser et de les recycler.
Comment évoluer vers une société plus riche et plus
sobre ? Riche en capital accumulé par dynamisme indi-
viduel, sobre en consommation par nécessité collective
et policée pour respecter l’environnement.
Le philosophe Hans Jonas développe dans une
phrase très abstraite le principe de la responsabilité :
« L’action a lieu dans un contexte où tout emploi à
grande échelle d’une capacité engendre, en dépit de
l’intention droite des agents, une série d’effets liée étroi-ii
tement aux effets « bénéfiques » immédiats et intention-
nés, série qui aboutit, au terme d’un processus cumu-
latif à des conséquences néfastes dépassant parfois de
loin le but recherché ».
En remplaçant le mot action par les mots transport,
tourisme, agriculture ou le mot pêche, le sens s’éclaire.
La question de la responsabilité humaine dans un
monde clos est alors posée.
La démographie mérite une attention particulière car
les prélèvements sur la nature dépendent du nombre
de convives à la table de la consommation. Rien n’em-
pêche alors de substituer dans la phrase évoquée le mot
action par paternité. Le pape balaye l’objection : « La
croissance démographique est pleinement compatible
avec un développement intégral et solidaire ».
Dans d’autres occasions, le pape développe le
concept de paternité responsable mais limité au contexte
familial et social, sans référence au caractère clos et fini
du monde. Pourtant quand on associe autant « la cla-
meur des pauvres et de la terre », la tension entre l'équi-
libre de l'ordre naturel et l'accès aux ressources pour des
populations plus nombreuses ne peut être niée.
Dans un système clos, toute consommation a une
contrepartie. La concurrence entre la Terre et les hu-
mains s’impose. Une dynamique est lancée. Au cours
du XXe siècle, la population humaine a été multipliée par
7 et le nombre des grands animaux sauvages ou des
poissons a été divisé par 10 ou 100 selon les espèces et
les scientifiques parlent de 6e extinction. Le genre homo
s’accroît au détriment de la nature. Et un peuplement
plus nombreux tend à éloigner les hommes de la nature,
ce qui, pour le pape, rend la pauvreté plus dure encore.
L’avenir devra inévitablement établir un équilibre entre la
sobriété contrainte et l’artificialisation accrue des modes
de vie.
Pour illustrer l’origine commune des problèmes, le
pape invente un mot espagnol volontairement non tra-
duit : « la rapidacion ». Ce concept polysémique peut
inclure l’éloignement du rythme naturel de la vie pour
des hommes soumis à l’accélération des changements,
à la vitesse et aux cadences dans les usines non robo-
tisées du tiers monde, comme le sort réservé aux ani-
maux d’élevage à la vie artificielle et écourtée.
Responsabilité vis-à-vis du déroulement du temps, l’immédiateté et le marché
Le bon usage du marché est interpellé :
190. L’environnement fait partie de ces biens que les
mécanismes du marché ne sont pas en mesure de
défendre ou de promouvoir de façon adéquate.
La critique du marché par le pape concerne davan-
tage les dysfonctionnements du marché (spéculation,
court-termisme, absence de prise en compte des exter-rr
nalités comme les déchets) que le marché lui-même.
Cette critique du pape peut être rapprochée de celle
qu’il adopte sur la techno-science quand celle-ci prétend
avoir réponse à tout. Il ne faut pas diviniser le marché
aujourd’hui, comme on le faisait de l’industrie au XIXe
siècle, quand Saint Simon écrivait en 1830 : « L’objet de
l’industrie est l’exploitation du globe... Par elle, l’homme
participe aux manifestations successives de la divinité
et continue ainsi l’œuvre de la création. De ce point de
vue, l’industrie devient le culte ».
La première critique des marchés concerne « l’immé-
diateté » au détriment du long terme, car :
197. Nous avons besoin d’une politique aux vues
larges qui suive une approche globale.
et, encore plus grave :
160. Ce qui est en jeu vis-à-vis des générations
futures, c’est notre propre dignité… parce que cela
met en crise le sens de notre propre passage sur
cette terre.
Le pape aurait aussi pu évoquer la politique monétaire
ou financière avec le taux d’intérêt ou d’actualisation mais
il ne le fait pas. Dans la relation entre développement et
124 ��REE N°5/2015
Impression : Jouve - 53100 Mayenne Dépôt légal : janvier 2016
Edition/Administration : SEE - 17, rue de l’Amiral Hamelin - 75783 Paris cedex 16Tél. : 01 5690 3709 - Fax : 01 5690 3719Site Web : www.see.asso.fr
Directeur de la publication :François Gerin
Comité de rédaction : Bernard Ayrault, Alain Brenac,Patrice Collet, André Deschamps, Jean-Pierre Hauet,Jacques Horvilleu
Rédaction : Alain
Partenariats PreMellyha Bahous - T
Régie publicitaicyril.monod@rev
Promotion et aboctobre, décembreAurélie Bazot - TélPrix de l’abonnemFrance & UE : 120Tarif spécial adhérVente au numéro : France & UE : 28 � - Etranger : 30 �
Conception & réalisation graphiqueJC. Malaterre - Tél. : 01 7946 1470
Impression : Jouve - 53100 Mayenne.Siège social : 11 Bd de Sébastopol - 75027 Paris cedex 1Tél. : 01 4476 5440
CPPAP : 1017 G 82069
Copyright : Toute reproduction ou représentation intégrale ou partielle, par quelque procédé que ce soit, des présentes pages publiées faite sans l’autori-sation de l’éditeur, est illicite et constitue une contrefaçon. Toutefois les copiespeuvent être utilisées après autorisation obtenue auprès du CFC - 20 rue des Grands Augustins, 75006 Paris (Tél. : 01 4404 4770) auquel la SEE a donné mandat pour la représenter auprès des utilisateurs (loi du 11 mars 1957, art. 40& 41 et Code Pénal art. 425).
La revue REE est lue par plus de 10 000 ingénieurs et cadres de l’industrie,dirigeants d’entreprises, directeurs des ressources humaines, formateurs...Profitez de ce lectorat ciblé et de qualité pour publier vos annonces (em-plois, stages, manifestations...).
Répertoire des annonceursREE Abonnement 2016 ...................................................................... C 2Schneider Electric ............................................................................. p. 3ERTS 2016 .......................................................................................... p. 5GENERAL CABLE ........................................................................... p. 883EI Abonnement 2016 .................................................................. p. 100REE Archives ................................................................................ p. 110SEE Adhésion 2016 ........................................................................ p. 116CIGRÉ.................................................................................................. C 3Microwave & RF.................................................................................. C4
Prochains Grands DossiersDossier 1 : Le démantèlement des centrales nucléairesDossier 2 : Les avions plus électriques
Une publication de la
Entre science et vie sociétale,
les éléments du futur
�
� ommunication�
�
�
�
Conférences nationales et internationales Journées d’études thématiques Conférences-DébatCongrès internationaux, en partenariat ou non, avec d’autressociétés scientifiques
La SEE contribue à l’organisation ������������������ ���������������� ������������ �������������� ���������� et ses Groupes régionaux
Grades Senior et Émerite SEE Prix : Brillouin-Glavieux, Général Ferrié, André Blanc-Lapierre...Médailles : Ampère, Blondel...
La SEE récompense les contributeurs éminents au progrès des sciences et technologies dans ses domaines
Revue de l’Électricité et de l’Électronique (REE) Revue 3EI Monographies Publications électroniques : SEE Actualités
La SEE favorise le partage du savoir, et contribue aux débats sur des problèmes de société en éditant des revues ����� �������� ��������� ��� ������
La SEE fédère un vaste réseau d’experts universitaires et industriels en faveur des ������������� �������� � �������������
La SEE, société savante française fondée en 1883, forte de 3 000 membres, couvre les secteurs de l’Électricité, de l’Électronique et des Technologies de l’Information et de la Communication. Elle a pour vocation
de favoriser et de promouvoir le progrès dans les do-maines : Énergie, Télécom, Signal, Composants, Auto-matique, Informatique.
SOCIÉTÉ DE L’ÉLECTRICITÉ, DE L’ÉLECTRONIQUE ET DES TECHNOLOGIES DE L’INFORMATION ET DE LA COMMUNICATION
d f i t d
17, rue de l’Amiral Hamelin - 75783 Paris cedex 16 Tél. : 01 56 90 37 09/17 - Fax : 01 56 90 37 19
www.see.asso.fr
r, Marc Leconte
Brenac, Aurélie Bazot - Tél. : 01 5690 3717
sse & Annonces :Tél. : 01 5690 3711
re : FFE - Cyril Monod - Tél. : 01 5336 3787 ue-ree.fr
bonnements : 5 numéros : mars, mai, juillet,e. . : 01 5690 3717 - www.see.asso.fr/ree
ment 2016 :� - Etranger (hors UE) : 140 �
rent SEE : France & UE : 60 � - Etranger : 70 �
6 CLUBS TECHNIQUES� Automatique, Informatique et Systèmes� Ingénierie des Systèmes d’Information et de Co� Électronique� Radar, Sonar et Systèmes Radioélectriques� Électrotechnique� Systèmes électriques
12 GROUPES RÉGIONAUX
La SEE contribue à l’organisat������������������ �������������������� �������������� �et ses Groupes régionaux
r
n
eT
rvu
bel
m0rent SEE : France & UE : 60 g
o
t��
et ses Groupes régionaux
Vous voulez... Vous abonner à la REE ? Acheter un numéro ? Cliquer ICI Ou bien téléphoner au 01 56 90 37 04