Upload
jean-pierre-hauet
View
216
Download
3
Embed Size (px)
DESCRIPTION
Cet aperçu permet aux lecteurs de la REE de découvrir le sommaire et les principaux articles du numéro d’avril 2012 - Pour s'abonner, merci de vous rendre à la dernière page.
Citation preview
Les cyber-attaques Un risque pour nos grandes infrastructures ?
énergie telecommunications signal composants automatique informatique
Nu
mér
o
2
012
editorial Après les bulles,
les dominos… Par Patrick Pailloux
Directeur général de l’ANSSI
entretien avec Dominique Maillard
Président du directoire de RTE
www.see.asso.fr
2
L'articLe invité
ISSN
126
5-65
34
dossiers
Les menaces sur le cyberespace : une réalité Par Philippe Duluc
REE N°2/2012 ◗ 1
C onnaissez-vous les « dominos days » ? Un concours international dans lequel des équipes de différents pays construisent une représen-
tation du monde avec des centaines de milliers de do-minos1 puis les font tous tomber au moyen d’une simple impulsion. Année après année, ces représentations ludi-ques sont de plus en plus esthétiques, de plus en plus complexes. Le dernier record mondial est de près de cinq millions de dominos tombés sur une chiquenaude.
Equipementiers fabricants d’automates industriels et d’appareils biomédicaux, concepteurs de systèmes d’in-formation embarqués pour tout ce qui roule, navigue ou vole, inventeurs de nouveaux usages des technologies de l’information, source d’opérations boursières spectaculai-res et d’imbrication croissante dans notre vie quotidienne, vous nous construisez un monde toujours plus hybride. D’où je l’observe, ce monde ressemble furieusement à celui des « dominos days » ! Un cyberespace interfacé avec le monde matériel, de plus en plus attractif, de plus en plus complexe, mais qui pourrait un jour s’effondrer sur une pichenette bien placée contre quelques-uns des centaines de millions de systèmes d’information qui composent ce monde…
Vous me trouvez un peu pessimiste ? Pas de théorie, des faits. L’agence2 que je dirige traite chaque jour des incidents informatiques — généralement graves, généralement mal-veillants — contre des systèmes d’information de l’État ou de grandes entreprises. Des individus, plus ou moins déterminés, plus ou moins bons techniciens, traversent les défenses informatiques des systèmes d’information — quand elles existent… — et volent ou détruisent tout ce qui fait l’avantage de compétitivité de l’organisme visé.
Jusqu’ici, les attaques visaient essentiellement le contenu des réseaux : vol d’informations confidentielles — don-nées personnelles et bancaires, contrats, stratégies, recherches…—. On restait dans le cyberespace. Mais,
1 Une invention chinoise…2 Agence nationale de la sécurité des systèmes d’information (ANSSI)
depuis deux ans, les cyber-attaquants cherchent à pren-dre le contrôle d’appareils du monde matériel qui sont connectés directement ou indirectement aux systèmes d’information visés : de la signalisation d’un système de transport aux centrifugeuses d’enrichissement d’uranium, des automates bancaires à la distribution d’énergie ou aux drones…
Conficker pour la diffusion massive, Stuxnet ou Duqu pour la précision. Nous voilà prévenus !
Pourtant il ne semble pas que cela inquiète réellement les bâtisseurs de l’immatériel ou leurs clients3. La sécurité est rarement prise en compte dans les systèmes embar-qués ou dans les interfaces d’automates industriels. Les versions livrées des systèmes d’information sont rare-ment mises à jour.
Réveillons-nous. Les premiers dominos de notre monde hybride sont en train de tomber. Il y a urgence. Tant du côté des fournisseurs pour livrer des produits mieux sécurisés et maintenus dans le temps que du côté des clients.
La sécurité des systèmes d’information n’est pas une op-tion. Elle est une des conditions du devenir de nos socié-tés si l’on veut éviter un effet domino qui provoquerait un bond de trente ans en arrière pour nos économies. Lorsque vous concevez vos produits, leurs nouveaux usages, leurs connexions au cyberespace, pensez à la chiquenaude du codeur malveillant !
Patrick Pailloux Directeur général de l’Agence nationale
de la sécurité des systèmes d’information (ANSSI)
3 Au moins jusqu’à ce qu’ils soient eux-mêmes victimes d’une cyber-attaque…
Après les bulles, les dominos…
editorial Patrick Pailloux
2 ◗ REE N°2/2012
sommaireNuméro 2 2012
1 Editorial Après les bulles, les dominos… Par Patrick Pailloux
2 sommairE
5 Flash iNFos CURIE, le supercalculateur de deux pétaflops entre en service
6 Supercalculateur quantique : IBM choisit la supraconductivité
7 Les transistors organiques
9 Robojelly : une méduse robot artificielle
Par Gérard Kantorowicz et Jean-Pierre Hauet
12 a rEtENir Congrès et manifestations
14 ViENt dE paraîtrE La REE vous recommande
16 articlE iNVité Les menaces sur le cyberespace : une réalité Par Philippe Duluc
21 lEs graNds dossiErs Les cyber-attaques,
un risque pour nos grandes infrastructures ? Introduction : Vivre avec le risque Par Jean-Pierre Hauet
23 Cyber-attaques et cyber-défenses : problématique et évolution Par Yves Deswarte et Sébastien Gambs
36 Réseaux et cybercriminalité, l’opérateur au cœur de la bataille Par Pierre Caron
45 La Cyber-sécurité des automatismes et des systèmes de contrôle de procédé. Le standard ISA99 Par Jean-Pierre Hauet
p. 1
p. 21
p. 55
p. 16 p. 89 p. 103
Credit photo couverture : Edelweiss - Fotolia.com. Conceptio,n J.-C .Malaterre
REE N°2/2012 ◗ 3
55 La nouvelle révolution des moteurs électriques Introduction : Des moteurs électriques plus performants Par Jean-Pierre Hauet
57 Moteurs électriques modernes, nouvelles problématiques à maîtriser
Par Daniel Roger & Farid MeiBody-Tabar
67 Les moteurs à aimants permanents Par Régis Giraud
75 Propulsion ferroviaire, solutions actuelles et perspectives Par Benali Boualem et Robert Periot
89 ENtrEtiEN aVEc... Dominique Maillard
Président du directoire de RTE
92 ENsEigNEmENt & rEchErchE Retour sur la création et l’évolution du Groupe
des Ecoles Centrales : un groupe actif Synthèse réalisée par le service communication de l’Ecole Centrale Lille
97 Le classement de Shanghai : une initiative dévoyée ? Par Benoît Legait (ancien directeur de MINES ParisTech)
100 Echos de l’enseignement supérieur Par Bernard Ayrault
102 chroNiQUE Eloge de l’esprit critique ! Par Bernard Ayrault
103 librEs propos Les temps numériques, opportunités et risques Par Michel Feneyrol (ancien directeur du Centre national
des études de télécommunications - CNET)
105 sEE EN dirEct La vie de l'association
VOIR4 FOISPLUS
GRAND
MÊME LIEU, MÊMES DATES
23 |24 |25 OCTOBRE 2012Paris expo Porte de Versailles - Hall 1www.mesuroptovision.com
Pub MEVS 80x265h 11/04/12 16:07 Page1
REE N°2/2012 ◗ 5
FlashInfos
CURIE, le supercalculateur de deux pétaflops entre en serviceLa France s’engage pour la recherche européenne
80 640 cœurs, une puissance de calcul de deux pé-
taflops (2 x 1015 floating-point operations per second). Le
supercalculateur CURIE a détrôné au TGCC (Très Grand
Centre de Calcul) du CEA, une autre vedette, Tera-100.
Avec un pétaflops (9e en novembre 2011 au TOP500 des
supercalculateurs) Tera-100 était déjà le plus puissant
d’Europe. Il reste dédié aux besoins militaires et de si-
mulations de l’arme atomique. L’arrivée de CURIE fournit
un outil de travail aux scientifiques français et européens,
notamment dans les domaines de la climatologie, des
sciences de la vie et de l’astrophysique, dans le cadre de
la politique des Très Grandes Infrastructures de Recher-
che (T.G.I.R.) du ministère de l’Enseignement supérieur
et de la Recherche.
Conçu par Bull et financé par le Genci (Grand équipe-
ment national de calcul intensif), société détenue par l’État
(49 %), le CEA (20 %), le CNRS (20 %), les universités
(10 %), et l’Inria (1 %), CURIE est installé à Bruyères-le-
Châtel (Essonne). Le Genci note que sa puissance (mé-
moire vive : 360 To) se combine avec une capacité de
stockage de 15 Po, « soit l’équivalent de 7 600 ans de
fichiers MP3, à une vitesse de 250 Go/s, 100 000 fois
supérieure à celle d’une connexion ADSL très haut débit »,
selon le communiqué de presse.
Ces performances multiplient les possibilités de modé-
lisation et de simulation numérique des phénomènes les
plus complexes et de problématiques difficiles à maitriser.
Une simulation d’une molécule impliquée dans la ma-
ladie d’Alzheimer a déjà été réalisée en décembre der-
nier avec CURIE, par le Laboratoire de chimie et physique
quantique de Toulouse. La simulation mise en œuvre a
mobilisé la quasi-totalité des cœurs de calcul de CURIE.
La compréhension des processus élémentaires des
systèmes moléculaires complexes du vivant, ouvre de
nouvelles pistes thérapeutiques. D’autres challenges
occuperont CURIE dans les domaines scientifiques ou
industriels, comme la climatologie, l’astrophysique et la
combustion dans les moteurs et turbines : l’évolution du
climat, de l’Univers, la réduction des émissions de gaz à
effet de serre.
Spécifications de CURIE
• 5 040 nœuds B510 bullx. Un nœud : deux processeurs
octo-cœurs Intel® Xeon®, 64 Go, soit 10 080 processeurs
octo-cœurs (80 640 cœurs).
• Xeon® nouvelle génération : micro-architecture 32 nm
d’Intel, dotée de la technologie Intel® Intelligent Power,
qui réduit les coûts énergétiques par rapport au simple
cœur en plaçant automatiquement le processeur et la
mémoire dans l’état électrique le plus faible possible, la
technologie Intel® Turbo Boost modulant les performan-
ces en fonction des besoins.
• Système de fichiers global : 5 Po de disques (100 Go/s de
bande passante), 1 Po de cache.
• Développement logiciel principalement communautaire
(Linux, LUSTRE, SLURM ...).
Et après CURIE, l’ordinateur quantique ?
Le record actuel – 10,51 pétaflops – appartient au K ja-
ponais, consacré premier en novembre 2011 au TOP500,
en détrônant Tianhe-1A, le chinois (186 368 cœurs).
Conçu par Fujitsu, le K comporte 88 128 processeurs
de huit cœurs (soit un total de 705 024 cœurs) et une
puissance de 12 659,89 kW.
La course au nombre toujours plus grand de proces-
seurs se déroule dans l’attente, en particulier, des progrès
de l’ordinateur quantique.
6 ◗ REE N°2/2012
FlashInfos
IBM vient de franchir un pas pour son ordinateur quan-
tique, et le temps de décohérence des qubits le plus long
observé, en utilisant une jonction Josephson supracon-
ductrice dans une cavité microonde (voir l’image) qui a
permis d’atteindre un temps de résistance à la décohé-
rence de 100 microsecondes des qubits, améliorant de
deux à quatre fois les précédents résultats, selon IBM.
La puissance des ordinateurs quantiques reste encore
faible. Une des difficultés est de trouver les algorithmes
permettant de conserver le résultat du calcul à la lecture :
si la mesure de la valeur des qubits brise leur superposi-
tion, on se retrouve dans le cas classique, chaque qubit
ne contenant qu’une valeur bien définie, zéro ou un ! On
perd alors tous les avantages des propriétés quantiques.
Lorsque le temps de décohérence sera suffisamment
long pour un nombre de qubits assez grand, débutera
sans doute une nouvelle ère technologique. ■GK
Supercalculateur quantique : IBM choisit la supraconductivité
Le record des supercalculateurs — 10,51 pétaflops —
est établi par le K japonais, consacré premier en novem-
bre 2011 au TOP500, détrônant le chinois Tianhe-1A,
(186 368 cœurs). Conçu par Fujitsu, il comporte 88 128 pro-
cesseurs de huit cœurs (soit un total de 705 024 cœurs).
Valeurs à comparer au supercalculateur CURIE du CEA
(deux pétaflops - 80 640 cœurs) qui vient d’être reconnu
bon pour le service. Cette course au nombre toujours plus
grand de processeurs se déroule dans l’attente des progrès
de l’ordinateur quantique, entre autres.
IBM qui explore la voie quantique avec la supracon-
ductivité, a annoncé avoir battu avec celle-ci plusieurs
records, dont le temps de décohérence le plus long
observé à ce jour. Une jonction Josephson suspendue
dans une cavité microonde, qualifiée de 3D, a permis
de réaliser un temps de résistance à la décohérence de
100 microsecondes, améliorant, selon IBM, de deux à
quatre fois des résultats anté-
rieurs.
Un autre dispositif IBM supra-
conducteur 2D sur une puce
silicium (image ci-contre d'un
chip supportant trois qubits)
réalise une opération logique
sur deux qubits, dite Control-
led Not (C-Not) qui est l’un
des blocs de base de tout système de calcul quanti-
que.
L’opération présente un taux de réussite de 95 %, en
partie lié au temps de cohérence de dix à cent microse-
condes.
Ces valeurs sont dans la ligne du minimum exigé par de
futures expériences sur les multi-qubits. Elles permettent
d’envisager le passage à une nouvelle étape de dévelop-
pement, en s’attaquant aux problèmes liés à l’intégration.
Sur le plan des principes, on rappelle que les bits d’in-
formation des ordinateurs actuels sont des nombres bi-
naires, qui ne prennent qu’une valeur : (0) ou (1), connue
et mesurable. Un qubit est une superposition probabiliste
de deux états |0 et |1, dans des proportions α et β :
α.|0 + β.|1, formule dans laquelle α et β sont deux nom-
bres complexes tels que : |α|2 + |β|2 = 1.
Il n’est pas possible de connaître α ou β, car une me-
sure lève l’incertitude et conduit, par « effondrement de
la fonction d’onde », soit à zéro soit à un, c’est-à-dire au
binôme (0,1) ou (1,0), ce qui ne donne aucune infor-
mation sur l’état initial (α, β). Il est par contre possible
de transporter l’état quantique d’un qubit sur un autre,
sans toutefois le connaître (c’est ce qu’on appelle la télé-
portation quantique). Deux qubits peuvent être intriqués,
c’est-à-dire être dans un état quantique qui ne peut être
décrit que globalement, sans pouvoir distinguer un état
de l’autre, même s’ils sont spatialement séparés.
La décohérence correspond au passage d’un système
quantique de l’état d’incertitude à l’état observable, ca-
ractéristique de l’état macroscopique. Elle s’explique par
le fait qu’un système n’est jamais totalement isolé mais
interagit avec son environnement (thermiquement no-
tamment) ce qui provoque l’effondrement de la fonction
d’onde et la stabilisation dans un état déterministe.
Dans les ordinateurs quantiques, on utilise le fait qu’un
qubit est composé de deux états : |0 et |1, dans des pro-
portions, α et β, mais que deux qubits intriqués vont être
la superposition de quatre états : α.|00 + β.|01 + γ.|10 + δ.|11, dans des proportions α,
β, γ, δ tels que |α|2 + |β|2 + |γ|2
+ |δ|2 = 1α, β, γ, δ sont des nombres
complexes (correspondant, à un
instant donné, à un ensemble de
huit valeurs réelles) que l’ordina-
teur quantique va pouvoir trans-
former simultanément, tant que © Crédit photo IBM.
REE N°2/2012 ◗ 7
FlashInfos
la décohérence n’est pas intervenue. Ces transformations
se font par des opérateurs particuliers, qui doivent res-
pecter le fait que la somme quadratique des vecteurs
d’état doit rester égale à 1.
Un ensemble de n qubits correspondrait à 2n états
possibles, manipulables simultanément. Des calculs en
parallèle de grande puissance et de grande rapidité donc
sont possibles avec des algorithmes fondés sur des opé-
rateurs appropriés.
Une porte logique de base est précisément le C-Not
qui met en jeu deux qubits, un qubit de contrôle et un
qubit cible. L’ensemble peut être représenté, dans le re-
père orthonormé des états, |00, |01, |10 et |11 par un
vecteur à quatre dimensions.
Si le qubit de contrôle est dans l’état |0, le vecteur
s’écrit
Si le qubit de contrôle est dans l’état |1, il s’écrit
0 0 α β
Si l’on considère l’opérateur C – Not =
on vérifie aisément que cet opérateur laisse inchangé le
second qubit si le premier est dans l’état |0, mais le fait
« flipper » s’il est dans l’état |1. On a en effet :
La théorie des ordinateurs quantiques est très avancée.
Les bases en ont été posées par Richard Feynman. Des al-
gorithmes ont été proposés pour réaliser des calculs com-
binatoires qui seraient hors de portée d’un ordinateur clas-
sique. Mais la difficulté principale réside dans la réalisation
physique d’un ensemble de qubits intriqués présentant un
temps de cohérence suffisamment long. Le système doit
en effet rester totalement isolé du monde extérieur pen-
dant sa phase de calcul (calcul adiabatique) de façon à ne
pas subir d’interférences qui entraîneraient sa décohéren-
ce avant que le calcul ne soit achevé. A la fin de la phase
de calcul, la mesure détruit l’état quantique et donne la
réponse, réputée correcte si l’intrication a été préservée
pendant le calcul, mais en probabilité seulement. La répé-
tition de la même opération par un algorithme approprié
permet de s’assurer de la validité du résultat.
Des ordinateurs quantiques ont déjà été réalisés, mais
leur puissance reste encore faible. La puissance poten-
tielle des ordinateurs quantiques dépend des propriétés
de parallélisme présentes dans l’état d’intrication quan-
tique et la décohérence représente l’obstacle majeur :
le retour vers l’état classique, une perte d’information et
un risque d’erreur dans les calculs. Lorsque le temps de
décohérence sera suffisamment long pour un nombre
de qubits assez grand, débutera une nouvelle époque
technologique.
Une preuve de l’intérêt suscité est fournie par le grand
nombre (environ 180) de présentations dans ce domaine
lors de la récente Conférence 2012 de l’APS (American
Physical Society). Pour IBM un système de calcul quan-
tique devra intimement assembler un système classique
et un système quantique. Des expertises en procédés de
communication et en techniques d’assemblage devraient
permettre de dépasser les niveaux des calculateurs ac-
tuels.
Pour beaucoup, exorciser le démon de la décohérence
quantique tiendrait du miracle. Restons confiants… ■GK et JPH
➔ Pour en savoir plus sur les qubits, lire l’article invité du Dr. Yury
Mukharsky « Les Qubits et le calcul Quantique » paru dans la
REE n°10 de novembre 2004.
Les transistors organiquesL’électronique organique fait appel à des molécules à
base de carbone comme les molécules du monde vivant,
cristaux ou polymères, ayant des propriétés similaires à
celles des semiconducteurs non-organiques par exemple
le silicium : conduction par électrons et trous, et exis-
tence d’une bande de conduction interdite.
La comparaison se fait de la façon suivante :
Semiconducteurs Semiconducteurs organiques
Bande de valence HOMO: Highest Occupied Molecular Orbital
Bande de conduction LUMO: Lowest Unoccupied Molecular Orbital
Bande interdite Bande interdite
α β
0
0
1 0 0 00 1 0 00 0 0 10 0 1 0
α β 0 0
1 0 0 00 1 0 00 0 0 10 0 1 0
0 0 β α
= x et
1 0 0 00 1 0 00 0 0 10 0 1 0
α β 0 0
0 0 α β
= x
16 ◗ REE N°2/2012
L a cyber sécurité est indissociable du cyberes-
pace, cette nouvelle dimension dans laquelle
les entreprises, les institutions publiques et
les gouvernements déploient leurs activités et
créent de la valeur pour leurs clients ou leurs usagers. Elle
n’existait pas il y a 20 ans, elle est aujourd’hui devenue le
support vital d’une grande partie de nos activités humaines.
Internet est né en 1969 (4 nœuds au début du réseau Arpa-
net) et a beaucoup grandi depuis. Le nombre de sites web
publics est passé de quelques milliers dans les années 90 à
plus de 300 millions en 2011. La révolution de la cryptolo-
gie asymétrique (systèmes Diffie-Helmann en 1976 et RSA
en 1977) a ouvert le chemin de la sécurisation de l’Internet
et rendu son développement possible : pour la première
fois, deux personnes qui ne se connaissent pas peuvent
échanger à distance de l’information en toute confidentialité
en recourant, notamment, à des certificats, ce que ne per-
mettait pas jusqu’alors la cryptologie traditionnelle, la cryp-
tologie symétrique. Le cyberespace continue aujourd’hui sa
croissance exponentielle, tout en subissant des transforma-
tions de fond qui accroissent les risques de sécurité pour
ses utilisateurs.
Les transformations du cyberespace
La première d’entre elles est portée par la convergence
Internet : tous les réseaux s’interconnectent en un réseau
IP (Internet Protocol) unique qui relie les machines (années
90), les hommes (années 2000) et les objets (années 2010,
avec le MtoM et l’IPV6). Cette interconnexion galopante n’est
poussée que par les besoins, les usages, et par les coûts.
Elle ouvre des possibilités infinies de propagation de virus
informatiques ou de pénétrations illicites dans les systèmes
d’information. Le cloisonnement physique avait l’avantage de
garantir qu’un pirate présent sur un réseau ne pouvait pas
rebondir sur un autre réseau. Mais le besoin d’interconnexion
a été le plus fort (résumé sous le vocable any-to-any) faisant
disparaître ce cloisonnement physique. Maintenant les seules
barrières sont logicielles avec les limitations et les risques de
piratage que l’on connaît.
Ensuite, le phénomène de consumérisation voit les termi-
naux grand public déborder sur le monde professionnel. Cela
répond souvent à la demande de VIP séduits par les termi-
naux personnels (iPhone par exemple) plus agréables et plus
performants. Ces terminaux n’ont pas forcément intégré des
besoins de sécurité au départ, comme la gestion de flotte
sécurisée ou la protection des données, obligatoires dans
certaines entreprises. En imposant de tels terminaux dans
des flottes d’entreprise, on déroge aux politiques de sécurité
orientées vers la maîtrise et le contrôle : c’est un nouveau
risque de sécurité qu’il faut prendre en compte.
La dépérimétrisation est une autre tendance assez proche
de la précédente : la frontière entre les sphères professionnelle
et personnelle s’estompe. On parle de BYOD (bring your own
device), de télétravail… On utilise un agenda ou un carnet
d’adresses regroupant éléments personnels et professionnels.
Là encore, des questions de sécurité peuvent se poser : qu’est
ce que l’entreprise a le droit de faire en cas de comportement
illicite ou dérogeant aux politiques internes ? Par ailleurs, la
protection des données personnelles peut prendre le pas sur
celle du patrimoine des entreprises, comme on le voit avec
l’évolution des directives européennes dans le domaine des
télécommunications.
Enfin, l’externalisation des données et des traitements de
l’entreprise et la mutualisation des plates-formes de stockage
et de traitement de données, combinées, sont à l’origine du
cloud computing et de ses réductions significatives de coût :
elles posent la question de la localisation des données et
de la résilience de l’architecture. Nous reviendrons sur cette
évolution de l’informatique plus loin.
Quelles menaces sur le cyberespace ?
Le cyberespace dans ses débuts a surtout constitué un
terrain de jeu pour des pirates ludiques ou des amateurs
éclairés qui, soit laissaient accidentellement échapper des
virus informatiques à leur contrôle, soit cherchaient à se faire
reconnaitre ou simplement à s’amuser. Ainsi, celui que l’on
considère comme le premier virus informatique, Elk Cloner,
a été écrit par un américain de 15 ans en 1982 : il se propa-
geait par disquette sur les machines Apple II, un des premiers
micro-ordinateurs apparu en 1977. Mais avec le temps et les
progrès technologiques, les usages ont évolué et le crime
organisé transnational semble avoir pris pied dans ce domai-
Les menaces sur le cyberespace : une réalité
L'articLe invité PhiLiPPe DULUc
REE N°2/2012 ◗ 17
L'articLe invité
ne avec la mise en place de zones de non-droit et de sites
web dissimulés dans le cyberespace, utilisés pour acheter et
vendre des outils de piratage (comme par exemple la loca-
tion d’un botnet de bombardement pour quelques centaines
d’euros la journée), des failles de sécurité encore inconnues
des éditeurs (appelées zero-days), etc. On peut craindre que
demain se vendront sur de tels sites directement des infor-
mations volées aux entreprises et administrations (secrets
industriels ou d’état).
• Des menaces de grande ampleur
Les menaces que rencontrent aujourd’hui les internautes,
les entreprises et les administrations ont évolué en vitesse,
en dangerosité, en complexité et en taille. Voici quelques or-
dres de grandeur :
• le ver informatique Slammer s’est propagé en janvier 2003
dans le monde entier (plus de 75 000 sites ont été in-
fectés) en moins de dix minutes, provoquant, ici et là, la
fermeture de banques, de l’accès à l’Internet, et de réseaux
d’entreprise ;
• certaines attaques combinent des milliers de PC esclaves
(appelés zombies, regroupés en un réseau d’attaque : le
botnet) pour bombarder des cibles ; des attaques de ce
type ont été à l’œuvre contre l’Estonie en 2007 provoquant
la paralysie pendant 12 heures du système de messagerie
du Parlement estonien ; le célèbre botnet Mariposa aurait
compté presque dix millions de PC zombies, ses auteurs
auraient été arrêtés par les polices espagnole et slovène
en 2010 ;
• le piratage du réseau de PlayStation (de Sony) en avril 2011
a entraîné une suspension à l’échelle mondiale de tous les
services de ce réseau ; des millions de données personnel-
les et bancaires ont été volées (plus de 77 millions d’utilisa-
teurs de la console PSP auraient été touchés par l’attaque) ;
le préjudice pour Sony s’élèverait à plusieurs milliards de
dollars et des actions de justice en dédommagement res-
tent en cours.
Les motivations des attaquants varient :
• ils peuvent avoir pour objectif le vol massif de données per-
sonnelles par la voie informatique motivé, principalement,
par des gains financiers ;
• avec des atteintes ciblées à la disponibilité ou l’intégrité de
systèmes comme la défiguration ou la saturation de sites
web ils peuvent avoir une motivation idéologique (cyber-
manifs) ou cupide (chantage) ;
• des cyber-attaques peuvent également viser à endomma-
ger physiquement des installations ;
• enfin, des attaques ciblées et sophistiquées peuvent tenter
de dérober subrepticement de l’information sensible avec
une motivation stratégique ou économique.
• Des menaces ciblées, les APT (advanced persistent threats)
Des attaques ciblées et subreptices ont été détectées,
particulièrement, ces dernières années : c’est un phénomène
récent et inquiétant. On les appelle parfois APT (advanced
persistent threat). On peut supposer qu’elles sont beaucoup
plus nombreuses que les quelques cas répertoriés et révé-
lés à ce jour. En effet, les victimes rechignent à les rendre
publiques, voire même seulement à engager des poursuites
judiciaires, par crainte d’un effet négatif d’image et aussi de
faire connaitre d’éventuelles faiblesses encore exploitables.
Voici quelques exemples d’APT pris dans l’actualité récente
et moins récente.
Il faut citer le cas Moonlight Maze qui, dès 1998, fait réfé-
rence à la découverte par les autorités américaines, non pas
d’une attaque mais d’une exploration minutieuse de réseaux
informatiques américains (ce qu’on appelle du probing -
sondage-) développée pendant deux années. Les enquê-
teurs remontèrent à un serveur russe.
L’une des premières attaques référencées est l’affaire
Titan Rain en 2003, lorsque le gouvernement américain si-
gnala que des systèmes d’information américains furent la
cible d’attaques coordonnées, dont déjà à l’époque, l’origine
était supposée chinoise. En 2005 le directeur du SANS In-
titute rapporta que l’attaque était “most likely the result of
Chinese military hackers attempting to gather information on
U.S. systems.” Les pirates auraient obtenu l’accès à des ordi-
nateurs américains ; il s’agissait probablement de sondages
ou de cartographie des réseaux, étape préalable indispensa-
ble aux attaques.
En 2007, des systèmes d’information gouvernementaux
français ont été victimes de cyber-attaques, comme l’ont été
des services officiels des Etats-Unis et d’Allemagne la même
année, ainsi que l’a indiqué dans un communiqué public,
Francis Delon, le Secrétaire général de la défense nationale :
« Nous avons des indications selon lesquelles nos systèmes
d’information ont été l’objet d’attaques, comme ceux d’autres
pays », « Nous avons la preuve qu’il y a un passage par la
Chine. Mais je suis prudent. Quand je dis Chine, cela ne veut
pas dire gouvernement chinois. Nous n’avons pas non plus
d’indication qu’il s’agit de l’Armée populaire chinoise », a-t-il
précisé. Interrogé sur l’identité et la nature de cibles visées, il
a simplement été confirmé qu’il s’agissait de services d’Etat,
dont le site Internet du ministère de la défense.
Une autre opération de cyber-espionnage en provenance,
semble-t-il, de Chine a été dévoilée en mars 2009 : elle a
conduit à l’infiltration d’ordinateurs privés et de services gou-
vernementaux du monde entier, notamment ceux de parti-
sans du Dalaï-lama. Cette opération appelée Ghostnet a été
étudiée par les chercheurs de l’université de Toronto qui n’ont
pas pu conclure à la responsabilité, ni l’implication du gouver-
REE N°2/2012 ◗ 21
LES GRANDS DOSSIERSIntroduction
Il devient difficile d'écrire sur la cyber-sécurité :
tant de choses ont été dites sur les virus, les vers, les
chevaux de Troie, l'homme du milieu, le phishing,
le snarfing, le spoofing. Pourtant la menace existe
et la cyber-sécurité est plus qu'un beau sujet de
conférence : c'est un risque avec lequel il faut
désormais apprendre à vivre ; un risque qui n'est
pas aujourd'hui contenu : l'article d'Yves Deswar-
te et Sébastien Gambs constitue une véritable
taxinomie de toutes les espèces d'attaques qui
sont aujourd'hui recensées et qui deviennent de
plus en plus sophistiquées et pernicieuses. Le
temps est bien fini où les étudiants passionnés par les tra-
vaux d'Adi Shamir s'entraînaient à craquer le chiffrement Wep
des premiers Wi-Fi sur le parking des supermarchés. Les atta-
ques ont pris une autre ampleur, elles sont le fait de spécialis-
tes organisés, sponsorisés par des organisations maffieuses
ou terroristes, voire par des gouvernements et les références
à la Chine, à la Russie, aux USA,
à Israël, etc. reviennent souvent
dans les coupures de presse.
L'épisode de l'attaque Stuxnet
dirigé contre les centrifugeuses
de l’usine d’enrichissement d’ura-
nium de Natanz en Iran a montré
que les systèmes de contrôle-
commande de procédé n'étaient
plus à l'abri des attaques et que
celles-ci pouvaient atteindre un
degré de sophistication inimaginable il y a quelques années.
La contamination par les maliciels peut se faire de façon
subreptice, être masquée par de faux certificats, revêtir des
périodes d'incubation très longues, se développer sur des
cibles choisies mais infectant cependant des dizaines de mil-
liers de porteurs sains.
La comparaison avec les plus redoutables des pandémies
se fait chaque jour plus réaliste.
Stuxnet est venu mettre un terme à un mythe qui avait la
vie dure : celui de « l'air gap », c’est-à-dire de la protection par
l'isolement. Aucun système de traitement de l'information ne
peut prétendre être durablement isolé du monde extérieur.
Survient toujours un moment où il faut mettre à jour un lo-
giciel, actualiser des paramètres, échanger des informations,
changer des mots de passe, admettre de nou-
veaux opérateurs, etc. Qui plus est, la recherche
de la productivité et de l'efficacité passe nécessai-
rement par une intégration toujours plus poussée
entre les différents niveaux d'une structure et on
connait le succès qu'ont rencontré dans l'indus-
trie les notions de MES (Manufacturing Execution
System) et ERP (Enterprise Resource Planning).
Les organisations qui affirment s'être mises à
l'abri des attaques cyber-sécuritaires par un « air
gap », se bercent d'illusion. Elles ont simplement
remplacé les réseaux traditionnels par les réseaux
furtifs que sont les CD Rom, les clés USB, les smartphones,
en attendant mieux, et on sait par expérience qu'un système
fondé sur la seule confiance des personnes est tôt ou tard
voué à être miné par la négligence ou par la corruption.
Bien entendu le fantastique développement de l'Internet
et de la mise en réseau des hommes et des objets, qui est
bien loin d'avoir atteint son apo-
gée, ne fait qu'élargir la menace ;
« Tous ne mourraient pas, mais
tous étaient frappés » pourra-t-
on bientôt dire.
L'article de Pierre Caron ouvri-
ra les yeux de tous ceux qui ne
voient dans les smartphones et
dans les réseaux sociaux que
les avantages d'une ouverture
toujours plus large sur le monde
qui nous entoure. Il ne s'agit pas pour autant d'imaginer que
l'on puisse freiner la progression de l'univers numérique. La
recherche de la productivité et du confort, l'élargissement du
tissu social seront toujours aux avant-postes ; mais il faut ap-
prendre à vivre avec le risque, ce qui implique de connaître les
menaces, d'être conscient de ses vulnérabilités et de prendre
les décisions raisonnables pour ramener le risque à un niveau
acceptable.
Le cas des grandes infrastructures est particulièrement
éloquent. On entend par grandes infrastructures celles qui
rendent un service essentiel à la nation : la production, le
transport et la distribution d'électricité, l'alimentation en eau,
la production et la distribution d'hydrocarbures, le système
bancaire, les services d'urgence, les transports publics, les
La cyber-sécurité des grandes infrastructures.Vivre avec le risque
Jean-Pierre HauetAssociate Partner KB IntelligenceMembre Emérite
de la SEE
22 ◗ REE N°2/2012
LES GRANDS DOSSIERS Introduction
services gouvernementaux régaliens, les télécommunications.
Tous utilisent les technologies de l'information pour leur ges-
tion mais aussi pour leur fonctionnement. Ce sont donc des
cibles de premier choix pour la cybercriminalité. Tout d'abord
parce que l'interruption de leur fonctionnement crée en soi un
préjudice notable qui pourrait prendre des proportions vertigi-
neuses : imaginons un instant un centre de contrôle ferroviaire
pris en mains par des terroristes et précipitant deux TGV l'un
sur l'autre. Egalement parce que, curieusement, leur nombre
a tendance à augmenter : on voit par exemple poindre des
flottes de véhicules électriques dont le fonctionnement tech-
nique et financier pourrait être gravement perturbé par des
cyber-attaques. Enfin et surtout parce qu’elles sont de plus en
plus interdépendantes les unes des autres. Il y a bien long-
temps que le particulier sait que son chauffage central au fuel
devient inopérant en cas de coupure d'électricité. Mais cette
interdépendance devient la règle générale. Le couplage entre
système d'information et système électrique
est porté aux nues par les thuriféraires des
« smart grids ». Il y a certes des voies de pro-
grès indéniables. Mais un dérèglement grave
sur le système électrique lié à un cyber-in-
cident aurait des répercussions immédiates
sur tous les autres services. De la même fa-
çon, une attaque en déni de service sur les
systèmes de communication pourrait rendre
les services d’urgence impuissants.
Patrick Pailloux évoque à juste titre le
scénario des concours de dominos où des
centaines de milliers de dominos s'effon-
drent sous l'effet d'une simple pichenette.
Les attaques terroristes à double détente,
où une première vague détourne l'attention
cependant qu'une deuxième vague plus
meurtrière se prépare, sont particulière-
ment pernicieuses. Mais tous les scénarios
peuvent être envisagés et s'agissant d'atta-
ques délibérées, ils échappent aux calculs
de probabilités objectives.
Le présent dossier n'a pas l'ambition de tout traiter. Il fau-
dra en particulier revenir sur le cas des réseaux électriques
et des risques inhérents aux systèmes de comptage com-
municants. Le risque n'est pas que l'usager rentre dans le
compteur évolué des informations pernicieuses. Sans doute
ne le pourra-t-il pas. Mais, dès lors que le pouvoir de coupure
sera ouvert par ordre distant, que se passera-t-il si une orga-
nisation criminelle s'infiltre dans le système, détourne les clés
de chiffrement et envoie des ordres fallacieux d'interruption
de service à des millions d'usagers sans que la tension puisse
être rétablie autrement que par une intervention sur place ?
A-t-on également pesé tous les risques de voir les 30 mil-
lions de compteurs devenir des zombies d’un gigantesque
« botnet » ?
Il faut convenir que la France fait preuve d’une assez gran-
de insouciance face à ces problèmes. La création de l'ANSSI
(Agence nationale de la sécurité des systèmes d’informa-
tion) ne date que de juillet 2009, alors
qu'il y a belle lurette, et surtout depuis les
événements du 11 septembre 2011, que
les américains sont sensibilisés au risque
terroriste malgré les excès du syndrome
Y2K. Plusieurs organisations gouvernemen-
tales Nord-américaines – le NIST (National
Institute of Standards and Technology), le
NERC (North American Electric Reliability
Corporation) – ont édicté des règles visant
à se prémunir contre le risque cyber-sé-
curitaire. Mais c'est aujourd'hui l'ISA (In-
ternational Society of Automation) qui, en
liaison étroite avec la CEI, propose le cor-
pus méthodologique le plus complet afin
d'évaluer la vulnérabilité des installations
industrielles au risque de cyber-attaque
et de proposer une démarche rationnelle
permettant de se protéger, en profondeur,
contre des attaques, en adaptant judicieu-
sement le coût de la protection à celui des
risques encourus. ■
Cyber-attaques et cyber-défenses : problématique et évolutionPar Yves Deswarte, Sébastien Gambs ....................................................................................................................................... p. 23Réseaux et cybercriminalité, l’opérateur au cœur de la bataillePar Pierre Caron ............................................................................................................................................................................ p. 36La cyber-sécurité des automatismes et des systèmes de contrôle de procédé. Le standard ISA99Par Jean-Pierre Hauet ..................................................................................................................................................................... p. 45
les articles
Jean-Pierre Hauet est ancien
élève de l’Ecole Polytechnique
et Ingénieur du corps des mines. Il
a occupé différentes positions dans
l’Administration, en particulier celle
de rapporteur général de la Com-
mission de l’Energie du Plan.
Il a dirigé le centre de recherches
de Marcoussis d’Alcatel avant d’être
nommé directeur Produits et Techni-
ques de Cegelec, puis Chief
Technology Officer d’AlsTOM.
Depuis 2003, il est Associate
Partner de KB Intelligence, spécia-
lisé dans les questions d’énergie,
d’automatismes industriels et de
développement durable. Il préside
l’IsA-France, section française de
l’IsA (Instrumentation, systems &
Automation society). Il est membre
Emérite de la sEE et membre du
comité de rédaction de la REE.
REE N°2/2012 ◗ 23
Les cyber-attaques, un risque pour nos grandes infrastructures ?
Yves Deswarte1,2, Sébastien Gambs3
1 CNRS, LAAS, Toulouse, France 2 Université de Toulouse, France 3 Université de Rennes 1 - INRIA/IRISA
IntroductionAujourd’hui, les systèmes informatiques des en-
treprises, des administrations et des particuliers sont
pour la plupart connectés à l’Internet. Ils peuvent ainsi
à moindre coût profiter de moyens de communica-
tion rapides, partager des ressources de traitement
et de stockage de grandes capacités (Cloud Compu-
ting), faciliter les échanges commerciaux et financiers
(e-Commerce, e-Banking), fournir et utiliser de nom-
breux services en ligne (e-Administration, e-Health,
e-Learning, etc.), participer à des communautés vir-
tuelles et à des réseaux sociaux, se divertir et plus
généralement, partager et accéder à l’information,
la connaissance et la culture. Ces différentes utilisa-
tions d’Internet ont bien sûr des exigences de sécu-
rité différentes, mais elles sont toutes sous la menace
d’attaques par des malfaiteurs, même si ceux-ci ne
représentent qu’une infime minorité des utilisateurs
d’Internet. Face à ces cyber-attaques, il faut mettre en
place des cyber-défenses efficaces.
Contrairement à la plupart des formes de crimes
et de délits, les cyber-attaques ne mettent pas physi-
quement en danger ceux qui les perpètrent, puisqu’ils
n’ont pas besoin d’être présents en personne sur le
lieu de leurs attaques et qu’ils ne laissent pas de traces
physiques de leurs actions. La dissuasion est donc peu
efficace vis-à-vis d’eux et ils peuvent choisir l’instant de
l’attaque et leur cible sans se soucier de sa localisation,
alors que la défense doit être déployée partout et tout
le temps. Ce combat est donc asymétrique, au même
titre que le terrorisme ou la guérilla [1].
Dans la suite de cet article, on s’intéressera :
• aux attaquants et à leur motivation ;
• aux dégâts que peuvent provoquer les cyber-
attaques ;
• aux moyens utilisés par les attaquants ;
• et enfin aux moyens de défense à mettre en place.
Les attaquants et leurs motivationsAu début des années 70, les premiers pirates mo-
dernes ne s’attaquaient pas aux réseaux informatiques
(encore balbutiants à l’époque), mais aux systèmes
téléphoniques. Certains de ces pionniers sont vite
devenus célèbres, comme John Draper, plus connu
sous l’alias Captain Crunch, qui a découvert comment
téléphoner gratuitement depuis des cabines télépho-
niques à l’aide d’un sifflet distribué dans des boîtes de
céréales, ou encore Steve Wozniak et Steve Jobs dont
la première création fut une blue box, avatar électroni-
que de ce sifflet, bien avant qu’ils ne fondent la com-
pagnie Apple [2]. Ces premiers phreaks1 ou hackers2,
au sens originel de « bidouilleurs », ont rapidement
formé une communauté underground, qui s’est pro-
gressivement reconvertie au piratage informatique,
1 Obtenu à partir de freaks (monstres, en anglais), en rempla-çant le « f” » par « ph » pour phone, tradition qui se perpétue par exemple dans phishing (cf. la section dédiée aux moyens d’attaques).
2 Littéralement : ceux qui vont au fond des choses à coups de hache.
Cyber-attaques et cyber-défenses : problématique et évolution
The expansion of Internet and the increasing complexity of information systems had lead to the evolution of hacking, from intellectual game to fraudulent money gain. Cyber-attacks for malicious purposes range now from denial-of-service to infor-mation theft or even sabotage. In this paper, we categorize the attackers and their motivations, as well as the damages that such cyber-attacks can cause on the information systems that they target. We also describe the means used to conduct such attacks as well as the possible defences to counter them.
abstract
24 ◗ REE N°2/2012
Les cyber-attaques, un risque pour nos grandes infrastructures ?
Cyber-attaques et cyber-défenses : problématique et évolution
avec ses magazines3, son propre jargon4 et même son propre
alphabet5.
Avec le temps, le terme hacker a ainsi pris le sens moins
sympathique de pirate. Pourtant, beaucoup de ceux qui se
revendiquent de cette communauté agissent simplement
par curiosité et soif d’apprendre, cherchant à découvrir les
limites des matériels et logiciels informatiques, à débusquer
les imperfections de leur conception et éventuellement à ex-
ploiter ces imperfections pour détourner le système de son
usage prévu à l’origine. Par simple jeu ou par méconnais-
sance des conséquences, ils peuvent parfois provoquer des
dégâts importants6, le plus souvent involontairement. Pour la
plupart, ils souhaitent qu’on reconnaisse leur valeur et attirent
l’attention de leurs pairs par la diffusion plus ou moins publi-
que de leurs exploits, ce qui permet à des pirates débutants
(script-kiddies) de se faire la main en rejouant les mêmes
attaques7.
Avec le temps, cet esprit de jeu, de curiosité ou de com-
pétition intellectuelle a laissé la place à d’autres motivations
chez la majorité des attaquants. Sans surprise, le vandalisme
3 2600, The Hacker Quaterly <http://www.2600.com> en est l’héri-tier direct. 2 600 Hertz est la fréquence émise par le sifflet de Cap’n Crunch.
4 <http://elite-hackers.com/files/textfiles/hackdict.txt>5 <http://en.wikipedia.org/wiki/Leet>6 <http://www.theregister.co.uk/2008/01/11/tram_hack/>7 Exemple de script-kiddie : <http://fr.wikipedia.org/wiki/Michael_Calce>
est une évolution presque naturelle dans la mentalité des
hackers en mal de reconnaissance : « puisqu’on ne me prend
pas au sérieux, je vais leur montrer ce que je peux faire ».
Cela peut être des représailles contre des administrateurs de
système auxquels on aura « gentiment » signalé des vulnéra-
bilités et qui n’auraient apparemment pas réagi. Il peut aussi
s’agir d’une vengeance contre un ancien employeur [3, 4,
5], ou simplement d’une attaque spectaculaire pour attirer
l’attention des médias sur ses capacités de nuisance8. Mais
aujourd’hui, la principale motivation des cyber-attaquants est
l’appât du gain : accès frauduleux à des comptes bancaires en
ligne, usurpation de cartes de crédit, chantage au blocage de
sites ou au sabotage, escroquerie, diffusion de fausses infor-
mations pour influencer les cours en bourse, tous les moyens
sont bons pour les cyber-délinquants isolés comme pour les
organisations criminelles. Le marché noir des boîtes à outils
facilitant le piratage de comptes en banque est d’ailleurs flo-
rissant sur Internet (ZeuS, SpyEye, IceIX, Citadel, …).
La politique, l’idéologie ou le fanatisme sont aussi des mo-
tivations fortes, pouvant conduire à l’hacktivisme (avec dès le
début des années 80 le Chaos Computer Club et aujourd’hui
Wikileaks, les Anonymous ou LulzSec) et éventuellement au
cyber-terrorisme, voire à la cyber-guerre. Il est à noter que
selon une étude de Verizon [6] portant sur l’année 2011, la
8 <ht tp://www.wired.com/epicenter/2009/08/twit ter-apparently-down/>
Figure 1 : Sifflet Cap’n Crunch (1965).
REE N°2/2012 ◗ 55
LES GRANDS DOSSIERSIntroduction
Le moteur électrique est né il y a près de deux
cents ans et beaucoup ont en mémoire l'expé-
rience de la roue de Barlow (1822) répétée des
centaines de milliers de fois dans les lycées et
collèges. Le XIXe siècle a vu se succéder une ky-
rielle d'innovations technologiques touchant aux
machines électriques ; la plus importante est
sans doute l'arrivée des moteurs asynchrones
dont la paternité, contestée il est vrai, est souvent
attribuée à Nicolas Tesla (1887). Tout à la fin du
siècle la voiture électrique, la Jamais contente,
dotée des accumulateurs au plomb inventés par
Gaston Planté en 1859, franchissait en 1899 la barre des
100 km/h. Le moteur électrique est donc une technologie
éprouvée et voilà des décennies qu'il occupe une place de
premier plan dans les usages domestiques, industriels ou ter-
tiaires, étant directement associé à la pénétration de l'élec-
tricté dans tous ces secteurs.
Pourtant l'amélioration des performances des moteurs
électriques reste plus que jamais une préoccupation de pre-
mier plan. Cette évolution résulte de la concommittance de
nouveaux besoins et de nouvelles percées technologiques.
Les nouveaux besoins, ce sont en premier lieu ceux nés
de la recherche d'une utilisation plus rationelle de l'énergie
face à des prix de l'énergie allant en croissant. Selon l'ADEME
(Agence de l’Environnement et de la Maîtrise de l’Energie),
les moteurs électriques représentent aujourd'hui 72 % de la
consommation d'électricité dans l'industrie en France et 69 %
en Europe. Le coût d'investisssement du moteur électrique ne
représenterait que 2,5 % du coût total de possession rapporté
à sa vie entière alors que la consommation d'électricité en re-
présenterait 96 %. Sur les 90 TWh consommés en France par
ces moteurs, le gisement d'économie d'énergie représenterait
10 à 15 TWh. En Europe, il atteindrait 139 TWh en 2020. L'en-
jeu est donc considérable et a conduit la Commission euro-
péenne à faire adopter une directive imposant, depuis le 16
juin 2011, le marquage des moteurs et le respect, a minima,
du niveau de performances IE2 (rendement niveau Haut au
sens de la norme CEI 60034-30), pour les moteurs mis sur le
marché. Le niveau IE3 devra quant à lui être atteint en 2015 et
les discussions sur un niveau IE4 sont lancées.
Plus généralement, la notion d'écoconception, c’est-à-dire
l'intégration des caractéristiques environnementales dans
la conception du produit en vue d'améliorer sa
performance environnementale du tout au long
de son cycle de vie, s'est progressivement impo-
sée et conduit à des prescriptions multicritères
quant aux caractéristiques et aux performances
environnementales des moteurs.
D'autres besoins sont également montés en
première ligne : on citera tout particulièrement
l'amélioration de la puissance massique et la
recherche d'une plus grande compacité qui est
primordiale dans toutes les applications embar-
quées, véhicules de transport en commun ou
véhicules individuels électriques. Ceci conduit à privilégier les
moteurs à très haute vitesse de rotation mais, pour d'autres
applications, ce sont des machines lentes à fort couple qui
resteront recherchées. Dans d'autres domaines, les questions
de bruit, de vibrations, d'aspect visuel seront essentielles.
Pour les applications professionnelles, les critères de ro-
bustesse, face à des environnements parfois sévères, seront
primordiaux. Ils se déclinent en fiabilité, maintenabilité, dispo-
nibilité, durée de vie.
Les questions de prix de revient restent évidemment fon-
damentales ; pour les produits grand public, cette notion se
réume trop souvent au prix d'achat. Mais l'utilisateur profes-
sionnel sera davantage sensible au coût total de possession.
Face à des besoins de plus en plus exigeants, la techno-
logie a ouvert au cours des dernières années de nouvelles
voies de progrès, au point que l'on peut parler de « nouvelle
révolution des moteurs électriques » qui est le titre du pré-
sent dossier. L'article de Daniel Roger et Farid Meibody-Tabar
montre comment il peut être répondu aux problématiques
nouvelles des moteurs électriques grâce à ces progrès.
La révolution ne concerne pas seulement le moteur élec-
trique mais l'ensemble de la chaîne de traction incluant le
transformateur, le convertisseur et le moteur, auxquels peut
venir s'ajouter un dispositif de stockage. Dans cet ensemble,
deux percées se dégagent :
• les progrès réalisés sur l'électronique de puissance utilisée
dans les convertisseurs électroniques servant à l'alimenta-
tion des moteurs et sur les architectures de ces conver-
tisseurs. Les solutions à IGBT ont permis de réaliser des
avancées considérables dans le domaine des moteurs à
vitesse variable. L'arrivée de nouveaux composants à base
Des moteurs électriques toujours plus performants
Jean-Pierre HauetAssociate Partner KB IntelligenceMembre Emérite
de la SEE
56 ◗ REE N°2/2012
LES GRANDS DOSSIERS Introduction
de carbure de silicium (SiC) permettra de fabriquer des
commutateurs électroniques encore plus rapides, rendant
accessibles les très hautes vitesses de rotation, au prix il est
vrai de difficultés à résoudre sur la tenue des isolants et sur
la conception des paliers ;
• le développement des moteurs à aimants permanents.
Les aimants permanents à base de néodyme, fer et bore
crééent des champs magnétiques d'une
intensité impressionnante au point que
leur manipulation lors de leur assemblage
doit être entourée de solides précautions.
Ils permettent, et c'est l'objet de l'article
de Régis Giraud, d'améliorer fortement
la compacité des moteurs, de réduire les
pertes magnétiques et d'accroître le ren-
dement de deux à neuf points par rapport
à des moteurs asynchrones IE2.
La machine électrique, dont le fonction-
nement repose sur des lois connues, élec-
tromagnétiques et thermiques, se prête en
outre remarquablement bien à une appro-
che de modélisation numérique et d'optimi-
sation. C'est un exemple d'application des
sciences où l'association entre une connais-
sance intime des phénomènes et une
maîtrise de moyens de calcul importants,
permet, grâce à des modèles, d'optimiser
la conception des moteurs et des convertis-
seurs, afin de mettre en évidence des pro-
grès, parfois minimes mais qui se répèteront à l'identique des
millions de fois. C'est une démonstration, pour nos étudiants,
de l'utilité d'une culture scientifique poussée.
L'article de Robert Périot et Benali Boualem montre com-
ment, autour d'une application très exigeante qui est celle
des transports en commun, un industriel peut mettre en œu-
vre les solutions qui s'offrent à lui pour réaliser une solution
compétitive au meilleur niveau de l'état de
l'art. C'est un exemple frappant de l'utilité
de la recherche-développement et de l'in-
novation pour maintenir sur notre territoire
des activités industrielles à haute valeur
ajoutée.
Mais les trois articles montrent que
rien n'est jamais acquis, que de nouvelles
voies de progrès restent à explorer, dans le
domaine des matériaux (aimants perma-
nents, semi-conducteurs, isolants), dans
celui des composants et des architectures
électroniques, dans celui de la conception
des moteurs (les moteurs-roues pourraient
constituer une rupture technologique dans le
domaine de la propulsion électrique), dans
celui du stockage de l'énergie incorporé à la
chaine électrique ou hybride, etc. Nul doute
que le moteur électrique saura s'adapter aux
exigences toujours plus variées des applica-
tions de plus en plus larges qu'implique la
pénétration accrue de l'électricité. ■
Moteurs électriques modernes, nouvelles problématiques à maîtriserPar Daniel Roger, Farid MeiBody-Tabar ................................................................................................................................. p. 57Les moteurs à aimants permanentsPar Régis Giraud ............................................................................................................................................................................. p. 67Propulsion ferroviaire, solutions actuelles et perspectivesPar Benali Boualem, Robert Periot ......................................................................................................................................... p. 75
les articles
Jean-Pierre Hauet est ancien
élève de l’Ecole Polytechnique
et Ingénieur du corps des mines.
Il a occupé différentes positions
dans l’Administration, en particulier
celle de rapporteur général de la
Commission de l’Energie du Plan.
Il a dirigé le centre de recherches
de Marcoussis d’Alcatel avant d’être
nommé directeur Produits et Techni-
ques de Cegelec, puis Chief
Technology Officer d’AlsTOM.
Depuis 2003, il est Associate
Partner de KB Intelligence, spécia-
lisé dans les questions d’énergie,
d’automatismes industriels et de
développement durable. Il préside
l’IsA-France, section française de
l’IsA (Instrumentation, systems &
Automation society). Il est membre
Emérite de la sEE et membre du
comité de rédaction de la REE.
REE N°2/2012 ◗ 57
La nouveLLe révoLution des moteurs éLectriques
Daniel Roger1,2, Farid MeiBody-Tabar3 1Univ. Lille Nord de France, Lille 2UArtois, LSEE Bethune 3 Univ. de Lorraine, GREEN, Nancy
Introduction Presque toutes les machines électriques utilisent
le même principe physique basé sur les variations de
l’énergie magnétique stockée dans l’entrefer séparant
le stator du rotor. Une explication générale assez sim-
ple permet de comprendre les limites des machines
actuelles et les améliorations possibles. L’énergie
magnétique stockée dans la machine dépend d’une
manière générale de l’ensemble des courants dans
les différentes bobines, de la position du rotor et des
matériaux utilisés au rotor et au stator ainsi que leurs
formes et dimensions géométriques. Le couple résul-
tant des forces appliquées sur le rotor correspond à la
dérivée de la coénergie1 par rapport à la position du
rotor à courants fixés dans les bobines. La théorie des
machines électriques montre que les deux paramè-
tres critiques pour dimensionner une machine sont
l’induction maximale (B) dans l’entrefer, limitée par
la saturation des matériaux magnétiques et la densité
de courant maximale qu’il est possible de faire passer
dans les conducteurs, limitée par la température maxi-
male autorisée selon le mode de refroidissement.
Le principe physique exposé est valable pour la
plupart des machines. Il existe deux exceptions nota-
bles : les machines électrostatiques et les machines
piézo-électriques. Les premières utilisent le champ
électrique à la place du champ magnétique comme
grandeur de stockage de l’énergie dans une zone
équivalente à l’entrefer [1] ; les secondes sont ba-
sées sur des propriétés mécaniques spécifiques que
possèdent certaines céramiques qu’il convient d’ali-
menter correctement pour leur imposer des champs
électriques adaptés [2]. Ces machines correspondent
à un nombre limité d’applications et pour des puissan-
ces très faibles dans une gamme allant de quelques
microwatts à quelques centaines de milliwatts.
L’alimentation par des convertisseurs statiques des
machines électriques modernes donne de nouveaux
degrés de liberté autorisant un choix plus vaste parmi
les structures classiques (machines synchrones et
asynchrones) et aussi moins classiques (machines à
réluctance variable, excitée ou non excitée). Ces de-
grés de liberté peuvent être aussi utilisés pour op-
timiser, en termes de coût et/ou de performances,
l’ensemble de la chaîne de conversion électromécani-
que d’énergie, allant de la source électrique à la char-
Moteurs électriques modernes, nouvelles problématiques à maîtriser
Electrical machines exist in our everyday live for more than a century, they have long been designed as motors or generators operating at constant speed in a relatively standardized environment: the mechanical systems had to adapt to the electrical machines. Nowadays, the scope has expanded significantly; electric motors associated converters are increasingly integrated in various mechanical systems.The paper describes the issues of modern electrical machine design by showing the potential improvements in various areas: high speeds, high torques, high temperatures and the necessary adaptation to the new constraints imposed by power conver-ters. For designing these new machines it is necessary to develop numerical tools that can better describe the complex physical phenomena and to adopt more environmentally friendly design approaches.
abstract
1 La coénergie est définie par ; et sont l’induction et le champ locaux en un point dans
un élément de volume dv de la machine ; ils dépendent naturellement de tous les courants dans les différents circuits de la machine et de la position du rt de rotor par rapport au stator (θ). Elle permet de calculer le couple généré par la machine
58 ◗ REE N°2/2012
La nouveLLe révoLution des moteurs éLectriques
Moteurs électriques modernes, nouvelles problématiques à maîtriser
ge mécanique tout en intégrant les contraintes spécifiques
imposées par chaque application.
Pour accroître la compacité des machines électriques, on
peut augmenter le nombre des paires de pôles ou accroître
leur vitesse en les associant à des réducteurs de rapports
élevés. Dans les deux cas, la fréquence des courants impo-
sés par les convertisseurs statiques alimentant la machine
augmente, ce qui entraîne aussi l’augmentation de la fré-
quence de découpage de leurs composants et donc leurs
pertes par commutation. La solution pour réduire ces pertes
est d’accroître la vitesse de commutation des composants,
mais cela conduit à des valeurs élevées de dV/dt imposées
aux bobinages de la machine, entraînant ainsi des contrain-
tes électriques supplémentaires et de nouveaux problèmes
liés à l’augmentation des courants de mode commun. Même
si lors de l’optimisation des machines électriques les prin-
cipales contraintes demeurent magnétiques, thermiques et
mécaniques, de nouvelles contraintes de nature électrique,
liées à l’alimentation par électronique de puissance s’impo-
sent aux machines électriques modernes.
Vers les hautes vitesses Pour obtenir des puissances massiques importantes, les
lois de la physique plaident en faveur des machines électri-
ques tournantes rapides. En effet, pour une géométrie don-
née, la densité de courant maximale dans les conducteurs,
l’induction maximale dans l’entrefer et la surface où le stator
et le rotor sont en regard l’un de l’autre déterminent la va-
leur du couple électromagnétique. Toutes choses égales par
ailleurs, la puissance mécanique est donc proportionnelle à
la vitesse de rotation, donc à la fréquence d’alimentation.
Depuis une trentaine d’années, la limite en vitesse impo-
sée par la fréquence du réseau est repoussée par l’utilisation
de convertisseurs électroniques ; en conséquence, le champ
d’application est étendu à des vitesses et des puissances plus
élevées. Utilisées en moteurs, ces machines sont au cœur
des compresseurs très compacts [3] qui peuvent être utilisés
pour comprimer le gaz de ville et dans bien d’autres applica-
tions. Utilisées en génératrices, elles permettent de faire des
sources d’énergie électrique compactes qui utilisent du gaz
comme énergie primaire.
Pour des applications plus classiques où la partie méca-
nique requiert des vitesses plus basses, la qualité croissante
des réducteurs mécaniques permet d’envisager plus systé-
matiquement l’association d’un moteur rapide et d’un réduc-
teur pour diminuer de façon significative le volume de cet
ensemble par rapport aux solutions plus classiques. Cette so-
lution est particulièrement intéressante pour les actionneurs
utilisés dans les systèmes embarqués (voitures électriques,
avions plus électriques, ...). Il existe actuellement des machi-
nes électriques qui dépassent les 50 000 tr/min, avec des
guidages en rotation par roulements. Des vitesses plus éle-
vées sont possibles mais elles requièrent des paliers à air ou
des paliers magnétiques qui suppriment les contacts directs.
Ces solutions permettent de réduire très fortement les pertes
mécaniques, elles ouvrent donc des perspectives intéressan-
tes de montée en vitesse et en puissance massique tout en
améliorant la fiabilité et la durée de vie.
Les limites mécaniques étant repoussées, les problèmes
liés à la conception des circuits magnétiques capables de
travailler à des fréquences élevées remontent au premier
plan. En effet, les courants induits dans les tôles magnéti-
ques s’opposent au champ magnétique principal comme le
montre la figure 1 qui représente la coupe transversale d’une
petite portion du circuit magnétique. Sur cette figure, l’induc-
tion magnétique B est perpendiculaire au plan de coupe, les
lignes de courant, tangentes en tout point au vecteur J re-
présentant la densité de courants induits, sont schématisées
par les pointillés. Les courants induits ont pour effet de créer
un champ qui s’oppose au champ d’origine ce qui a pour
conséquence de concentrer le champ magnétique résultant
dans une épaisseur réduite, appelée épaisseur de peau sous
la surface de chaque tôle.
Lorsque le matériau est supposé linéaire et isotrope, il est
possible d’évaluer l’épaisseur de peau δ en fonction de la
perméabilité relative de la tôle µ, de la perméabilité du vide
, de la conductivité électrique σ (S/m) des
tôles et la fréquence ω = 2 πf par la formule :
Pour réaliser les circuits magnétiques des machines rapi-
des qui fonctionnent à des fréquences élevées, il faut donc
choisir des tôles magnétiques très fines ; leur perméabilité
magnétique ne doit pas être trop élevée et la conductivité
électrique doit être aussi faible que possible pour que l’épais-
seur de peau δ reste significative par rapport à la moitié de
l’épaisseur de chaque tôle. L’ajout de silicium dans le fer di-
Figure 1 : Courants induits dans les tôles magnétiques et effet de peau.
REE N°2/2012 ◗ 89
Président du Directoire de RTEentretien avec dominique maillard
REE : L’hiver 2011-2012 a été rude,
le record de puissance appelée sur
le réseau a été battu à plusieurs re-
prises. Dans ce contexte, le système
électrique semble avoir bien résisté
mais, à plusieurs reprises, on a eu
l’impression que l’on n’était pas loin
de la rupture. Quel regard portez-vous
sur les mois écoulés et quels ensei-
gnements en tirez-vous ?
D. M. : La France a connu, en effet, dé-
but février 2012 un événement météo-
rologique exceptionnel avec une vague
de froid d’une durée et d’une ampleur
inédites, depuis presque vingt ans. Cette
vague de froid a conduit à des pics de
consommation électrique dépassant
pour la première fois le seuil symbolique
de 100 GW. C’est 30 % de plus qu’il y
a dix ans ! De surcroît, les consomma-
tions ont dépassé la pointe maximale
précédente, datant de l’hiver dernier,
pendant 18 heures sur les trois jours les
plus froids, autour de 19 h 00, mais aussi
entre 8 h 00 et 14 h 00.
Durant cet épisode, le réseau de
transport d’électricité a su faire face et
son maillage a permis de franchir cette
situation sans incident grave. Mais, ne
nous le cachons pas, les prochains hi-
vers seront de plus en plus difficiles, en
cas de vague de froid de cette ampleur,
car la France est de plus en plus « ther-
mosensible » ; 1 °C de moins augmente
la puissance appelée de 2 300 MW
(contre 1 300 MW il y a dix ans). Nos
modes de vie et nos modes de chauf-
fage augmentent la sensibilité de notre
système électrique à ces situations, alors
que d’autres pays sont plus dépendants
du gaz et de son importation, pour leur
économie ou leur chauffage.
C’est un défi collectif que nous de-
vons relever. Comment faire face aux
prochains hivers ? Nous devons être
conscients que les capacités françaises
de production et de transport d’électri-
cité, aussi importantes soient-elles, ne
sont pas suffisantes pour faire face aux
besoins en cas de grand froid exception-
nel. Nos marges sont en effet limitées
et si la bonne disponibilité des ouvrages
était au rendez-vous cet hiver, le sera-t-
elle à nouveau dans des circonstances
analogues, voire plus sévères ?
La combinaison de plusieurs actions
est donc à envisager : la maîtrise de la
consommation de pointe, la mise en
œuvre, sans retard, d’un mécanisme
amenant les différents fournisseurs à
prévoir et à anticiper les capacités de
production ou d’effacement (garantis-
sant la satisfaction des besoins de leurs
clients), et enfin, les renforcements de
nos interconnexions électriques et du
réseau national.
Il s’agit aussi de rappeler à nos conci-
toyens que plus de lignes de transport
d’électricité sont nécessaires pour la sé-
curité d’alimentation et la robustesse du
réseau face aux aléas climatiques.
REE : Les responsables du secteur
électrique mettent souvent en avant
l’atout que constitue le parc nucléaire
français. Pourtant, à plusieurs repri-
ses, il a fallu importer des quantités
importantes d’électricité. N’est-ce pas
le signe que l’on a peut-être trop in-
vesti dans le domaine nucléaire et pas
assez dans les moyens de pointe ?
Quels sont les moyens de production
qui font aujourd’hui défaut ?
D. M. : Il s’agit avant tout de tirer profit de
la complémentarité des profils de produc-
tion et de consommation d’électricité en
Europe. La diversité des choix entre pays
est aujourd’hui un atout collectif pour
l’Europe. Mais il y a une condition : le dé-
veloppement et le renforcement de nos
interconnexions. En effet, l’Europe n’est
pas une « plaque de cuivre » permettant
d’acheminer n’importe quelle production
vers n’importe quel point de consomma-
tion. Aujourd’hui, la France dispose d’une
capacité d’échange avec ses voisins de
l’ordre de 12 GW à l’export et de 9 GW
à l’import. Cela représente, grosso modo,
10 % de la demande de pointe. La France
est dans la moyenne européenne, mais
elle devra dans les prochaines années
accroître ses interconnexions pour béné-
ficier de la « respiration européenne » du
système électrique.
REE : Pendant cet hiver plutôt froid,
diriez-vous que les moyens existants
en électricité d’origine renouvelable
(éolienne notamment) ont été pré-
cieux, peu utiles ou inutiles ?
La production éolienne a contribué,
à son niveau, à assurer l’équilibre entre
offre et demande d’électricité lors de la
vague de froid de début février. Malgré
les conditions anticycloniques qui sé-
vissaient sur l’ensemble de l’Europe, la
production éolienne française a été re-
lativement élevée. Durant cette période,
elle a varié entre 500 MW et 4 500 MW
Nous avons pu faire face à l’hiver dernier
mais les prochains seront de plus en plus difficiles
Le développement et le renforcement
des interconnexions en Europe sont une nécessité
Le réseau électrique a résisté aux grands froids !
90 ◗ REE N°2/2012
et a permis de couvrir en moyenne entre
2 % et 2,5 % de la consommation. Elle
a été particulièrement importante les
trois premiers jours de la vague de froid.
Au mieux, elle a couvert 5 % de cette
dernière et, dans le pire des cas, un peu
moins de 1 %.
REE : Le réseau est-il prêt à faire face
à un retrait éventuel du nucléaire ?
Quelles en seraient, selon vous, les
conséquences ?
D. M. : A la demande du ministre de
l’Energie, RTE a étudié, dans son bilan pré-
visionnel 2011, les conséquences techni-
ques d’un scénario d’érosion significative
du parc nucléaire qui serait de 50 % à
l’horizon 2030 contre 75 % aujourd’hui.
Si techniquement, cela semble pos-
sible, cela serait au prix de la mise en
œuvre de quatre axes complémentaires
assez lourds : une maîtrise de la de-
mande d’énergie renforcée (de l’ordre
de -5 %), un développement soutenu
des énergies renouvelables de l’ordre de
40 GW d’éolien et 25 GW de photovol-
taïque, le développement de nouveaux
moyens de pointes ou d’effacement de
l’ordre de 10 GW, et enfin un renforce-
ment significatif des capacités d’échan-
ges transfrontaliers, avec la création de
nouvelles lignes d’interconnexion ame-
nant au doublement de la capacité ac-
tuelle. Par ailleurs, RTE, dont ce n’est pas
la mission, n’a pas procédé au chiffrage
financier de cette hypothèse.
Enfin, au-delà de l’objectif à attein-
dre en 2030, il faut être conscient que
la localisation des déclassements et le
calendrier de mise en service des nou-
veaux moyens de production aura une
importance majeure sur l’évolution de la
structure du réseau de transport d’élec-
tricité en France.
REE : La coopération européenne
a-t-elle bien fonctionné ? Que fau-
drait-il faire pour, le cas échéant,
l’améliorer ? La position allemande
sur le nucléaire ne va-t-elle pas, tôt ou
tard, poser quelques problèmes, non
seulement en Allemagne mais aussi
dans les pays voisins ?
D. M. : Quelles que soient les orienta-
tions des différents Etats-membres de
l’Union européenne, la coopération entre
les gestionnaires de réseau de transport
européen est nécessaire pour accroître
la sécurité et la performance. J’en prends
pour exemple l’apport de Coreso, le centre
de coordination opérationnelle du Cen-
tre-Ouest européen, créé en 2009 par
cinq gestionnaires de réseau de transport
d’électricité européen : RTE en France,
Elia en Belgique, National Grid en Gran-
de-Bretagne, Terna en Italie et 50Hertz
en Allemagne. Grâce à son organisation
et ses compétences pointues, Coreso
fournit aux GRT, en amont du temps réel,
des analyses de sécurité approfondies.
REE : La Bretagne et la Côte d’Azur
sont des régions réputées vulnéra-
bles. La situation est-elle en voie
de se normaliser ?
D. M. : Nous poursuivons nos program-
mes d’investissement dans ces « pénin-
sules électriques ». Non seulement ces
deux régions produisent peu d’électricité
sur leur territoire, mais en plus elles sont
reliées aux autres par des corridors, ce
qui les rend particulièrement vulnérables
en cas d’aléa. Dans le Var et les Alpes
Maritimes, nous avons doublé la capa-
cité de la seule ligne 400 kV (le long
de la côte). Mais ce renforcement s’ef-
fectuant sur les mêmes pylônes, faute
d’autorisation pour construire une autre
ligne, la vulnérabilité ne sera pas com-
plètement résolue. Nous renforcerons
alors le filet de sécurité que constitue le
maillage intérieur, par la construction de
trois liaisons souterraines à 225 kV.
En Bretagne, nous avons créé des
postes et installé des batteries de
condensateurs pour soutenir la tension.
Mais une solution durable viendra aussi
d’un « filet de sécurité » à 225 kV entre
Lorient et Saint-Brieuc ainsi que de nou-
veaux moyens de production. Dans la
région de Brest (à Landivisiau), un projet
d’une centrale à gaz a été lancé par les
pouvoirs publics, pour une mise en ser-
vice en 2017 au plus tard.
Dans ces deux régions, RTE mène en
outre des actions d’incitation à la mai-
trise de la consommation (EcoWatt) qui
ont entraîné, à la pointe, une baisse de
2 % à 3 % en Bretagne et en PACA.
REE : D’une façon plus générale,
où en êtes-vous du plan de sécurisa-
tion des réseaux censé être achevé
en 2017 ? Le financement des inves-
tissements sur le réseau de RTE va-t-il
coûter cher aux consommateurs ?
D. M. : Suite aux tempêtes Lothar et
Martin qui ont traversé la France en
La production éolienne a couvert de 1 à 5 %
de nos besoins
Une réduction de la part du nucléaire est techniquement
possible mais nécessitera des investissements importants
Bretagne et Côte d’Azur restent deux péninsules électriques vulnérables en cas d’aléa.
La maîtrise de la consommation doit supporter
les investissements
92 ◗ REE N°2/2012
enseignement & recherche
Synthèse réalisée par le service communication de l’Ecole Centrale Lille
D e 1829 à 1919, les quatre écoles centrales (Paris, Lyon, Lille et Nantes) se créent et voient déjà leurs premiers succès. A l’époque, seules Paris, à l’origine du nom, et Lyon disposent de cette appellation.
En 1990, les nombreux contacts entamés entre Centrale Paris, Centrale Lyon, l’Ecole Nationale Supérieure de Mécanique de Nantes et l’Institut Industriel du Nord (IDN) conduisent les quatre écoles à signer la charte de l’intergroupe des Ecoles Centrales, définissant les règles de la collaboration de ces écoles. Les objectifs essentiels en sont l’amélioration de la formation et de l’information, ainsi que la promotion du titre unique d’ingénieur, tant en France qu’à l’étranger.
En 2002, un protocole d’accord est signé entre les Ecoles Cen-trales, le ministère de l’Education nationale et les collectivités locales concernant la création de l’école généraliste d’ingénieurs de Marseille (fusion de différentes écoles d’ingénieurs installées à Marseille), ayant vocation à devenir Ecole Centrale de Marseille. C’est en 2006 que ce nom est officialisé.
En 2005, le Groupe des Ecoles Centrales crée l’Ecole Centrale de Pékin, pour contribuer au rayonnement de l’identité centralienne.
Ce groupe se positionne comme une référence mondiale pour la formation d’ingénieurs généralistes, masters et docteurs de haut niveau, acteurs de développement des entreprises. Tout en conser-vant leur personnalité et leur autonomie, les Ecoles Centrales ont choisi de se fédérer au sein du Groupe des Ecoles Centrales. Elles travaillent ainsi à la cohésion de groupe et créent une véritable syner-gie entre les établissements.
Les Ecoles Centrales, des écoles d’ingénieurs généralistes
Les Ecoles Centrales proposent une formation d’ingénieurs gé-néralistes et sont sous tutelle du ministère de l’Enseignement supé-rieur et de la Recherche.
Cette formation d’ingénieurs centraliens se caractérise par un haut niveau d’enseignement scientifique et technique, la sym-biose avec le monde de l’entreprise, une préparation à une car-rière internationale, des travaux avec les laboratoires de recherche et l’opportunité de développement personnel.
Les Ecoles Centrales recrutent principalement sur le concours na-tional Centrale-Supélec après les classes préparatoires aux grandes écoles, mathématiques supérieures et spéciales. Des voies com-plémentaires d’admission existent, notamment une admission sur titre pour les titulaires d’une licence scientifique et technologique (CASTing – www.groupe-ecoles-centrales.com). Enfin, plus de 20 % des promotions sont constituées d’étudiants inscrits dans des universités étrangères partenaires dans le cadre d’accord de double diplôme.
Après avoir intégré une des écoles du groupe, les étudiants suivent deux années de tronc commun avec des enseignements scientifiques, techniques, en sciences humaines et sociales, lan-gues, sport, projets, jeux d’entreprise, travail en équipe… La troi-sième année est conçue comme une véritable professionnalisation et un tremplin vers l’emploi avec un large choix d’options et de filières préparant l’élève-ingénieur à son futur métier au plus proche de ses goûts et ambitions. Grâce au Groupe des Ecoles Centra-les, les élèves-ingénieurs ont la possibilité d’accomplir leur 3e année dans une autre école du groupe qui propose une option différente.
Cette formation permet d’acquérir, en plus des savoirs techni-ques et scientifiques, les concepts et méthodes indispensables à l’exercice de leur métier. Dès la fin du cursus, ces jeunes diplômés créent, conseillent, bâtissent, produisent, organisent, dirigent, in-novent, entreprennent… en lien avec leur environnement profes-sionnel.
« Ce Groupe nous amène à interagir très régulièrement sur les meilleures pratiques pédagogiques pour un ingénieur gé-néraliste qui a vocation à entrer dans le monde économique et industriel privé ou public. Nous échangeons des élèves en dernière année dans le cadre d’options en jouant sur la com-plémentarité, ce qui élargit notre offre. » indique Etienne Craye, directeur de Centrale Lille.
La formation des Ecoles Centrales concourt à développer l’adaptabilité, la créativité et la capacité d’assumer la responsabilité de tous les métiers d’ingénieurs en intégrant l’ensemble des as-pects – technique, économique et humain – d’un projet.
Plus que jamais, les élèves-ingénieurs du Groupe des Ecoles Centrales choisissent et construisent leur projet professionnel grâce à la multitude des parcours possibles, en trois ou quatre ans (dont deux ans possibles à l’international). ■
Retour sur la création et l’évolution du Groupe des Ecoles Centrales : un groupe actif
102 ◗ REE N°1/2012
Les deux ouvrages qui inspirent cette chronique présentent, par-delà des thèmes fort différents, de grandes similitudes : ce sont des
ouvrages de taille modeste, publiés par des éditeurs spécialisés et (trop) peu connus, écrits enfin par des universitaires attachés à la défense et à l’illustration de l’esprit cri-tique, non pas tant pour faire progresser la connaissance, que pour faire régresser l’ignorance et s’attaquer à des idées, fort répandues et souvent parées d’arguments scientifiques, mais très critiquables au plan des faits eux même ou des principes.
Les éditions Quae (www.quae.com) re-groupent les publications de quatre grands établissements scientifiques tournés vers les sciences du vivant (Cemagref, Cirad, Ifremer et Inra) ; les meilleurs spécialistes s’y confrontent aux grandes questions philo-sophiques, épistémologiques, anthropologi-ques, sociologiques ou éthiques en relation avec l’activité scientifique. Ici, Guillaume Lecointre, chercheur et professeur au Mu-séum d’histoire naturelle, aborde pour les critiquer les positions tenues par les créa-tionnistes contemporains : sans aller jusqu’à réclamer, comme les fondamentalistes américains, l’enseignement à parité de la théorie darwinienne de l’évolution et la ver-sion biblique de la Création, les tenants du « dessein intelligent » (intelligent design) et/ou ceux du principe anthropique dans sa version forte affirment se fonder sur des faits scientifiques.
Guillaume Lecointre, qui a tenu pendant une dizaine d’années la chronique scientifi-que de Charlie Hebdo, ne manque évidem-ment pas d’arguments, ni de pugnacité ; il a animé les nombreux débats organisés en 2010-2011 par le groupe Sciences en questions de l’INRA et son ouvrage reprend avec bonheur les questions et réponses auxquelles ces débats ont donné lieu. Ses développements sont toujours solidement charpentés et faciles à lire, même si ici ou là on souhaiterait une présentation plus agréa-ble : le sérieux et la rigueur de la polémique ne souffriraient pas d’une présentation plus agréable et plus aérée.
Le polémiste qu’est G. Lecointre ne s’ar-rête pas à la seule critique des tenants du
« dessein intelligent » : il profite des failles relevées dans des discours marqués par les références scientifiques pour rappeler et préciser les exigences méthodologiques et épistémologiques du métier de chercheur. Il se fait plus pressant vis-à-vis des pouvoirs publics et des politiques afin qu’ils ne cè-dent pas à ceux qui, confondant opinion et vérité scientifique, voudraient infléchir les programmes scolaires ou universitaires.
De leur côté, les éditions book-e-book (www.book-e-book.com) de Sophia Anti-polis sont inséparables du laboratoire de Zé-tétique de l’université de Nice Sophia Anti-polis. La zététique (du grec zêtein, chercher) recouvre historiquement le doute méthodo-logique, comme moyen de la recherche et de l’accès à la connaissance. Depuis la créa-tion par Henri Broch du laboratoire niçois
éponyme, la zététique se présente comme la méthode scientifique d’investigation des phénomènes prétendument paranormaux. Henri Broch a publié une véritable somme sur ces questions (Au cœur de l’extra- ordinaire, éditions book-e-book), après avoir cosigné avec Georges Charpak Devenez sorciers, devenez savants (éditions Odile Jacob 2002, collection poche 2003) ; avant l’ouvrage de Jérôme Bellayer, la collection a critiqué la numérologie, l’effet placébo ou les médecines non conventionnelles.
On attribue depuis longtemps à la Lune bien des vertus. L’illustre Ernest Re-nan aurait même affirmé que les paysans bretons sont tellement bêtes qu’ils croient à l’influence de la lune sur les marées… Si la gravitation et ses conséquences sont désormais peu discutées, beaucoup de nos concitoyens croient à une influence de l’as-tre sélène sur la conception comme sur la naissance ; les « vrais » jardiniers, sensibles à la « théorie biodynamique », consultent le calendrier lunaire avant toute interven-tion. Jérôme Bellayer examine ce que di-sent les observations scientifiques et les analyses statistiques. Ses conclusions sont formelles : la preuve de l’existence d’une quelconque influence n’a pas été apportée et, si tant est qu’elle existe, son intensité a été ramenée à des niveaux tellement fai-bles qu’elle est maintenant à la limite du détectable. Conséquence naturelle de ce verdict, il s’interroge sur les origines et la persistance de croyances, non scientifique-ment fondées.
La science a expliqué les corrélations entre la pleine lune et divers phénomènes incontestables : le blanchiment du linge (la rosée contient de l’eau oxygénée !) et la brûlure des bourgeons (phénomène mé-téorologique expliqué par Arago en 1826 !) Mais corrélation n’est pas causalité et la lune continue à illuminer nos nuits de sa douce lumière et à inspirer les poètes, sans bouleverser nos vies …
Remercions, au pays de Voltaire et des Lumières, ceux qui, éditeurs ou collègues, maintiennent une chandelle dans les ténè-bres et continuent à mettre les sciences en question. ■
B.Ay.
Guillaume Lecointre
Les sciences face aux créationnismes Ré-expliciter le contrat
méthodologique des chercheursEditions Quae - collection « Sciences en questions »
décembre 2011 - 74 p. - 11,50 €
Jérôme Bellayer
Sous l’emprise de la Lune le regard de la science
Editions book-e-book collection « Une chandelle dans les ténèbres »
décembre 2011 - 78 p. - 9,90 €
CHRONIQUE
Eloge de l’esprit critique !
REE N°2/2012 ◗ 105
SEE en direct
Conference > ISWCS2012 The 9th International Symposium on Wireless Communication Systems Date : August 28-31, 2012 - Paris
Wireless communications are at the heart of a new field
characterized by smart and flexible transceiver concepts, the
convergence of systems and technologies, and transition to-
wards all-IP networks and the development of technologies
with a user-centric focus. In this context, the objective of this
ninth International Symposium on Wireless Communication
Systems (ISWCS) is to provide a recognized and dynamic forum
for researchers and engineers from academia and industry to
present and discuss original ideas and contributions in all fields
related to mobile wireless communication systems. The aim of
this symposium is to present novel contributions in the form of
tutorials, panel discussions, keynote speeches, technical papers,
posters and tested implementations.
The conference is supported by le CNAM, IEEE Communica-
tions Society, VTS (Vehicular Technology Society SEE, IEEE Fran-
ce Section, URSI France.
Topics:
• Cooperative communication and relaying
• MIMO commuwnications and space-time processing
• Smart antennas • Cognitive radio and SDR
• Multi-carrier systems, OFDM
• Radio resource management and interference control
• Spread spectrum and UWB • Wireless access techniques
• Antennas and propagation
• Cross-layer air interface • Ad-hoc and mesh networks
• Wireless sensor networks
• Wireless communications testbed development
• Wireless privacy and security
• Physical-layer aspects of cellular networks such as UMTS,
LTE, LTE-Advanced
• Signal processing, including VLSI architectures
• Mobility management and modeling • QoS provisioning
• Wireless network architectures and technologies
• Information and communication theory
• Estimation and detection • Coding and modulation
• Turbo codes, LDPC and iterative decoding
• Innovative services and applications
• Localization techniques
• Network coding
• Spectrum sensing • Vehicular Networks (VANETs)
• Professional and military communications
Contact:
SEE/ISWCS 2012 registration office
17 rue de l’Amiral Hamelin - 75016 Paris
Tel.: +00 33 (0) 1 5690 3702 - Fax: +00 33 (0) 1 5690 3719
Conference > Photonics in Switching 2012Date: September 11-14, 2012 - Ajaccio, Corsica Island
This conference addresses devices, systems, and networks
which drive the design of promising future telecommunication
and computing systems and networks. In 2012, the Photonics
in Switching conference will include a forum called Telecom &
Energy and a symposium on Photonics in Data Centers and
Computing.
Topics:
• Optical switching components & devices
• Optical Switching functions & building blocks
• Optical systems • Optical networking
For more information please contact: PS 2012 Secretariat
c/o SEE - 17 rue de l’Amiral Hamelin - 75016 Paris.
Phone: 00 33 (0)1 56 90 37 02
Email: [email protected]
Web site: www.ps2012.net
Conference > MEA2012 European Conference on More Electric Aircraft Date: November 20-21, 2012 - Bordeaux
http://www.mea2012.eu
The new generation of wide-body aircraft, and the recently de-
monstrated 24h autonomous solar powered proof-of-concept air-
plane, all have in common highly sophisticated electrical power ma-
nagement systems and an increased number of all electric actuators.
Manifestations scientifiques ProchaineMent organisées Par la see
CNAM
Cop
yrigh
t ©Im
age&
son-
Cnam