22
Les cyber-attaques Un risque pour nos grandes infrastructures ? Numéro 2012 EDITORIAL Après les bulles, les dominos… Par Patrick Pailloux Directeur général de l’ANSSI ENTRETIEN AVEC Dominique Maillard Président du directoire de RTE www.see.asso.fr 2 L'ARTICLE INVITÉ ISSN 1265-6534 DOSSIERS Les menaces sur le cyberespace : une réalité Par Philippe Duluc

Aperçu du numéro d'avril 2012 de la revue de l'électricité et de l'électronique

Embed Size (px)

DESCRIPTION

Cet aperçu permet aux lecteurs de la REE de découvrir le sommaire et les principaux articles du numéro d’avril 2012 - Pour s'abonner, merci de vous rendre à la dernière page.

Citation preview

Page 1: Aperçu du numéro d'avril 2012 de la revue de l'électricité et de l'électronique

Les cyber-attaques Un risque pour nos grandes infrastructures ?

énergie telecommunications signal composants automatique informatique

Nu

mér

o

2

012

editorial Après les bulles,

les dominos… Par Patrick Pailloux

Directeur général de l’ANSSI

entretien avec Dominique Maillard

Président du directoire de RTE

www.see.asso.fr

2

L'articLe invité

ISSN

126

5-65

34

dossiers

Les menaces sur le cyberespace : une réalité Par Philippe Duluc

Page 2: Aperçu du numéro d'avril 2012 de la revue de l'électricité et de l'électronique

REE N°2/2012 ◗ 1

C onnaissez-vous les « dominos days » ? Un concours international dans lequel des équipes de différents pays construisent une représen-

tation du monde avec des centaines de milliers de do-minos1 puis les font tous tomber au moyen d’une simple impulsion. Année après année, ces représentations ludi-ques sont de plus en plus esthétiques, de plus en plus complexes. Le dernier record mondial est de près de cinq millions de dominos tombés sur une chiquenaude.

Equipementiers fabricants d’automates industriels et d’appareils biomédicaux, concepteurs de systèmes d’in-formation embarqués pour tout ce qui roule, navigue ou vole, inventeurs de nouveaux usages des technologies de l’information, source d’opérations boursières spectaculai-res et d’imbrication croissante dans notre vie quotidienne, vous nous construisez un monde toujours plus hybride. D’où je l’observe, ce monde ressemble furieusement à celui des « dominos days » ! Un cyberespace interfacé avec le monde matériel, de plus en plus attractif, de plus en plus complexe, mais qui pourrait un jour s’effondrer sur une pichenette bien placée contre quelques-uns des centaines de millions de systèmes d’information qui composent ce monde…

Vous me trouvez un peu pessimiste ? Pas de théorie, des faits. L’agence2 que je dirige traite chaque jour des incidents informatiques — généralement graves, généralement mal-veillants — contre des systèmes d’information de l’État ou de grandes entreprises. Des individus, plus ou moins déterminés, plus ou moins bons techniciens, traversent les défenses informatiques des systèmes d’information — quand elles existent… — et volent ou détruisent tout ce qui fait l’avantage de compétitivité de l’organisme visé.

Jusqu’ici, les attaques visaient essentiellement le contenu des réseaux : vol d’informations confidentielles — don-nées personnelles et bancaires, contrats, stratégies, recherches…—. On restait dans le cyberespace. Mais,

1 Une invention chinoise…2 Agence nationale de la sécurité des systèmes d’information (ANSSI)

depuis deux ans, les cyber-attaquants cherchent à pren-dre le contrôle d’appareils du monde matériel qui sont connectés directement ou indirectement aux systèmes d’information visés : de la signalisation d’un système de transport aux centrifugeuses d’enrichissement d’uranium, des automates bancaires à la distribution d’énergie ou aux drones…

Conficker pour la diffusion massive, Stuxnet ou Duqu pour la précision. Nous voilà prévenus !

Pourtant il ne semble pas que cela inquiète réellement les bâtisseurs de l’immatériel ou leurs clients3. La sécurité est rarement prise en compte dans les systèmes embar-qués ou dans les interfaces d’automates industriels. Les versions livrées des systèmes d’information sont rare-ment mises à jour.

Réveillons-nous. Les premiers dominos de notre monde hybride sont en train de tomber. Il y a urgence. Tant du côté des fournisseurs pour livrer des produits mieux sécurisés et maintenus dans le temps que du côté des clients.

La sécurité des systèmes d’information n’est pas une op-tion. Elle est une des conditions du devenir de nos socié-tés si l’on veut éviter un effet domino qui provoquerait un bond de trente ans en arrière pour nos économies. Lorsque vous concevez vos produits, leurs nouveaux usages, leurs connexions au cyberespace, pensez à la chiquenaude du codeur malveillant !

Patrick Pailloux Directeur général de l’Agence nationale

de la sécurité des systèmes d’information (ANSSI)

3 Au moins jusqu’à ce qu’ils soient eux-mêmes victimes d’une cyber-attaque…

Après les bulles, les dominos…

editorial Patrick Pailloux

Page 3: Aperçu du numéro d'avril 2012 de la revue de l'électricité et de l'électronique

2 ◗ REE N°2/2012

sommaireNuméro 2 2012

1 Editorial Après les bulles, les dominos… Par Patrick Pailloux

2 sommairE

5 Flash iNFos CURIE, le supercalculateur de deux pétaflops entre en service

6 Supercalculateur quantique : IBM choisit la supraconductivité

7 Les transistors organiques

9 Robojelly : une méduse robot artificielle

Par Gérard Kantorowicz et Jean-Pierre Hauet

12 a rEtENir Congrès et manifestations

14 ViENt dE paraîtrE La REE vous recommande

16 articlE iNVité Les menaces sur le cyberespace : une réalité Par Philippe Duluc

21 lEs graNds dossiErs Les cyber-attaques,

un risque pour nos grandes infrastructures ? Introduction : Vivre avec le risque Par Jean-Pierre Hauet

23 Cyber-attaques et cyber-défenses : problématique et évolution Par Yves Deswarte et Sébastien Gambs

36 Réseaux et cybercriminalité, l’opérateur au cœur de la bataille Par Pierre Caron

45 La Cyber-sécurité des automatismes et des systèmes de contrôle de procédé. Le standard ISA99 Par Jean-Pierre Hauet

p. 1

p. 21

p. 55

p. 16 p. 89 p. 103

Credit photo couverture : Edelweiss - Fotolia.com. Conceptio,n J.-C .Malaterre

Page 4: Aperçu du numéro d'avril 2012 de la revue de l'électricité et de l'électronique

REE N°2/2012 ◗ 3

55 La nouvelle révolution des moteurs électriques Introduction : Des moteurs électriques plus performants Par Jean-Pierre Hauet

57 Moteurs électriques modernes, nouvelles problématiques à maîtriser

Par Daniel Roger & Farid MeiBody-Tabar

67 Les moteurs à aimants permanents Par Régis Giraud

75 Propulsion ferroviaire, solutions actuelles et perspectives Par Benali Boualem et Robert Periot

89 ENtrEtiEN aVEc... Dominique Maillard

Président du directoire de RTE

92 ENsEigNEmENt & rEchErchE Retour sur la création et l’évolution du Groupe

des Ecoles Centrales : un groupe actif Synthèse réalisée par le service communication de l’Ecole Centrale Lille

97 Le classement de Shanghai : une initiative dévoyée ? Par Benoît Legait (ancien directeur de MINES ParisTech)

100 Echos de l’enseignement supérieur Par Bernard Ayrault

102 chroNiQUE Eloge de l’esprit critique ! Par Bernard Ayrault

103 librEs propos Les temps numériques, opportunités et risques Par Michel Feneyrol (ancien directeur du Centre national

des études de télécommunications - CNET)

105 sEE EN dirEct La vie de l'association

VOIR4 FOISPLUS

GRAND

MÊME LIEU, MÊMES DATES

23 |24 |25 OCTOBRE 2012Paris expo Porte de Versailles - Hall 1www.mesuroptovision.com

Pub MEVS 80x265h 11/04/12 16:07 Page1

Page 5: Aperçu du numéro d'avril 2012 de la revue de l'électricité et de l'électronique

REE N°2/2012 ◗ 5

FlashInfos

CURIE, le supercalculateur de deux pétaflops entre en serviceLa France s’engage pour la recherche européenne

80 640 cœurs, une puissance de calcul de deux pé-

taflops (2 x 1015 floating-point operations per second). Le

supercalculateur CURIE a détrôné au TGCC (Très Grand

Centre de Calcul) du CEA, une autre vedette, Tera-100.

Avec un pétaflops (9e en novembre 2011 au TOP500 des

supercalculateurs) Tera-100 était déjà le plus puissant

d’Europe. Il reste dédié aux besoins militaires et de si-

mulations de l’arme atomique. L’arrivée de CURIE fournit

un outil de travail aux scientifiques français et européens,

notamment dans les domaines de la climatologie, des

sciences de la vie et de l’astrophysique, dans le cadre de

la politique des Très Grandes Infrastructures de Recher-

che (T.G.I.R.) du ministère de l’Enseignement supérieur

et de la Recherche.

Conçu par Bull et financé par le Genci (Grand équipe-

ment national de calcul intensif), société détenue par l’État

(49 %), le CEA (20 %), le CNRS (20 %), les universités

(10 %), et l’Inria (1 %), CURIE est installé à Bruyères-le-

Châtel (Essonne). Le Genci note que sa puissance (mé-

moire vive : 360 To) se combine avec une capacité de

stockage de 15 Po, « soit l’équivalent de 7 600 ans de

fichiers MP3, à une vitesse de 250 Go/s, 100 000 fois

supérieure à celle d’une connexion ADSL très haut débit »,

selon le communiqué de presse.

Ces performances multiplient les possibilités de modé-

lisation et de simulation numérique des phénomènes les

plus complexes et de problématiques difficiles à maitriser.

Une simulation d’une molécule impliquée dans la ma-

ladie d’Alzheimer a déjà été réalisée en décembre der-

nier avec CURIE, par le Laboratoire de chimie et physique

quantique de Toulouse. La simulation mise en œuvre a

mobilisé la quasi-totalité des cœurs de calcul de CURIE.

La compréhension des processus élémentaires des

systèmes moléculaires complexes du vivant, ouvre de

nouvelles pistes thérapeutiques. D’autres challenges

occuperont CURIE dans les domaines scientifiques ou

industriels, comme la climatologie, l’astrophysique et la

combustion dans les moteurs et turbines : l’évolution du

climat, de l’Univers, la réduction des émissions de gaz à

effet de serre.

Spécifications de CURIE

• 5 040 nœuds B510 bullx. Un nœud : deux processeurs

octo-cœurs Intel® Xeon®, 64 Go, soit 10 080 processeurs

octo-cœurs (80 640 cœurs).

• Xeon® nouvelle génération : micro-architecture 32 nm

d’Intel, dotée de la technologie Intel® Intelligent Power,

qui réduit les coûts énergétiques par rapport au simple

cœur en plaçant automatiquement le processeur et la

mémoire dans l’état électrique le plus faible possible, la

technologie Intel® Turbo Boost modulant les performan-

ces en fonction des besoins.

• Système de fichiers global : 5 Po de disques (100 Go/s de

bande passante), 1 Po de cache.

• Développement logiciel principalement communautaire

(Linux, LUSTRE, SLURM ...).

Et après CURIE, l’ordinateur quantique ?

Le record actuel – 10,51 pétaflops – appartient au K ja-

ponais, consacré premier en novembre 2011 au TOP500,

en détrônant Tianhe-1A, le chinois (186 368 cœurs).

Conçu par Fujitsu, le K comporte 88 128 processeurs

de huit cœurs (soit un total de 705 024 cœurs) et une

puissance de 12 659,89 kW.

La course au nombre toujours plus grand de proces-

seurs se déroule dans l’attente, en particulier, des progrès

de l’ordinateur quantique.

Page 6: Aperçu du numéro d'avril 2012 de la revue de l'électricité et de l'électronique

6 ◗ REE N°2/2012

FlashInfos

IBM vient de franchir un pas pour son ordinateur quan-

tique, et le temps de décohérence des qubits le plus long

observé, en utilisant une jonction Josephson supracon-

ductrice dans une cavité microonde (voir l’image) qui a

permis d’atteindre un temps de résistance à la décohé-

rence de 100 microsecondes des qubits, améliorant de

deux à quatre fois les précédents résultats, selon IBM.

La puissance des ordinateurs quantiques reste encore

faible. Une des difficultés est de trouver les algorithmes

permettant de conserver le résultat du calcul à la lecture :

si la mesure de la valeur des qubits brise leur superposi-

tion, on se retrouve dans le cas classique, chaque qubit

ne contenant qu’une valeur bien définie, zéro ou un ! On

perd alors tous les avantages des propriétés quantiques.

Lorsque le temps de décohérence sera suffisamment

long pour un nombre de qubits assez grand, débutera

sans doute une nouvelle ère technologique. ■GK

Supercalculateur quantique : IBM choisit la supraconductivité

Le record des supercalculateurs — 10,51 pétaflops —

est établi par le K japonais, consacré premier en novem-

bre 2011 au TOP500, détrônant le chinois Tianhe-1A,

(186 368 cœurs). Conçu par Fujitsu, il comporte 88 128 pro-

cesseurs de huit cœurs (soit un total de 705 024 cœurs).

Valeurs à comparer au supercalculateur CURIE du CEA

(deux pétaflops - 80 640 cœurs) qui vient d’être reconnu

bon pour le service. Cette course au nombre toujours plus

grand de processeurs se déroule dans l’attente des progrès

de l’ordinateur quantique, entre autres.

IBM qui explore la voie quantique avec la supracon-

ductivité, a annoncé avoir battu avec celle-ci plusieurs

records, dont le temps de décohérence le plus long

observé à ce jour. Une jonction Josephson suspendue

dans une cavité microonde, qualifiée de 3D, a permis

de réaliser un temps de résistance à la décohérence de

100 microsecondes, améliorant, selon IBM, de deux à

quatre fois des résultats anté-

rieurs.

Un autre dispositif IBM supra-

conducteur 2D sur une puce

silicium (image ci-contre d'un

chip supportant trois qubits)

réalise une opération logique

sur deux qubits, dite Control-

led Not (C-Not) qui est l’un

des blocs de base de tout système de calcul quanti-

que.

L’opération présente un taux de réussite de 95 %, en

partie lié au temps de cohérence de dix à cent microse-

condes.

Ces valeurs sont dans la ligne du minimum exigé par de

futures expériences sur les multi-qubits. Elles permettent

d’envisager le passage à une nouvelle étape de dévelop-

pement, en s’attaquant aux problèmes liés à l’intégration.

Sur le plan des principes, on rappelle que les bits d’in-

formation des ordinateurs actuels sont des nombres bi-

naires, qui ne prennent qu’une valeur : (0) ou (1), connue

et mesurable. Un qubit est une superposition probabiliste

de deux états |0 et |1, dans des proportions α et β :

α.|0 + β.|1, formule dans laquelle α et β sont deux nom-

bres complexes tels que : |α|2 + |β|2 = 1.

Il n’est pas possible de connaître α ou β, car une me-

sure lève l’incertitude et conduit, par « effondrement de

la fonction d’onde », soit à zéro soit à un, c’est-à-dire au

binôme (0,1) ou (1,0), ce qui ne donne aucune infor-

mation sur l’état initial (α, β). Il est par contre possible

de transporter l’état quantique d’un qubit sur un autre,

sans toutefois le connaître (c’est ce qu’on appelle la télé-

portation quantique). Deux qubits peuvent être intriqués,

c’est-à-dire être dans un état quantique qui ne peut être

décrit que globalement, sans pouvoir distinguer un état

de l’autre, même s’ils sont spatialement séparés.

La décohérence correspond au passage d’un système

quantique de l’état d’incertitude à l’état observable, ca-

ractéristique de l’état macroscopique. Elle s’explique par

le fait qu’un système n’est jamais totalement isolé mais

interagit avec son environnement (thermiquement no-

tamment) ce qui provoque l’effondrement de la fonction

d’onde et la stabilisation dans un état déterministe.

Dans les ordinateurs quantiques, on utilise le fait qu’un

qubit est composé de deux états : |0 et |1, dans des pro-

portions, α et β, mais que deux qubits intriqués vont être

la superposition de quatre états : α.|00 + β.|01 + γ.|10 + δ.|11, dans des proportions α,

β, γ, δ tels que |α|2 + |β|2 + |γ|2

+ |δ|2 = 1α, β, γ, δ sont des nombres

complexes (correspondant, à un

instant donné, à un ensemble de

huit valeurs réelles) que l’ordina-

teur quantique va pouvoir trans-

former simultanément, tant que © Crédit photo IBM.

Page 7: Aperçu du numéro d'avril 2012 de la revue de l'électricité et de l'électronique

REE N°2/2012 ◗ 7

FlashInfos

la décohérence n’est pas intervenue. Ces transformations

se font par des opérateurs particuliers, qui doivent res-

pecter le fait que la somme quadratique des vecteurs

d’état doit rester égale à 1.

Un ensemble de n qubits correspondrait à 2n états

possibles, manipulables simultanément. Des calculs en

parallèle de grande puissance et de grande rapidité donc

sont possibles avec des algorithmes fondés sur des opé-

rateurs appropriés.

Une porte logique de base est précisément le C-Not

qui met en jeu deux qubits, un qubit de contrôle et un

qubit cible. L’ensemble peut être représenté, dans le re-

père orthonormé des états, |00, |01, |10 et |11 par un

vecteur à quatre dimensions.

Si le qubit de contrôle est dans l’état |0, le vecteur

s’écrit

Si le qubit de contrôle est dans l’état |1, il s’écrit

0 0 α β

Si l’on considère l’opérateur C – Not =

on vérifie aisément que cet opérateur laisse inchangé le

second qubit si le premier est dans l’état |0, mais le fait

« flipper » s’il est dans l’état |1. On a en effet :

La théorie des ordinateurs quantiques est très avancée.

Les bases en ont été posées par Richard Feynman. Des al-

gorithmes ont été proposés pour réaliser des calculs com-

binatoires qui seraient hors de portée d’un ordinateur clas-

sique. Mais la difficulté principale réside dans la réalisation

physique d’un ensemble de qubits intriqués présentant un

temps de cohérence suffisamment long. Le système doit

en effet rester totalement isolé du monde extérieur pen-

dant sa phase de calcul (calcul adiabatique) de façon à ne

pas subir d’interférences qui entraîneraient sa décohéren-

ce avant que le calcul ne soit achevé. A la fin de la phase

de calcul, la mesure détruit l’état quantique et donne la

réponse, réputée correcte si l’intrication a été préservée

pendant le calcul, mais en probabilité seulement. La répé-

tition de la même opération par un algorithme approprié

permet de s’assurer de la validité du résultat.

Des ordinateurs quantiques ont déjà été réalisés, mais

leur puissance reste encore faible. La puissance poten-

tielle des ordinateurs quantiques dépend des propriétés

de parallélisme présentes dans l’état d’intrication quan-

tique et la décohérence représente l’obstacle majeur :

le retour vers l’état classique, une perte d’information et

un risque d’erreur dans les calculs. Lorsque le temps de

décohérence sera suffisamment long pour un nombre

de qubits assez grand, débutera une nouvelle époque

technologique.

Une preuve de l’intérêt suscité est fournie par le grand

nombre (environ 180) de présentations dans ce domaine

lors de la récente Conférence 2012 de l’APS (American

Physical Society). Pour IBM un système de calcul quan-

tique devra intimement assembler un système classique

et un système quantique. Des expertises en procédés de

communication et en techniques d’assemblage devraient

permettre de dépasser les niveaux des calculateurs ac-

tuels.

Pour beaucoup, exorciser le démon de la décohérence

quantique tiendrait du miracle. Restons confiants… ■GK et JPH

➔ Pour en savoir plus sur les qubits, lire l’article invité du Dr. Yury

Mukharsky « Les Qubits et le calcul Quantique » paru dans la

REE n°10 de novembre 2004.

Les transistors organiquesL’électronique organique fait appel à des molécules à

base de carbone comme les molécules du monde vivant,

cristaux ou polymères, ayant des propriétés similaires à

celles des semiconducteurs non-organiques par exemple

le silicium : conduction par électrons et trous, et exis-

tence d’une bande de conduction interdite.

La comparaison se fait de la façon suivante :

Semiconducteurs Semiconducteurs organiques

Bande de valence HOMO: Highest Occupied Molecular Orbital

Bande de conduction LUMO: Lowest Unoccupied Molecular Orbital

Bande interdite Bande interdite

α β

0

0

1 0 0 00 1 0 00 0 0 10 0 1 0

α β 0 0

1 0 0 00 1 0 00 0 0 10 0 1 0

0 0 β α

= x et

1 0 0 00 1 0 00 0 0 10 0 1 0

α β 0 0

0 0 α β

= x

jphauet
Rectangle
Page 8: Aperçu du numéro d'avril 2012 de la revue de l'électricité et de l'électronique

16 ◗ REE N°2/2012

L a cyber sécurité est indissociable du cyberes-

pace, cette nouvelle dimension dans laquelle

les entreprises, les institutions publiques et

les gouvernements déploient leurs activités et

créent de la valeur pour leurs clients ou leurs usagers. Elle

n’existait pas il y a 20 ans, elle est aujourd’hui devenue le

support vital d’une grande partie de nos activités humaines.

Internet est né en 1969 (4 nœuds au début du réseau Arpa-

net) et a beaucoup grandi depuis. Le nombre de sites web

publics est passé de quelques milliers dans les années 90 à

plus de 300 millions en 2011. La révolution de la cryptolo-

gie asymétrique (systèmes Diffie-Helmann en 1976 et RSA

en 1977) a ouvert le chemin de la sécurisation de l’Internet

et rendu son développement possible : pour la première

fois, deux personnes qui ne se connaissent pas peuvent

échanger à distance de l’information en toute confidentialité

en recourant, notamment, à des certificats, ce que ne per-

mettait pas jusqu’alors la cryptologie traditionnelle, la cryp-

tologie symétrique. Le cyberespace continue aujourd’hui sa

croissance exponentielle, tout en subissant des transforma-

tions de fond qui accroissent les risques de sécurité pour

ses utilisateurs.

Les transformations du cyberespace

La première d’entre elles est portée par la convergence

Internet : tous les réseaux s’interconnectent en un réseau

IP (Internet Protocol) unique qui relie les machines (années

90), les hommes (années 2000) et les objets (années 2010,

avec le MtoM et l’IPV6). Cette interconnexion galopante n’est

poussée que par les besoins, les usages, et par les coûts.

Elle ouvre des possibilités infinies de propagation de virus

informatiques ou de pénétrations illicites dans les systèmes

d’information. Le cloisonnement physique avait l’avantage de

garantir qu’un pirate présent sur un réseau ne pouvait pas

rebondir sur un autre réseau. Mais le besoin d’interconnexion

a été le plus fort (résumé sous le vocable any-to-any) faisant

disparaître ce cloisonnement physique. Maintenant les seules

barrières sont logicielles avec les limitations et les risques de

piratage que l’on connaît.

Ensuite, le phénomène de consumérisation voit les termi-

naux grand public déborder sur le monde professionnel. Cela

répond souvent à la demande de VIP séduits par les termi-

naux personnels (iPhone par exemple) plus agréables et plus

performants. Ces terminaux n’ont pas forcément intégré des

besoins de sécurité au départ, comme la gestion de flotte

sécurisée ou la protection des données, obligatoires dans

certaines entreprises. En imposant de tels terminaux dans

des flottes d’entreprise, on déroge aux politiques de sécurité

orientées vers la maîtrise et le contrôle : c’est un nouveau

risque de sécurité qu’il faut prendre en compte.

La dépérimétrisation est une autre tendance assez proche

de la précédente : la frontière entre les sphères professionnelle

et personnelle s’estompe. On parle de BYOD (bring your own

device), de télétravail… On utilise un agenda ou un carnet

d’adresses regroupant éléments personnels et professionnels.

Là encore, des questions de sécurité peuvent se poser : qu’est

ce que l’entreprise a le droit de faire en cas de comportement

illicite ou dérogeant aux politiques internes ? Par ailleurs, la

protection des données personnelles peut prendre le pas sur

celle du patrimoine des entreprises, comme on le voit avec

l’évolution des directives européennes dans le domaine des

télécommunications.

Enfin, l’externalisation des données et des traitements de

l’entreprise et la mutualisation des plates-formes de stockage

et de traitement de données, combinées, sont à l’origine du

cloud computing et de ses réductions significatives de coût :

elles posent la question de la localisation des données et

de la résilience de l’architecture. Nous reviendrons sur cette

évolution de l’informatique plus loin.

Quelles menaces sur le cyberespace ?

Le cyberespace dans ses débuts a surtout constitué un

terrain de jeu pour des pirates ludiques ou des amateurs

éclairés qui, soit laissaient accidentellement échapper des

virus informatiques à leur contrôle, soit cherchaient à se faire

reconnaitre ou simplement à s’amuser. Ainsi, celui que l’on

considère comme le premier virus informatique, Elk Cloner,

a été écrit par un américain de 15 ans en 1982 : il se propa-

geait par disquette sur les machines Apple II, un des premiers

micro-ordinateurs apparu en 1977. Mais avec le temps et les

progrès technologiques, les usages ont évolué et le crime

organisé transnational semble avoir pris pied dans ce domai-

Les menaces sur le cyberespace : une réalité

L'articLe invité PhiLiPPe DULUc

Page 9: Aperçu du numéro d'avril 2012 de la revue de l'électricité et de l'électronique

REE N°2/2012 ◗ 17

L'articLe invité

ne avec la mise en place de zones de non-droit et de sites

web dissimulés dans le cyberespace, utilisés pour acheter et

vendre des outils de piratage (comme par exemple la loca-

tion d’un botnet de bombardement pour quelques centaines

d’euros la journée), des failles de sécurité encore inconnues

des éditeurs (appelées zero-days), etc. On peut craindre que

demain se vendront sur de tels sites directement des infor-

mations volées aux entreprises et administrations (secrets

industriels ou d’état).

• Des menaces de grande ampleur

Les menaces que rencontrent aujourd’hui les internautes,

les entreprises et les administrations ont évolué en vitesse,

en dangerosité, en complexité et en taille. Voici quelques or-

dres de grandeur :

• le ver informatique Slammer s’est propagé en janvier 2003

dans le monde entier (plus de 75 000 sites ont été in-

fectés) en moins de dix minutes, provoquant, ici et là, la

fermeture de banques, de l’accès à l’Internet, et de réseaux

d’entreprise ;

• certaines attaques combinent des milliers de PC esclaves

(appelés zombies, regroupés en un réseau d’attaque : le

botnet) pour bombarder des cibles ; des attaques de ce

type ont été à l’œuvre contre l’Estonie en 2007 provoquant

la paralysie pendant 12 heures du système de messagerie

du Parlement estonien ; le célèbre botnet Mariposa aurait

compté presque dix millions de PC zombies, ses auteurs

auraient été arrêtés par les polices espagnole et slovène

en 2010 ;

• le piratage du réseau de PlayStation (de Sony) en avril 2011

a entraîné une suspension à l’échelle mondiale de tous les

services de ce réseau ; des millions de données personnel-

les et bancaires ont été volées (plus de 77 millions d’utilisa-

teurs de la console PSP auraient été touchés par l’attaque) ;

le préjudice pour Sony s’élèverait à plusieurs milliards de

dollars et des actions de justice en dédommagement res-

tent en cours.

Les motivations des attaquants varient :

• ils peuvent avoir pour objectif le vol massif de données per-

sonnelles par la voie informatique motivé, principalement,

par des gains financiers ;

• avec des atteintes ciblées à la disponibilité ou l’intégrité de

systèmes comme la défiguration ou la saturation de sites

web ils peuvent avoir une motivation idéologique (cyber-

manifs) ou cupide (chantage) ;

• des cyber-attaques peuvent également viser à endomma-

ger physiquement des installations ;

• enfin, des attaques ciblées et sophistiquées peuvent tenter

de dérober subrepticement de l’information sensible avec

une motivation stratégique ou économique.

• Des menaces ciblées, les APT (advanced persistent threats)

Des attaques ciblées et subreptices ont été détectées,

particulièrement, ces dernières années : c’est un phénomène

récent et inquiétant. On les appelle parfois APT (advanced

persistent threat). On peut supposer qu’elles sont beaucoup

plus nombreuses que les quelques cas répertoriés et révé-

lés à ce jour. En effet, les victimes rechignent à les rendre

publiques, voire même seulement à engager des poursuites

judiciaires, par crainte d’un effet négatif d’image et aussi de

faire connaitre d’éventuelles faiblesses encore exploitables.

Voici quelques exemples d’APT pris dans l’actualité récente

et moins récente.

Il faut citer le cas Moonlight Maze qui, dès 1998, fait réfé-

rence à la découverte par les autorités américaines, non pas

d’une attaque mais d’une exploration minutieuse de réseaux

informatiques américains (ce qu’on appelle du probing -

sondage-) développée pendant deux années. Les enquê-

teurs remontèrent à un serveur russe.

L’une des premières attaques référencées est l’affaire

Titan Rain en 2003, lorsque le gouvernement américain si-

gnala que des systèmes d’information américains furent la

cible d’attaques coordonnées, dont déjà à l’époque, l’origine

était supposée chinoise. En 2005 le directeur du SANS In-

titute rapporta que l’attaque était “most likely the result of

Chinese military hackers attempting to gather information on

U.S. systems.” Les pirates auraient obtenu l’accès à des ordi-

nateurs américains ; il s’agissait probablement de sondages

ou de cartographie des réseaux, étape préalable indispensa-

ble aux attaques.

En 2007, des systèmes d’information gouvernementaux

français ont été victimes de cyber-attaques, comme l’ont été

des services officiels des Etats-Unis et d’Allemagne la même

année, ainsi que l’a indiqué dans un communiqué public,

Francis Delon, le Secrétaire général de la défense nationale :

« Nous avons des indications selon lesquelles nos systèmes

d’information ont été l’objet d’attaques, comme ceux d’autres

pays », « Nous avons la preuve qu’il y a un passage par la

Chine. Mais je suis prudent. Quand je dis Chine, cela ne veut

pas dire gouvernement chinois. Nous n’avons pas non plus

d’indication qu’il s’agit de l’Armée populaire chinoise », a-t-il

précisé. Interrogé sur l’identité et la nature de cibles visées, il

a simplement été confirmé qu’il s’agissait de services d’Etat,

dont le site Internet du ministère de la défense.

Une autre opération de cyber-espionnage en provenance,

semble-t-il, de Chine a été dévoilée en mars 2009 : elle a

conduit à l’infiltration d’ordinateurs privés et de services gou-

vernementaux du monde entier, notamment ceux de parti-

sans du Dalaï-lama. Cette opération appelée Ghostnet a été

étudiée par les chercheurs de l’université de Toronto qui n’ont

pas pu conclure à la responsabilité, ni l’implication du gouver-

jphauet
Rectangle
Page 10: Aperçu du numéro d'avril 2012 de la revue de l'électricité et de l'électronique

REE N°2/2012 ◗ 21

LES GRANDS DOSSIERSIntroduction

Il devient difficile d'écrire sur la cyber-sécurité :

tant de choses ont été dites sur les virus, les vers, les

chevaux de Troie, l'homme du milieu, le phishing,

le snarfing, le spoofing. Pourtant la menace existe

et la cyber-sécurité est plus qu'un beau sujet de

conférence : c'est un risque avec lequel il faut

désormais apprendre à vivre ; un risque qui n'est

pas aujourd'hui contenu : l'article d'Yves Deswar-

te et Sébastien Gambs constitue une véritable

taxinomie de toutes les espèces d'attaques qui

sont aujourd'hui recensées et qui deviennent de

plus en plus sophistiquées et pernicieuses. Le

temps est bien fini où les étudiants passionnés par les tra-

vaux d'Adi Shamir s'entraînaient à craquer le chiffrement Wep

des premiers Wi-Fi sur le parking des supermarchés. Les atta-

ques ont pris une autre ampleur, elles sont le fait de spécialis-

tes organisés, sponsorisés par des organisations maffieuses

ou terroristes, voire par des gouvernements et les références

à la Chine, à la Russie, aux USA,

à Israël, etc. reviennent souvent

dans les coupures de presse.

L'épisode de l'attaque Stuxnet

dirigé contre les centrifugeuses

de l’usine d’enrichissement d’ura-

nium de Natanz en Iran a montré

que les systèmes de contrôle-

commande de procédé n'étaient

plus à l'abri des attaques et que

celles-ci pouvaient atteindre un

degré de sophistication inimaginable il y a quelques années.

La contamination par les maliciels peut se faire de façon

subreptice, être masquée par de faux certificats, revêtir des

périodes d'incubation très longues, se développer sur des

cibles choisies mais infectant cependant des dizaines de mil-

liers de porteurs sains.

La comparaison avec les plus redoutables des pandémies

se fait chaque jour plus réaliste.

Stuxnet est venu mettre un terme à un mythe qui avait la

vie dure : celui de « l'air gap », c’est-à-dire de la protection par

l'isolement. Aucun système de traitement de l'information ne

peut prétendre être durablement isolé du monde extérieur.

Survient toujours un moment où il faut mettre à jour un lo-

giciel, actualiser des paramètres, échanger des informations,

changer des mots de passe, admettre de nou-

veaux opérateurs, etc. Qui plus est, la recherche

de la productivité et de l'efficacité passe nécessai-

rement par une intégration toujours plus poussée

entre les différents niveaux d'une structure et on

connait le succès qu'ont rencontré dans l'indus-

trie les notions de MES (Manufacturing Execution

System) et ERP (Enterprise Resource Planning).

Les organisations qui affirment s'être mises à

l'abri des attaques cyber-sécuritaires par un « air

gap », se bercent d'illusion. Elles ont simplement

remplacé les réseaux traditionnels par les réseaux

furtifs que sont les CD Rom, les clés USB, les smartphones,

en attendant mieux, et on sait par expérience qu'un système

fondé sur la seule confiance des personnes est tôt ou tard

voué à être miné par la négligence ou par la corruption.

Bien entendu le fantastique développement de l'Internet

et de la mise en réseau des hommes et des objets, qui est

bien loin d'avoir atteint son apo-

gée, ne fait qu'élargir la menace ;

« Tous ne mourraient pas, mais

tous étaient frappés » pourra-t-

on bientôt dire.

L'article de Pierre Caron ouvri-

ra les yeux de tous ceux qui ne

voient dans les smartphones et

dans les réseaux sociaux que

les avantages d'une ouverture

toujours plus large sur le monde

qui nous entoure. Il ne s'agit pas pour autant d'imaginer que

l'on puisse freiner la progression de l'univers numérique. La

recherche de la productivité et du confort, l'élargissement du

tissu social seront toujours aux avant-postes ; mais il faut ap-

prendre à vivre avec le risque, ce qui implique de connaître les

menaces, d'être conscient de ses vulnérabilités et de prendre

les décisions raisonnables pour ramener le risque à un niveau

acceptable.

Le cas des grandes infrastructures est particulièrement

éloquent. On entend par grandes infrastructures celles qui

rendent un service essentiel à la nation : la production, le

transport et la distribution d'électricité, l'alimentation en eau,

la production et la distribution d'hydrocarbures, le système

bancaire, les services d'urgence, les transports publics, les

La cyber-sécurité des grandes infrastructures.Vivre avec le risque

Jean-Pierre HauetAssociate Partner KB IntelligenceMembre Emérite

de la SEE

Page 11: Aperçu du numéro d'avril 2012 de la revue de l'électricité et de l'électronique

22 ◗ REE N°2/2012

LES GRANDS DOSSIERS Introduction

services gouvernementaux régaliens, les télécommunications.

Tous utilisent les technologies de l'information pour leur ges-

tion mais aussi pour leur fonctionnement. Ce sont donc des

cibles de premier choix pour la cybercriminalité. Tout d'abord

parce que l'interruption de leur fonctionnement crée en soi un

préjudice notable qui pourrait prendre des proportions vertigi-

neuses : imaginons un instant un centre de contrôle ferroviaire

pris en mains par des terroristes et précipitant deux TGV l'un

sur l'autre. Egalement parce que, curieusement, leur nombre

a tendance à augmenter : on voit par exemple poindre des

flottes de véhicules électriques dont le fonctionnement tech-

nique et financier pourrait être gravement perturbé par des

cyber-attaques. Enfin et surtout parce qu’elles sont de plus en

plus interdépendantes les unes des autres. Il y a bien long-

temps que le particulier sait que son chauffage central au fuel

devient inopérant en cas de coupure d'électricité. Mais cette

interdépendance devient la règle générale. Le couplage entre

système d'information et système électrique

est porté aux nues par les thuriféraires des

« smart grids ». Il y a certes des voies de pro-

grès indéniables. Mais un dérèglement grave

sur le système électrique lié à un cyber-in-

cident aurait des répercussions immédiates

sur tous les autres services. De la même fa-

çon, une attaque en déni de service sur les

systèmes de communication pourrait rendre

les services d’urgence impuissants.

Patrick Pailloux évoque à juste titre le

scénario des concours de dominos où des

centaines de milliers de dominos s'effon-

drent sous l'effet d'une simple pichenette.

Les attaques terroristes à double détente,

où une première vague détourne l'attention

cependant qu'une deuxième vague plus

meurtrière se prépare, sont particulière-

ment pernicieuses. Mais tous les scénarios

peuvent être envisagés et s'agissant d'atta-

ques délibérées, ils échappent aux calculs

de probabilités objectives.

Le présent dossier n'a pas l'ambition de tout traiter. Il fau-

dra en particulier revenir sur le cas des réseaux électriques

et des risques inhérents aux systèmes de comptage com-

municants. Le risque n'est pas que l'usager rentre dans le

compteur évolué des informations pernicieuses. Sans doute

ne le pourra-t-il pas. Mais, dès lors que le pouvoir de coupure

sera ouvert par ordre distant, que se passera-t-il si une orga-

nisation criminelle s'infiltre dans le système, détourne les clés

de chiffrement et envoie des ordres fallacieux d'interruption

de service à des millions d'usagers sans que la tension puisse

être rétablie autrement que par une intervention sur place ?

A-t-on également pesé tous les risques de voir les 30 mil-

lions de compteurs devenir des zombies d’un gigantesque

« botnet » ?

Il faut convenir que la France fait preuve d’une assez gran-

de insouciance face à ces problèmes. La création de l'ANSSI

(Agence nationale de la sécurité des systèmes d’informa-

tion) ne date que de juillet 2009, alors

qu'il y a belle lurette, et surtout depuis les

événements du 11 septembre 2011, que

les américains sont sensibilisés au risque

terroriste malgré les excès du syndrome

Y2K. Plusieurs organisations gouvernemen-

tales Nord-américaines – le NIST (National

Institute of Standards and Technology), le

NERC (North American Electric Reliability

Corporation) – ont édicté des règles visant

à se prémunir contre le risque cyber-sé-

curitaire. Mais c'est aujourd'hui l'ISA (In-

ternational Society of Automation) qui, en

liaison étroite avec la CEI, propose le cor-

pus méthodologique le plus complet afin

d'évaluer la vulnérabilité des installations

industrielles au risque de cyber-attaque

et de proposer une démarche rationnelle

permettant de se protéger, en profondeur,

contre des attaques, en adaptant judicieu-

sement le coût de la protection à celui des

risques encourus. ■

Cyber-attaques et cyber-défenses : problématique et évolutionPar Yves Deswarte, Sébastien Gambs ....................................................................................................................................... p. 23Réseaux et cybercriminalité, l’opérateur au cœur de la bataillePar Pierre Caron ............................................................................................................................................................................ p. 36La cyber-sécurité des automatismes et des systèmes de contrôle de procédé. Le standard ISA99Par Jean-Pierre Hauet ..................................................................................................................................................................... p. 45

les articles

Jean-Pierre Hauet est ancien

élève de l’Ecole Polytechnique

et Ingénieur du corps des mines. Il

a occupé différentes positions dans

l’Administration, en particulier celle

de rapporteur général de la Com-

mission de l’Energie du Plan.

Il a dirigé le centre de recherches

de Marcoussis d’Alcatel avant d’être

nommé directeur Produits et Techni-

ques de Cegelec, puis Chief

Technology Officer d’AlsTOM.

Depuis 2003, il est Associate

Partner de KB Intelligence, spécia-

lisé dans les questions d’énergie,

d’automatismes industriels et de

développement durable. Il préside

l’IsA-France, section française de

l’IsA (Instrumentation, systems &

Automation society). Il est membre

Emérite de la sEE et membre du

comité de rédaction de la REE.

Page 12: Aperçu du numéro d'avril 2012 de la revue de l'électricité et de l'électronique

REE N°2/2012 ◗ 23

Les cyber-attaques, un risque pour nos grandes infrastructures ?

Yves Deswarte1,2, Sébastien Gambs3

1 CNRS, LAAS, Toulouse, France 2 Université de Toulouse, France 3 Université de Rennes 1 - INRIA/IRISA

IntroductionAujourd’hui, les systèmes informatiques des en-

treprises, des administrations et des particuliers sont

pour la plupart connectés à l’Internet. Ils peuvent ainsi

à moindre coût profiter de moyens de communica-

tion rapides, partager des ressources de traitement

et de stockage de grandes capacités (Cloud Compu-

ting), faciliter les échanges commerciaux et financiers

(e-Commerce, e-Banking), fournir et utiliser de nom-

breux services en ligne (e-Administration, e-Health,

e-Learning, etc.), participer à des communautés vir-

tuelles et à des réseaux sociaux, se divertir et plus

généralement, partager et accéder à l’information,

la connaissance et la culture. Ces différentes utilisa-

tions d’Internet ont bien sûr des exigences de sécu-

rité différentes, mais elles sont toutes sous la menace

d’attaques par des malfaiteurs, même si ceux-ci ne

représentent qu’une infime minorité des utilisateurs

d’Internet. Face à ces cyber-attaques, il faut mettre en

place des cyber-défenses efficaces.

Contrairement à la plupart des formes de crimes

et de délits, les cyber-attaques ne mettent pas physi-

quement en danger ceux qui les perpètrent, puisqu’ils

n’ont pas besoin d’être présents en personne sur le

lieu de leurs attaques et qu’ils ne laissent pas de traces

physiques de leurs actions. La dissuasion est donc peu

efficace vis-à-vis d’eux et ils peuvent choisir l’instant de

l’attaque et leur cible sans se soucier de sa localisation,

alors que la défense doit être déployée partout et tout

le temps. Ce combat est donc asymétrique, au même

titre que le terrorisme ou la guérilla [1].

Dans la suite de cet article, on s’intéressera :

• aux attaquants et à leur motivation ;

• aux dégâts que peuvent provoquer les cyber-

attaques ;

• aux moyens utilisés par les attaquants ;

• et enfin aux moyens de défense à mettre en place.

Les attaquants et leurs motivationsAu début des années 70, les premiers pirates mo-

dernes ne s’attaquaient pas aux réseaux informatiques

(encore balbutiants à l’époque), mais aux systèmes

téléphoniques. Certains de ces pionniers sont vite

devenus célèbres, comme John Draper, plus connu

sous l’alias Captain Crunch, qui a découvert comment

téléphoner gratuitement depuis des cabines télépho-

niques à l’aide d’un sifflet distribué dans des boîtes de

céréales, ou encore Steve Wozniak et Steve Jobs dont

la première création fut une blue box, avatar électroni-

que de ce sifflet, bien avant qu’ils ne fondent la com-

pagnie Apple [2]. Ces premiers phreaks1 ou hackers2,

au sens originel de « bidouilleurs », ont rapidement

formé une communauté underground, qui s’est pro-

gressivement reconvertie au piratage informatique,

1 Obtenu à partir de freaks (monstres, en anglais), en rempla-çant le « f” » par « ph » pour phone, tradition qui se perpétue par exemple dans phishing (cf. la section dédiée aux moyens d’attaques).

2 Littéralement : ceux qui vont au fond des choses à coups de hache.

Cyber-attaques et cyber-défenses : problématique et évolution

The expansion of Internet and the increasing complexity of information systems had lead to the evolution of hacking, from intellectual game to fraudulent money gain. Cyber-attacks for malicious purposes range now from denial-of-service to infor-mation theft or even sabotage. In this paper, we categorize the attackers and their motivations, as well as the damages that such cyber-attacks can cause on the information systems that they target. We also describe the means used to conduct such attacks as well as the possible defences to counter them.

abstract

Page 13: Aperçu du numéro d'avril 2012 de la revue de l'électricité et de l'électronique

24 ◗ REE N°2/2012

Les cyber-attaques, un risque pour nos grandes infrastructures ?

Cyber-attaques et cyber-défenses : problématique et évolution

avec ses magazines3, son propre jargon4 et même son propre

alphabet5.

Avec le temps, le terme hacker a ainsi pris le sens moins

sympathique de pirate. Pourtant, beaucoup de ceux qui se

revendiquent de cette communauté agissent simplement

par curiosité et soif d’apprendre, cherchant à découvrir les

limites des matériels et logiciels informatiques, à débusquer

les imperfections de leur conception et éventuellement à ex-

ploiter ces imperfections pour détourner le système de son

usage prévu à l’origine. Par simple jeu ou par méconnais-

sance des conséquences, ils peuvent parfois provoquer des

dégâts importants6, le plus souvent involontairement. Pour la

plupart, ils souhaitent qu’on reconnaisse leur valeur et attirent

l’attention de leurs pairs par la diffusion plus ou moins publi-

que de leurs exploits, ce qui permet à des pirates débutants

(script-kiddies) de se faire la main en rejouant les mêmes

attaques7.

Avec le temps, cet esprit de jeu, de curiosité ou de com-

pétition intellectuelle a laissé la place à d’autres motivations

chez la majorité des attaquants. Sans surprise, le vandalisme

3 2600, The Hacker Quaterly <http://www.2600.com> en est l’héri-tier direct. 2 600 Hertz est la fréquence émise par le sifflet de Cap’n Crunch.

4 <http://elite-hackers.com/files/textfiles/hackdict.txt>5 <http://en.wikipedia.org/wiki/Leet>6 <http://www.theregister.co.uk/2008/01/11/tram_hack/>7 Exemple de script-kiddie : <http://fr.wikipedia.org/wiki/Michael_Calce>

est une évolution presque naturelle dans la mentalité des

hackers en mal de reconnaissance : « puisqu’on ne me prend

pas au sérieux, je vais leur montrer ce que je peux faire ».

Cela peut être des représailles contre des administrateurs de

système auxquels on aura « gentiment » signalé des vulnéra-

bilités et qui n’auraient apparemment pas réagi. Il peut aussi

s’agir d’une vengeance contre un ancien employeur [3, 4,

5], ou simplement d’une attaque spectaculaire pour attirer

l’attention des médias sur ses capacités de nuisance8. Mais

aujourd’hui, la principale motivation des cyber-attaquants est

l’appât du gain : accès frauduleux à des comptes bancaires en

ligne, usurpation de cartes de crédit, chantage au blocage de

sites ou au sabotage, escroquerie, diffusion de fausses infor-

mations pour influencer les cours en bourse, tous les moyens

sont bons pour les cyber-délinquants isolés comme pour les

organisations criminelles. Le marché noir des boîtes à outils

facilitant le piratage de comptes en banque est d’ailleurs flo-

rissant sur Internet (ZeuS, SpyEye, IceIX, Citadel, …).

La politique, l’idéologie ou le fanatisme sont aussi des mo-

tivations fortes, pouvant conduire à l’hacktivisme (avec dès le

début des années 80 le Chaos Computer Club et aujourd’hui

Wikileaks, les Anonymous ou LulzSec) et éventuellement au

cyber-terrorisme, voire à la cyber-guerre. Il est à noter que

selon une étude de Verizon [6] portant sur l’année 2011, la

8 <ht tp://www.wired.com/epicenter/2009/08/twit ter-apparently-down/>

Figure 1 : Sifflet Cap’n Crunch (1965).

jphauet
Rectangle
Page 14: Aperçu du numéro d'avril 2012 de la revue de l'électricité et de l'électronique

REE N°2/2012 ◗ 55

LES GRANDS DOSSIERSIntroduction

Le moteur électrique est né il y a près de deux

cents ans et beaucoup ont en mémoire l'expé-

rience de la roue de Barlow (1822) répétée des

centaines de milliers de fois dans les lycées et

collèges. Le XIXe siècle a vu se succéder une ky-

rielle d'innovations technologiques touchant aux

machines électriques ; la plus importante est

sans doute l'arrivée des moteurs asynchrones

dont la paternité, contestée il est vrai, est souvent

attribuée à Nicolas Tesla (1887). Tout à la fin du

siècle la voiture électrique, la Jamais contente,

dotée des accumulateurs au plomb inventés par

Gaston Planté en 1859, franchissait en 1899 la barre des

100 km/h. Le moteur électrique est donc une technologie

éprouvée et voilà des décennies qu'il occupe une place de

premier plan dans les usages domestiques, industriels ou ter-

tiaires, étant directement associé à la pénétration de l'élec-

tricté dans tous ces secteurs.

Pourtant l'amélioration des performances des moteurs

électriques reste plus que jamais une préoccupation de pre-

mier plan. Cette évolution résulte de la concommittance de

nouveaux besoins et de nouvelles percées technologiques.

Les nouveaux besoins, ce sont en premier lieu ceux nés

de la recherche d'une utilisation plus rationelle de l'énergie

face à des prix de l'énergie allant en croissant. Selon l'ADEME

(Agence de l’Environnement et de la Maîtrise de l’Energie),

les moteurs électriques représentent aujourd'hui 72 % de la

consommation d'électricité dans l'industrie en France et 69 %

en Europe. Le coût d'investisssement du moteur électrique ne

représenterait que 2,5 % du coût total de possession rapporté

à sa vie entière alors que la consommation d'électricité en re-

présenterait 96 %. Sur les 90 TWh consommés en France par

ces moteurs, le gisement d'économie d'énergie représenterait

10 à 15 TWh. En Europe, il atteindrait 139 TWh en 2020. L'en-

jeu est donc considérable et a conduit la Commission euro-

péenne à faire adopter une directive imposant, depuis le 16

juin 2011, le marquage des moteurs et le respect, a minima,

du niveau de performances IE2 (rendement niveau Haut au

sens de la norme CEI 60034-30), pour les moteurs mis sur le

marché. Le niveau IE3 devra quant à lui être atteint en 2015 et

les discussions sur un niveau IE4 sont lancées.

Plus généralement, la notion d'écoconception, c’est-à-dire

l'intégration des caractéristiques environnementales dans

la conception du produit en vue d'améliorer sa

performance environnementale du tout au long

de son cycle de vie, s'est progressivement impo-

sée et conduit à des prescriptions multicritères

quant aux caractéristiques et aux performances

environnementales des moteurs.

D'autres besoins sont également montés en

première ligne : on citera tout particulièrement

l'amélioration de la puissance massique et la

recherche d'une plus grande compacité qui est

primordiale dans toutes les applications embar-

quées, véhicules de transport en commun ou

véhicules individuels électriques. Ceci conduit à privilégier les

moteurs à très haute vitesse de rotation mais, pour d'autres

applications, ce sont des machines lentes à fort couple qui

resteront recherchées. Dans d'autres domaines, les questions

de bruit, de vibrations, d'aspect visuel seront essentielles.

Pour les applications professionnelles, les critères de ro-

bustesse, face à des environnements parfois sévères, seront

primordiaux. Ils se déclinent en fiabilité, maintenabilité, dispo-

nibilité, durée de vie.

Les questions de prix de revient restent évidemment fon-

damentales ; pour les produits grand public, cette notion se

réume trop souvent au prix d'achat. Mais l'utilisateur profes-

sionnel sera davantage sensible au coût total de possession.

Face à des besoins de plus en plus exigeants, la techno-

logie a ouvert au cours des dernières années de nouvelles

voies de progrès, au point que l'on peut parler de « nouvelle

révolution des moteurs électriques » qui est le titre du pré-

sent dossier. L'article de Daniel Roger et Farid Meibody-Tabar

montre comment il peut être répondu aux problématiques

nouvelles des moteurs électriques grâce à ces progrès.

La révolution ne concerne pas seulement le moteur élec-

trique mais l'ensemble de la chaîne de traction incluant le

transformateur, le convertisseur et le moteur, auxquels peut

venir s'ajouter un dispositif de stockage. Dans cet ensemble,

deux percées se dégagent :

• les progrès réalisés sur l'électronique de puissance utilisée

dans les convertisseurs électroniques servant à l'alimenta-

tion des moteurs et sur les architectures de ces conver-

tisseurs. Les solutions à IGBT ont permis de réaliser des

avancées considérables dans le domaine des moteurs à

vitesse variable. L'arrivée de nouveaux composants à base

Des moteurs électriques toujours plus performants

Jean-Pierre HauetAssociate Partner KB IntelligenceMembre Emérite

de la SEE

Page 15: Aperçu du numéro d'avril 2012 de la revue de l'électricité et de l'électronique

56 ◗ REE N°2/2012

LES GRANDS DOSSIERS Introduction

de carbure de silicium (SiC) permettra de fabriquer des

commutateurs électroniques encore plus rapides, rendant

accessibles les très hautes vitesses de rotation, au prix il est

vrai de difficultés à résoudre sur la tenue des isolants et sur

la conception des paliers ;

• le développement des moteurs à aimants permanents.

Les aimants permanents à base de néodyme, fer et bore

crééent des champs magnétiques d'une

intensité impressionnante au point que

leur manipulation lors de leur assemblage

doit être entourée de solides précautions.

Ils permettent, et c'est l'objet de l'article

de Régis Giraud, d'améliorer fortement

la compacité des moteurs, de réduire les

pertes magnétiques et d'accroître le ren-

dement de deux à neuf points par rapport

à des moteurs asynchrones IE2.

La machine électrique, dont le fonction-

nement repose sur des lois connues, élec-

tromagnétiques et thermiques, se prête en

outre remarquablement bien à une appro-

che de modélisation numérique et d'optimi-

sation. C'est un exemple d'application des

sciences où l'association entre une connais-

sance intime des phénomènes et une

maîtrise de moyens de calcul importants,

permet, grâce à des modèles, d'optimiser

la conception des moteurs et des convertis-

seurs, afin de mettre en évidence des pro-

grès, parfois minimes mais qui se répèteront à l'identique des

millions de fois. C'est une démonstration, pour nos étudiants,

de l'utilité d'une culture scientifique poussée.

L'article de Robert Périot et Benali Boualem montre com-

ment, autour d'une application très exigeante qui est celle

des transports en commun, un industriel peut mettre en œu-

vre les solutions qui s'offrent à lui pour réaliser une solution

compétitive au meilleur niveau de l'état de

l'art. C'est un exemple frappant de l'utilité

de la recherche-développement et de l'in-

novation pour maintenir sur notre territoire

des activités industrielles à haute valeur

ajoutée.

Mais les trois articles montrent que

rien n'est jamais acquis, que de nouvelles

voies de progrès restent à explorer, dans le

domaine des matériaux (aimants perma-

nents, semi-conducteurs, isolants), dans

celui des composants et des architectures

électroniques, dans celui de la conception

des moteurs (les moteurs-roues pourraient

constituer une rupture technologique dans le

domaine de la propulsion électrique), dans

celui du stockage de l'énergie incorporé à la

chaine électrique ou hybride, etc. Nul doute

que le moteur électrique saura s'adapter aux

exigences toujours plus variées des applica-

tions de plus en plus larges qu'implique la

pénétration accrue de l'électricité. ■

Moteurs électriques modernes, nouvelles problématiques à maîtriserPar Daniel Roger, Farid MeiBody-Tabar ................................................................................................................................. p. 57Les moteurs à aimants permanentsPar Régis Giraud ............................................................................................................................................................................. p. 67Propulsion ferroviaire, solutions actuelles et perspectivesPar Benali Boualem, Robert Periot ......................................................................................................................................... p. 75

les articles

Jean-Pierre Hauet est ancien

élève de l’Ecole Polytechnique

et Ingénieur du corps des mines.

Il a occupé différentes positions

dans l’Administration, en particulier

celle de rapporteur général de la

Commission de l’Energie du Plan.

Il a dirigé le centre de recherches

de Marcoussis d’Alcatel avant d’être

nommé directeur Produits et Techni-

ques de Cegelec, puis Chief

Technology Officer d’AlsTOM.

Depuis 2003, il est Associate

Partner de KB Intelligence, spécia-

lisé dans les questions d’énergie,

d’automatismes industriels et de

développement durable. Il préside

l’IsA-France, section française de

l’IsA (Instrumentation, systems &

Automation society). Il est membre

Emérite de la sEE et membre du

comité de rédaction de la REE.

Page 16: Aperçu du numéro d'avril 2012 de la revue de l'électricité et de l'électronique

REE N°2/2012 ◗ 57

La nouveLLe révoLution des moteurs éLectriques

Daniel Roger1,2, Farid MeiBody-Tabar3 1Univ. Lille Nord de France, Lille 2UArtois, LSEE Bethune 3 Univ. de Lorraine, GREEN, Nancy

Introduction Presque toutes les machines électriques utilisent

le même principe physique basé sur les variations de

l’énergie magnétique stockée dans l’entrefer séparant

le stator du rotor. Une explication générale assez sim-

ple permet de comprendre les limites des machines

actuelles et les améliorations possibles. L’énergie

magnétique stockée dans la machine dépend d’une

manière générale de l’ensemble des courants dans

les différentes bobines, de la position du rotor et des

matériaux utilisés au rotor et au stator ainsi que leurs

formes et dimensions géométriques. Le couple résul-

tant des forces appliquées sur le rotor correspond à la

dérivée de la coénergie1 par rapport à la position du

rotor à courants fixés dans les bobines. La théorie des

machines électriques montre que les deux paramè-

tres critiques pour dimensionner une machine sont

l’induction maximale (B) dans l’entrefer, limitée par

la saturation des matériaux magnétiques et la densité

de courant maximale qu’il est possible de faire passer

dans les conducteurs, limitée par la température maxi-

male autorisée selon le mode de refroidissement.

Le principe physique exposé est valable pour la

plupart des machines. Il existe deux exceptions nota-

bles : les machines électrostatiques et les machines

piézo-électriques. Les premières utilisent le champ

électrique à la place du champ magnétique comme

grandeur de stockage de l’énergie dans une zone

équivalente à l’entrefer [1] ; les secondes sont ba-

sées sur des propriétés mécaniques spécifiques que

possèdent certaines céramiques qu’il convient d’ali-

menter correctement pour leur imposer des champs

électriques adaptés [2]. Ces machines correspondent

à un nombre limité d’applications et pour des puissan-

ces très faibles dans une gamme allant de quelques

microwatts à quelques centaines de milliwatts.

L’alimentation par des convertisseurs statiques des

machines électriques modernes donne de nouveaux

degrés de liberté autorisant un choix plus vaste parmi

les structures classiques (machines synchrones et

asynchrones) et aussi moins classiques (machines à

réluctance variable, excitée ou non excitée). Ces de-

grés de liberté peuvent être aussi utilisés pour op-

timiser, en termes de coût et/ou de performances,

l’ensemble de la chaîne de conversion électromécani-

que d’énergie, allant de la source électrique à la char-

Moteurs électriques modernes, nouvelles problématiques à maîtriser

Electrical machines exist in our everyday live for more than a century, they have long been designed as motors or generators operating at constant speed in a relatively standardized environment: the mechanical systems had to adapt to the electrical machines. Nowadays, the scope has expanded significantly; electric motors associated converters are increasingly integrated in various mechanical systems.The paper describes the issues of modern electrical machine design by showing the potential improvements in various areas: high speeds, high torques, high temperatures and the necessary adaptation to the new constraints imposed by power conver-ters. For designing these new machines it is necessary to develop numerical tools that can better describe the complex physical phenomena and to adopt more environmentally friendly design approaches.

abstract

1 La coénergie est définie par ; et sont l’induction et le champ locaux en un point dans

un élément de volume dv de la machine ; ils dépendent naturellement de tous les courants dans les différents circuits de la machine et de la position du rt de rotor par rapport au stator (θ). Elle permet de calculer le couple généré par la machine

Page 17: Aperçu du numéro d'avril 2012 de la revue de l'électricité et de l'électronique

58 ◗ REE N°2/2012

La nouveLLe révoLution des moteurs éLectriques

Moteurs électriques modernes, nouvelles problématiques à maîtriser

ge mécanique tout en intégrant les contraintes spécifiques

imposées par chaque application.

Pour accroître la compacité des machines électriques, on

peut augmenter le nombre des paires de pôles ou accroître

leur vitesse en les associant à des réducteurs de rapports

élevés. Dans les deux cas, la fréquence des courants impo-

sés par les convertisseurs statiques alimentant la machine

augmente, ce qui entraîne aussi l’augmentation de la fré-

quence de découpage de leurs composants et donc leurs

pertes par commutation. La solution pour réduire ces pertes

est d’accroître la vitesse de commutation des composants,

mais cela conduit à des valeurs élevées de dV/dt imposées

aux bobinages de la machine, entraînant ainsi des contrain-

tes électriques supplémentaires et de nouveaux problèmes

liés à l’augmentation des courants de mode commun. Même

si lors de l’optimisation des machines électriques les prin-

cipales contraintes demeurent magnétiques, thermiques et

mécaniques, de nouvelles contraintes de nature électrique,

liées à l’alimentation par électronique de puissance s’impo-

sent aux machines électriques modernes.

Vers les hautes vitesses Pour obtenir des puissances massiques importantes, les

lois de la physique plaident en faveur des machines électri-

ques tournantes rapides. En effet, pour une géométrie don-

née, la densité de courant maximale dans les conducteurs,

l’induction maximale dans l’entrefer et la surface où le stator

et le rotor sont en regard l’un de l’autre déterminent la va-

leur du couple électromagnétique. Toutes choses égales par

ailleurs, la puissance mécanique est donc proportionnelle à

la vitesse de rotation, donc à la fréquence d’alimentation.

Depuis une trentaine d’années, la limite en vitesse impo-

sée par la fréquence du réseau est repoussée par l’utilisation

de convertisseurs électroniques ; en conséquence, le champ

d’application est étendu à des vitesses et des puissances plus

élevées. Utilisées en moteurs, ces machines sont au cœur

des compresseurs très compacts [3] qui peuvent être utilisés

pour comprimer le gaz de ville et dans bien d’autres applica-

tions. Utilisées en génératrices, elles permettent de faire des

sources d’énergie électrique compactes qui utilisent du gaz

comme énergie primaire.

Pour des applications plus classiques où la partie méca-

nique requiert des vitesses plus basses, la qualité croissante

des réducteurs mécaniques permet d’envisager plus systé-

matiquement l’association d’un moteur rapide et d’un réduc-

teur pour diminuer de façon significative le volume de cet

ensemble par rapport aux solutions plus classiques. Cette so-

lution est particulièrement intéressante pour les actionneurs

utilisés dans les systèmes embarqués (voitures électriques,

avions plus électriques, ...). Il existe actuellement des machi-

nes électriques qui dépassent les 50 000 tr/min, avec des

guidages en rotation par roulements. Des vitesses plus éle-

vées sont possibles mais elles requièrent des paliers à air ou

des paliers magnétiques qui suppriment les contacts directs.

Ces solutions permettent de réduire très fortement les pertes

mécaniques, elles ouvrent donc des perspectives intéressan-

tes de montée en vitesse et en puissance massique tout en

améliorant la fiabilité et la durée de vie.

Les limites mécaniques étant repoussées, les problèmes

liés à la conception des circuits magnétiques capables de

travailler à des fréquences élevées remontent au premier

plan. En effet, les courants induits dans les tôles magnéti-

ques s’opposent au champ magnétique principal comme le

montre la figure 1 qui représente la coupe transversale d’une

petite portion du circuit magnétique. Sur cette figure, l’induc-

tion magnétique B est perpendiculaire au plan de coupe, les

lignes de courant, tangentes en tout point au vecteur J re-

présentant la densité de courants induits, sont schématisées

par les pointillés. Les courants induits ont pour effet de créer

un champ qui s’oppose au champ d’origine ce qui a pour

conséquence de concentrer le champ magnétique résultant

dans une épaisseur réduite, appelée épaisseur de peau sous

la surface de chaque tôle.

Lorsque le matériau est supposé linéaire et isotrope, il est

possible d’évaluer l’épaisseur de peau δ en fonction de la

perméabilité relative de la tôle µ, de la perméabilité du vide

, de la conductivité électrique σ (S/m) des

tôles et la fréquence ω = 2 πf par la formule :

Pour réaliser les circuits magnétiques des machines rapi-

des qui fonctionnent à des fréquences élevées, il faut donc

choisir des tôles magnétiques très fines ; leur perméabilité

magnétique ne doit pas être trop élevée et la conductivité

électrique doit être aussi faible que possible pour que l’épais-

seur de peau δ reste significative par rapport à la moitié de

l’épaisseur de chaque tôle. L’ajout de silicium dans le fer di-

Figure 1 : Courants induits dans les tôles magnétiques et effet de peau.

jphauet
Rectangle
Page 18: Aperçu du numéro d'avril 2012 de la revue de l'électricité et de l'électronique

REE N°2/2012 ◗ 89

Président du Directoire de RTEentretien avec dominique maillard

REE : L’hiver 2011-2012 a été rude,

le record de puissance appelée sur

le réseau a été battu à plusieurs re-

prises. Dans ce contexte, le système

électrique semble avoir bien résisté

mais, à plusieurs reprises, on a eu

l’impression que l’on n’était pas loin

de la rupture. Quel regard portez-vous

sur les mois écoulés et quels ensei-

gnements en tirez-vous ?

D. M. : La France a connu, en effet, dé-

but février 2012 un événement météo-

rologique exceptionnel avec une vague

de froid d’une durée et d’une ampleur

inédites, depuis presque vingt ans. Cette

vague de froid a conduit à des pics de

consommation électrique dépassant

pour la première fois le seuil symbolique

de 100 GW. C’est 30 % de plus qu’il y

a dix ans ! De surcroît, les consomma-

tions ont dépassé la pointe maximale

précédente, datant de l’hiver dernier,

pendant 18 heures sur les trois jours les

plus froids, autour de 19 h 00, mais aussi

entre 8 h 00 et 14 h 00.

Durant cet épisode, le réseau de

transport d’électricité a su faire face et

son maillage a permis de franchir cette

situation sans incident grave. Mais, ne

nous le cachons pas, les prochains hi-

vers seront de plus en plus difficiles, en

cas de vague de froid de cette ampleur,

car la France est de plus en plus « ther-

mosensible » ; 1 °C de moins augmente

la puissance appelée de 2 300 MW

(contre 1 300 MW il y a dix ans). Nos

modes de vie et nos modes de chauf-

fage augmentent la sensibilité de notre

système électrique à ces situations, alors

que d’autres pays sont plus dépendants

du gaz et de son importation, pour leur

économie ou leur chauffage.

C’est un défi collectif que nous de-

vons relever. Comment faire face aux

prochains hivers ? Nous devons être

conscients que les capacités françaises

de production et de transport d’électri-

cité, aussi importantes soient-elles, ne

sont pas suffisantes pour faire face aux

besoins en cas de grand froid exception-

nel. Nos marges sont en effet limitées

et si la bonne disponibilité des ouvrages

était au rendez-vous cet hiver, le sera-t-

elle à nouveau dans des circonstances

analogues, voire plus sévères ?

La combinaison de plusieurs actions

est donc à envisager : la maîtrise de la

consommation de pointe, la mise en

œuvre, sans retard, d’un mécanisme

amenant les différents fournisseurs à

prévoir et à anticiper les capacités de

production ou d’effacement (garantis-

sant la satisfaction des besoins de leurs

clients), et enfin, les renforcements de

nos interconnexions électriques et du

réseau national.

Il s’agit aussi de rappeler à nos conci-

toyens que plus de lignes de transport

d’électricité sont nécessaires pour la sé-

curité d’alimentation et la robustesse du

réseau face aux aléas climatiques.

REE : Les responsables du secteur

électrique mettent souvent en avant

l’atout que constitue le parc nucléaire

français. Pourtant, à plusieurs repri-

ses, il a fallu importer des quantités

importantes d’électricité. N’est-ce pas

le signe que l’on a peut-être trop in-

vesti dans le domaine nucléaire et pas

assez dans les moyens de pointe ?

Quels sont les moyens de production

qui font aujourd’hui défaut ?

D. M. : Il s’agit avant tout de tirer profit de

la complémentarité des profils de produc-

tion et de consommation d’électricité en

Europe. La diversité des choix entre pays

est aujourd’hui un atout collectif pour

l’Europe. Mais il y a une condition : le dé-

veloppement et le renforcement de nos

interconnexions. En effet, l’Europe n’est

pas une « plaque de cuivre » permettant

d’acheminer n’importe quelle production

vers n’importe quel point de consomma-

tion. Aujourd’hui, la France dispose d’une

capacité d’échange avec ses voisins de

l’ordre de 12 GW à l’export et de 9 GW

à l’import. Cela représente, grosso modo,

10 % de la demande de pointe. La France

est dans la moyenne européenne, mais

elle devra dans les prochaines années

accroître ses interconnexions pour béné-

ficier de la « respiration européenne » du

système électrique.

REE : Pendant cet hiver plutôt froid,

diriez-vous que les moyens existants

en électricité d’origine renouvelable

(éolienne notamment) ont été pré-

cieux, peu utiles ou inutiles ?

La production éolienne a contribué,

à son niveau, à assurer l’équilibre entre

offre et demande d’électricité lors de la

vague de froid de début février. Malgré

les conditions anticycloniques qui sé-

vissaient sur l’ensemble de l’Europe, la

production éolienne française a été re-

lativement élevée. Durant cette période,

elle a varié entre 500 MW et 4 500 MW

Nous avons pu faire face à l’hiver dernier

mais les prochains seront de plus en plus difficiles

Le développement et le renforcement

des interconnexions en Europe sont une nécessité

Le réseau électrique a résisté aux grands froids !

Page 19: Aperçu du numéro d'avril 2012 de la revue de l'électricité et de l'électronique

90 ◗ REE N°2/2012

et a permis de couvrir en moyenne entre

2 % et 2,5 % de la consommation. Elle

a été particulièrement importante les

trois premiers jours de la vague de froid.

Au mieux, elle a couvert 5 % de cette

dernière et, dans le pire des cas, un peu

moins de 1 %.

REE : Le réseau est-il prêt à faire face

à un retrait éventuel du nucléaire ?

Quelles en seraient, selon vous, les

conséquences ?

D. M. : A la demande du ministre de

l’Energie, RTE a étudié, dans son bilan pré-

visionnel 2011, les conséquences techni-

ques d’un scénario d’érosion significative

du parc nucléaire qui serait de 50 % à

l’horizon 2030 contre 75 % aujourd’hui.

Si techniquement, cela semble pos-

sible, cela serait au prix de la mise en

œuvre de quatre axes complémentaires

assez lourds : une maîtrise de la de-

mande d’énergie renforcée (de l’ordre

de -5 %), un développement soutenu

des énergies renouvelables de l’ordre de

40 GW d’éolien et 25 GW de photovol-

taïque, le développement de nouveaux

moyens de pointes ou d’effacement de

l’ordre de 10 GW, et enfin un renforce-

ment significatif des capacités d’échan-

ges transfrontaliers, avec la création de

nouvelles lignes d’interconnexion ame-

nant au doublement de la capacité ac-

tuelle. Par ailleurs, RTE, dont ce n’est pas

la mission, n’a pas procédé au chiffrage

financier de cette hypothèse.

Enfin, au-delà de l’objectif à attein-

dre en 2030, il faut être conscient que

la localisation des déclassements et le

calendrier de mise en service des nou-

veaux moyens de production aura une

importance majeure sur l’évolution de la

structure du réseau de transport d’élec-

tricité en France.

REE : La coopération européenne

a-t-elle bien fonctionné ? Que fau-

drait-il faire pour, le cas échéant,

l’améliorer ? La position allemande

sur le nucléaire ne va-t-elle pas, tôt ou

tard, poser quelques problèmes, non

seulement en Allemagne mais aussi

dans les pays voisins ?

D. M. : Quelles que soient les orienta-

tions des différents Etats-membres de

l’Union européenne, la coopération entre

les gestionnaires de réseau de transport

européen est nécessaire pour accroître

la sécurité et la performance. J’en prends

pour exemple l’apport de Coreso, le centre

de coordination opérationnelle du Cen-

tre-Ouest européen, créé en 2009 par

cinq gestionnaires de réseau de transport

d’électricité européen : RTE en France,

Elia en Belgique, National Grid en Gran-

de-Bretagne, Terna en Italie et 50Hertz

en Allemagne. Grâce à son organisation

et ses compétences pointues, Coreso

fournit aux GRT, en amont du temps réel,

des analyses de sécurité approfondies.

REE : La Bretagne et la Côte d’Azur

sont des régions réputées vulnéra-

bles. La situation est-elle en voie

de se normaliser ?

D. M. : Nous poursuivons nos program-

mes d’investissement dans ces « pénin-

sules électriques ». Non seulement ces

deux régions produisent peu d’électricité

sur leur territoire, mais en plus elles sont

reliées aux autres par des corridors, ce

qui les rend particulièrement vulnérables

en cas d’aléa. Dans le Var et les Alpes

Maritimes, nous avons doublé la capa-

cité de la seule ligne 400 kV (le long

de la côte). Mais ce renforcement s’ef-

fectuant sur les mêmes pylônes, faute

d’autorisation pour construire une autre

ligne, la vulnérabilité ne sera pas com-

plètement résolue. Nous renforcerons

alors le filet de sécurité que constitue le

maillage intérieur, par la construction de

trois liaisons souterraines à 225 kV.

En Bretagne, nous avons créé des

postes et installé des batteries de

condensateurs pour soutenir la tension.

Mais une solution durable viendra aussi

d’un « filet de sécurité » à 225 kV entre

Lorient et Saint-Brieuc ainsi que de nou-

veaux moyens de production. Dans la

région de Brest (à Landivisiau), un projet

d’une centrale à gaz a été lancé par les

pouvoirs publics, pour une mise en ser-

vice en 2017 au plus tard.

Dans ces deux régions, RTE mène en

outre des actions d’incitation à la mai-

trise de la consommation (EcoWatt) qui

ont entraîné, à la pointe, une baisse de

2 % à 3 % en Bretagne et en PACA.

REE : D’une façon plus générale,

où en êtes-vous du plan de sécurisa-

tion des réseaux censé être achevé

en 2017 ? Le financement des inves-

tissements sur le réseau de RTE va-t-il

coûter cher aux consommateurs ?

D. M. : Suite aux tempêtes Lothar et

Martin qui ont traversé la France en

La production éolienne a couvert de 1 à 5 %

de nos besoins

Une réduction de la part du nucléaire est techniquement

possible mais nécessitera des investissements importants

Bretagne et Côte d’Azur restent deux péninsules électriques vulnérables en cas d’aléa.

La maîtrise de la consommation doit supporter

les investissements

jphauet
Rectangle
Page 20: Aperçu du numéro d'avril 2012 de la revue de l'électricité et de l'électronique

92 ◗ REE N°2/2012

enseignement & recherche

Synthèse réalisée par le service communication de l’Ecole Centrale Lille

D e 1829 à 1919, les quatre écoles centrales (Paris, Lyon, Lille et Nantes) se créent et voient déjà leurs premiers succès. A l’époque, seules Paris, à l’origine du nom, et Lyon disposent de cette appellation.

En 1990, les nombreux contacts entamés entre Centrale Paris, Centrale Lyon, l’Ecole Nationale Supérieure de Mécanique de Nantes et l’Institut Industriel du Nord (IDN) conduisent les quatre écoles à signer la charte de l’intergroupe des Ecoles Centrales, définissant les règles de la collaboration de ces écoles. Les objectifs essentiels en sont l’amélioration de la formation et de l’information, ainsi que la promotion du titre unique d’ingénieur, tant en France qu’à l’étranger.

En 2002, un protocole d’accord est signé entre les Ecoles Cen-trales, le ministère de l’Education nationale et les collectivités locales concernant la création de l’école généraliste d’ingénieurs de Marseille (fusion de différentes écoles d’ingénieurs installées à Marseille), ayant vocation à devenir Ecole Centrale de Marseille. C’est en 2006 que ce nom est officialisé.

En 2005, le Groupe des Ecoles Centrales crée l’Ecole Centrale de Pékin, pour contribuer au rayonnement de l’identité centralienne.

Ce groupe se positionne comme une référence mondiale pour la formation d’ingénieurs généralistes, masters et docteurs de haut niveau, acteurs de développement des entreprises. Tout en conser-vant leur personnalité et leur autonomie, les Ecoles Centrales ont choisi de se fédérer au sein du Groupe des Ecoles Centrales. Elles travaillent ainsi à la cohésion de groupe et créent une véritable syner-gie entre les établissements.

Les Ecoles Centrales, des écoles d’ingénieurs généralistes

Les Ecoles Centrales proposent une formation d’ingénieurs gé-néralistes et sont sous tutelle du ministère de l’Enseignement supé-rieur et de la Recherche.

Cette formation d’ingénieurs centraliens se caractérise par un haut niveau d’enseignement scientifique et technique, la sym-biose avec le monde de l’entreprise, une préparation à une car-rière internationale, des travaux avec les laboratoires de recherche et l’opportunité de développement personnel.

Les Ecoles Centrales recrutent principalement sur le concours na-tional Centrale-Supélec après les classes préparatoires aux grandes écoles, mathématiques supérieures et spéciales. Des voies com-plémentaires d’admission existent, notamment une admission sur titre pour les titulaires d’une licence scientifique et technologique (CASTing – www.groupe-ecoles-centrales.com). Enfin, plus de 20 % des promotions sont constituées d’étudiants inscrits dans des universités étrangères partenaires dans le cadre d’accord de double diplôme.

Après avoir intégré une des écoles du groupe, les étudiants suivent deux années de tronc commun avec des enseignements scientifiques, techniques, en sciences humaines et sociales, lan-gues, sport, projets, jeux d’entreprise, travail en équipe… La troi-sième année est conçue comme une véritable professionnalisation et un tremplin vers l’emploi avec un large choix d’options et de filières préparant l’élève-ingénieur à son futur métier au plus proche de ses goûts et ambitions. Grâce au Groupe des Ecoles Centra-les, les élèves-ingénieurs ont la possibilité d’accomplir leur 3e année dans une autre école du groupe qui propose une option différente.

Cette formation permet d’acquérir, en plus des savoirs techni-ques et scientifiques, les concepts et méthodes indispensables à l’exercice de leur métier. Dès la fin du cursus, ces jeunes diplômés créent, conseillent, bâtissent, produisent, organisent, dirigent, in-novent, entreprennent… en lien avec leur environnement profes-sionnel.

« Ce Groupe nous amène à interagir très régulièrement sur les meilleures pratiques pédagogiques pour un ingénieur gé-néraliste qui a vocation à entrer dans le monde économique et industriel privé ou public. Nous échangeons des élèves en dernière année dans le cadre d’options en jouant sur la com-plémentarité, ce qui élargit notre offre. » indique Etienne Craye, directeur de Centrale Lille.

La formation des Ecoles Centrales concourt à développer l’adaptabilité, la créativité et la capacité d’assumer la responsabilité de tous les métiers d’ingénieurs en intégrant l’ensemble des as-pects – technique, économique et humain – d’un projet.

Plus que jamais, les élèves-ingénieurs du Groupe des Ecoles Centrales choisissent et construisent leur projet professionnel grâce à la multitude des parcours possibles, en trois ou quatre ans (dont deux ans possibles à l’international). ■

Retour sur la création et l’évolution du Groupe des Ecoles Centrales : un groupe actif

Page 21: Aperçu du numéro d'avril 2012 de la revue de l'électricité et de l'électronique

102 ◗ REE N°1/2012

Les deux ouvrages qui inspirent cette chronique présentent, par-delà des thèmes fort différents, de grandes similitudes : ce sont des

ouvrages de taille modeste, publiés par des éditeurs spécialisés et (trop) peu connus, écrits enfin par des universitaires attachés à la défense et à l’illustration de l’esprit cri-tique, non pas tant pour faire progresser la connaissance, que pour faire régresser l’ignorance et s’attaquer à des idées, fort répandues et souvent parées d’arguments scientifiques, mais très critiquables au plan des faits eux même ou des principes.

Les éditions Quae (www.quae.com) re-groupent les publications de quatre grands établissements scientifiques tournés vers les sciences du vivant (Cemagref, Cirad, Ifremer et Inra) ; les meilleurs spécialistes s’y confrontent aux grandes questions philo-sophiques, épistémologiques, anthropologi-ques, sociologiques ou éthiques en relation avec l’activité scientifique. Ici, Guillaume Lecointre, chercheur et professeur au Mu-séum d’histoire naturelle, aborde pour les critiquer les positions tenues par les créa-tionnistes contemporains : sans aller jusqu’à réclamer, comme les fondamentalistes américains, l’enseignement à parité de la théorie darwinienne de l’évolution et la ver-sion biblique de la Création, les tenants du « dessein intelligent » (intelligent design) et/ou ceux du principe anthropique dans sa version forte affirment se fonder sur des faits scientifiques.

Guillaume Lecointre, qui a tenu pendant une dizaine d’années la chronique scientifi-que de Charlie Hebdo, ne manque évidem-ment pas d’arguments, ni de pugnacité ; il a animé les nombreux débats organisés en 2010-2011 par le groupe Sciences en questions de l’INRA et son ouvrage reprend avec bonheur les questions et réponses auxquelles ces débats ont donné lieu. Ses développements sont toujours solidement charpentés et faciles à lire, même si ici ou là on souhaiterait une présentation plus agréa-ble : le sérieux et la rigueur de la polémique ne souffriraient pas d’une présentation plus agréable et plus aérée.

Le polémiste qu’est G. Lecointre ne s’ar-rête pas à la seule critique des tenants du

« dessein intelligent » : il profite des failles relevées dans des discours marqués par les références scientifiques pour rappeler et préciser les exigences méthodologiques et épistémologiques du métier de chercheur. Il se fait plus pressant vis-à-vis des pouvoirs publics et des politiques afin qu’ils ne cè-dent pas à ceux qui, confondant opinion et vérité scientifique, voudraient infléchir les programmes scolaires ou universitaires.

De leur côté, les éditions book-e-book (www.book-e-book.com) de Sophia Anti-polis sont inséparables du laboratoire de Zé-tétique de l’université de Nice Sophia Anti-polis. La zététique (du grec zêtein, chercher) recouvre historiquement le doute méthodo-logique, comme moyen de la recherche et de l’accès à la connaissance. Depuis la créa-tion par Henri Broch du laboratoire niçois

éponyme, la zététique se présente comme la méthode scientifique d’investigation des phénomènes prétendument paranormaux. Henri Broch a publié une véritable somme sur ces questions (Au cœur de l’extra- ordinaire, éditions book-e-book), après avoir cosigné avec Georges Charpak Devenez sorciers, devenez savants (éditions Odile Jacob 2002, collection poche 2003) ; avant l’ouvrage de Jérôme Bellayer, la collection a critiqué la numérologie, l’effet placébo ou les médecines non conventionnelles.

On attribue depuis longtemps à la Lune bien des vertus. L’illustre Ernest Re-nan aurait même affirmé que les paysans bretons sont tellement bêtes qu’ils croient à l’influence de la lune sur les marées… Si la gravitation et ses conséquences sont désormais peu discutées, beaucoup de nos concitoyens croient à une influence de l’as-tre sélène sur la conception comme sur la naissance ; les « vrais » jardiniers, sensibles à la « théorie biodynamique », consultent le calendrier lunaire avant toute interven-tion. Jérôme Bellayer examine ce que di-sent les observations scientifiques et les analyses statistiques. Ses conclusions sont formelles : la preuve de l’existence d’une quelconque influence n’a pas été apportée et, si tant est qu’elle existe, son intensité a été ramenée à des niveaux tellement fai-bles qu’elle est maintenant à la limite du détectable. Conséquence naturelle de ce verdict, il s’interroge sur les origines et la persistance de croyances, non scientifique-ment fondées.

La science a expliqué les corrélations entre la pleine lune et divers phénomènes incontestables : le blanchiment du linge (la rosée contient de l’eau oxygénée !) et la brûlure des bourgeons (phénomène mé-téorologique expliqué par Arago en 1826 !) Mais corrélation n’est pas causalité et la lune continue à illuminer nos nuits de sa douce lumière et à inspirer les poètes, sans bouleverser nos vies …

Remercions, au pays de Voltaire et des Lumières, ceux qui, éditeurs ou collègues, maintiennent une chandelle dans les ténè-bres et continuent à mettre les sciences en question. ■

B.Ay.

Guillaume Lecointre

Les sciences face aux créationnismes Ré-expliciter le contrat

méthodologique des chercheursEditions Quae - collection « Sciences en questions »

décembre 2011 - 74 p. - 11,50 €

Jérôme Bellayer

Sous l’emprise de la Lune le regard de la science

Editions book-e-book collection « Une chandelle dans les ténèbres »

décembre 2011 - 78 p. - 9,90 €

CHRONIQUE

Eloge de l’esprit critique !

Page 22: Aperçu du numéro d'avril 2012 de la revue de l'électricité et de l'électronique

REE N°2/2012 ◗ 105

SEE en direct

Conference > ISWCS2012 The 9th International Symposium on Wireless Communication Systems Date : August 28-31, 2012 - Paris

Wireless communications are at the heart of a new field

characterized by smart and flexible transceiver concepts, the

convergence of systems and technologies, and transition to-

wards all-IP networks and the development of technologies

with a user-centric focus. In this context, the objective of this

ninth International Symposium on Wireless Communication

Systems (ISWCS) is to provide a recognized and dynamic forum

for researchers and engineers from academia and industry to

present and discuss original ideas and contributions in all fields

related to mobile wireless communication systems. The aim of

this symposium is to present novel contributions in the form of

tutorials, panel discussions, keynote speeches, technical papers,

posters and tested implementations.

The conference is supported by le CNAM, IEEE Communica-

tions Society, VTS (Vehicular Technology Society SEE, IEEE Fran-

ce Section, URSI France.

Topics:

• Cooperative communication and relaying

• MIMO commuwnications and space-time processing

• Smart antennas • Cognitive radio and SDR

• Multi-carrier systems, OFDM

• Radio resource management and interference control

• Spread spectrum and UWB • Wireless access techniques

• Antennas and propagation

• Cross-layer air interface • Ad-hoc and mesh networks

• Wireless sensor networks

• Wireless communications testbed development

• Wireless privacy and security

• Physical-layer aspects of cellular networks such as UMTS,

LTE, LTE-Advanced

• Signal processing, including VLSI architectures

• Mobility management and modeling • QoS provisioning

• Wireless network architectures and technologies

• Information and communication theory

• Estimation and detection • Coding and modulation

• Turbo codes, LDPC and iterative decoding

• Innovative services and applications

• Localization techniques

• Network coding

• Spectrum sensing • Vehicular Networks (VANETs)

• Professional and military communications

Contact:

SEE/ISWCS 2012 registration office

17 rue de l’Amiral Hamelin - 75016 Paris

Tel.: +00 33 (0) 1 5690 3702 - Fax: +00 33 (0) 1 5690 3719

Conference > Photonics in Switching 2012Date: September 11-14, 2012 - Ajaccio, Corsica Island

This conference addresses devices, systems, and networks

which drive the design of promising future telecommunication

and computing systems and networks. In 2012, the Photonics

in Switching conference will include a forum called Telecom &

Energy and a symposium on Photonics in Data Centers and

Computing.

Topics:

• Optical switching components & devices

• Optical Switching functions & building blocks

• Optical systems • Optical networking

For more information please contact: PS 2012 Secretariat

c/o SEE - 17 rue de l’Amiral Hamelin - 75016 Paris.

Phone: 00 33 (0)1 56 90 37 02

Email: [email protected]

Web site: www.ps2012.net

Conference > MEA2012 European Conference on More Electric Aircraft Date: November 20-21, 2012 - Bordeaux

http://www.mea2012.eu

The new generation of wide-body aircraft, and the recently de-

monstrated 24h autonomous solar powered proof-of-concept air-

plane, all have in common highly sophisticated electrical power ma-

nagement systems and an increased number of all electric actuators.

Manifestations scientifiques ProchaineMent organisées Par la see

CNAM

Cop

yrigh

t ©Im

age&

son-

Cnam

jphauet
Rectangle
jphauet
Texte tapé à la machine
Vous voulez vous abonner à la REE ? Suivez le lien : Achetez un numéro ? Tel : 01 56 90 37 04
jphauet
Texte tapé à la machine
jphauet
Texte tapé à la machine
jphauet
Texte tapé à la machine
jphauet
Texte tapé à la machine