28
Numéro 2013 EDITORIAL La convergence des technologies de l’énergie, de l’électronique et du numérique au service de la société Gilles Schnepp ENTRETIEN AVEC Louis Pouzin Président de Open-Root www.see.asso.fr 4 ISSN 1265-6534 DOSSIERS Que dit le nouveau rapport du Giec sur le changement climatique ? Par Michel Petit L'ARTICLE INVITÉ La protection de l'accès aux données

Aperçu du numéro 2013-4 de la REE (octobre 2013)

Embed Size (px)

DESCRIPTION

Cet aperçu permet de découvrir le sommaire et les principaux articles du numéro REE 2013-4 publié en octobre 2013 - Pour s'abonner, merci de vous rendre à la dernière page.

Citation preview

Page 1: Aperçu du numéro 2013-4 de la REE (octobre 2013)

ÉNERGIE TELECOMMUNICATIONS SIGNAL COMPOSANTS AUTOMATIQUE INFORMATIQUE

Num

éro

2

013

EDITORIAL La convergence des technologies

de l’énergie, de l’électronique et du numérique au service de la société

Gilles Schnepp

ENTRETIEN AVEC Louis Pouzin

Président de Open-Root

www.see.asso.fr

4

ISSN

126

5-65

34

DOSSIERS

Que dit le nouveau rapport du Giec sur le changement climatique ? Par Michel Petit

L'ARTICLE INVITÉ

La protection de l'accès aux données

jphauet
Zone de texte
Cette aperçu gratuit permet aux lecteurs ou aux futurs lecteurs de la REE de découvrir le sommaire et les principaux articles du numéro 2013-4 de la revue, publié en octobre 2013. Pour acheter le numéro ou s'abonner, se rendre à la dernière page.
Page 2: Aperçu du numéro 2013-4 de la REE (octobre 2013)

REE N°4/2013 Z 1

L es industries électriques, électroniques et de com-munication transforment en profondeur notre socié-té. Elles constituent un vecteur essentiel et croissant du progrès sociétal et économique, ainsi qu’en té-

moignent les emplois et richesses qu’elles créent directement ou au travers des progrès qu’elles induisent dans tous les autres secteurs.En effet, c’est grâce aux solutions et technologies imaginées par les chercheurs, puis développées et mises en œuvre par les ingénieurs et les techniciens des entreprises de notre secteur, que notre société pourra relever les défis du siècle : transition environnementale et éner-gétique, sécurité, santé ou bien-être… Ce sont ces évolutions tech-nologiques et le croisement des industries électriques, électroniques et numériques qui insufflent de l’intelligence, rendent les objets com-municants et permettent une gestion plus efficace des systèmes, des applications et des réseaux.La FIEEC est le creuset naturel où les secteurs porteurs de ces dif-férentes technologies se rencontrent, échangent et définissent en commun leurs perspectives d’avenir. Cette réflexion prospective est pri-mordiale et doit être approfondie en permanence afin que la profession puisse mieux appréhender l’avenir, mesurer pleinement son apport à la société et porter ses priorités dans le débat public. Ainsi la Fédération constitue une plate-forme unique de progrès où les industriels du secteur imaginent ensemble les résultats potentiels du croisement de leurs technologies sur les marchés du futur. C’est aussi le socle des échanges avec les secteurs connexes et partenaires avec lesquels il est souvent nécessaire de partager les expériences pour répondre à des préoccupations communes.Dans notre profession plus que dans toute autre, la notion de conver-gence est créatrice de valeur. Nous devons analyser les besoins de la société et imaginer comment la convergence des technologies permet-tra de développer des réponses nouvelles à ces grands défis qui se posent à la société. Nous pensons demain en termes d’usage, ce qui nous invite à dépasser les clivages sectoriels.Notre industrie joue un rôle majeur dans l’économie nationale. Elle a une contribution directe à l’économie grâce à ses nombreux centres de recherche et développement, ainsi que grâce à ses sites de production sur tout le territoire, qui emploient des centaines de milliers de salariés et génèrent des dizaines de milliards d’euros de chiffre d’affaires. Le secteur contribue donc fortement à générer de la croissance et des em-plois en France et représente un potentiel d’exportations très important.

Mais l’effet économique de notre industrie ne se limite pas à son ap-port propre : fortement « pervasive », elle est également une source majeure d’innovations et irrigue l’ensemble des autres secteurs de l’économie. Grâce à elle, tous les autres domaines innovent et créent des produits et services à forte valeur ajoutée technologique qui remplissent toujours plus de fonctions en se basant sur une infrastructure électrique et numérique performante, fiable et sécurisée.Le secteur des industries électriques, électroniques et de commu-nication est donc particulièrement stratégique pour notre pays. Afin de réaliser pleinement son potentiel, nous devrons capitaliser sur un de nos principaux atouts : la force de notre capital humain. Nous avons la chance de disposer dans notre pays de formations de pointe et de chercheurs, d’ingénieurs et de techniciens très performants.Il est capital que nous puissions non seulement continuer sur cette voie d’excellence, mais aussi que nous fassions en sorte que cette source de compétitivité ne se tarisse pas. Pour cela, la FIEEC (Fédération des Industries Electriques, Electroniques et de Communication) œuvre sans relâche pour renforcer l’attractivité de ses métiers industriels au travers d’actions de rapprochement avec le monde de l’éducation nationale, telles que « Classe en entreprise ». Pour autant, il est aussi essentiel de former les talents de demain aux nouvelles techniques. Notre profession s’est ainsi résolument engagée en ce sens avec nos partenaires des télécommunications ou du bâtiment pour former des salariés performants dans de nouveaux domaines, tels que l’efficacité énergétique des bâtiments ou le déploiement de la fibre optique. Alors que les marchés du futur nous ouvrent de nouvelles opportunités, il serait regrettable que nous ne puissions les atteindre faute de salariés formés de manière adéquate et en nombre suffisant.L’avenir sera façonné par la convergence de nos technologies. La double transition énergétique et numérique est un défi que nous pouvons et que nous devons relever. Nos industries ont la volonté nécessaire et tous les atouts en main pour y réussir.Le temps de l’action est désormais venu et notre profession est prête à s’y engager fermement.

Gilles Schnepp Président de la FIEEC

(Fédération des Industries Electriques, Electroniques et de Communication)

La convergence des technologies de l’énergie, de l’électronique et du numérique

au service de la société

EDITORIAL GILLES SCHNEPP

Page 3: Aperçu du numéro 2013-4 de la REE (octobre 2013)

2 Z�REE N°4/2013

sommaireNuméro 4 2013

1 EDITORIAL La convergence des technologies de l’énergie, de l’électronique

et du numérique au service de la société Par Gilles Schnepp

2 SOMMAIRE

4 FLASH INFOS Deux lauréats du prix Nobel pour le boson de Higgs On sait désormais stocker les photons pendant une minute 6 Des pico-systèmes photovoltaïques pour faciliter l’accès à l’électricité 8 Les pico-projecteurs lasers arrivent sur le marché8 De l’eau pour son smart phone…..9 Des voitures communicantes grâce à Car-to-X©

10 Un nouveau concept de lignes 400 kV

12 A RETENIR Congrès et manifestations

14 VIENT DE PARAÎTRE La REE vous recommande

16 ARTICLE INVITÉ Que dit le nouveau rapport du Giec sur le changement climatique ? Par Michel Petit

25 LES GRANDS DOSSSIERS La protection de l’accès aux données Introduction : La protection de l’accès aux données Par Frédéric Cuppens

27 Contrôler les accès aux données numériques Par Alban Gabillon

35 Gestion des habilitations : modèles et architectures Par Abdelmalek Benzekri, François Barrère,

Romain Laborde

42 Protection des données biométriques pour le respect de la vie privée

Par Julien Bringer, Hervé Chabanne, Alain Patey

48 Pourquoi faire confiance aux circuits électroniques ? Par Jean-Luc Danger, Sylvain Guillet

p. 1

p. 25

p. 54

p. 16 p. 81 p. 94

Credit photo couverture : fotolia - logolord

Page 4: Aperçu du numéro 2013-4 de la REE (octobre 2013)

REE N°4/2013 Z 3

54 Les métamatériaux Introduction : Des matériaux naturels aux matériaux créés

et fabriqués par l’homme Par Alain Priou

59 Les métamatériaux : une solution pour l’ingénierie d’indice complexe

Par Redha Abdeddaim, Abdelwaheb Ourir, Jean-Michel Geffrin, Julien de Rosny, Gérard Tayeb

63 Métamatériaux à gradient d’indice pour les antennes-lentilles large-bande

Par Abdallah Dhouibi, Shah Nawaz Burokur, André de Lustrac, Alain Priou

68 Conception et caractérisation d’antennes à métamatériaux sur textiles

Par Mohamad Mantash, Anne-Claude Tarot, Sylvain Collardey, Kouroch Mahdjoubi

73 RETOUR SUR ... Le Centre National d’Études des Télécommunications

à Lannion : 50 années au service des Télécommunications Par Philippe Dupuis

81 ENTRETIEN AVEC... Louis Pouzin Président, Open-Root

85 ENSEIGNEMENT & RECHERCHE ParisTech : une ambition revisitée Par Yves Poilane

91 Echos de l’enseignement supérieur Par Bernard Ayrault

93 CHRONIQUE Scènes de chasse en Helvétie Par Bernard Ayrault

94 LIBRES PROPOS Les cercles de plomb Par Pierre Baqué

96 SEE EN DIRECT La vie de l'association

Page 5: Aperçu du numéro 2013-4 de la REE (octobre 2013)

4 Z�REE N°4/2013

FLASHINFOS

On sait désormais stocker les photons pendant une minute

Dans plusieurs Flash Infos, nous avons souligné l’enjeu qui s’attache à la mise au point d’architectures quantiques utilisant les propriétés des qubits, afin notamment de construire des ordinateurs quantiques dotés de perfor-mances très supérieures aux machines actuelles fondées sur le maniement de bits conventionnels.

Dans le numéro 2013-3 de la REE, nous avons présenté les progrès réalisés dans l’intrication spin-photon qui pourrait constituer une première étape dans la réalisa-tion d’architectures extensibles d’ordinateurs quantiques reposant sur un réseau de boîtes quantiques (quantum dots) où se feraient certaines opérations élémentaires sur les qubits et sur des photons intriqués assurant la transmission de l’intrication entre les différents nœuds du réseau de boîtes quantiques.

Ces schémas reposent sur le fait que le photon peut voyager sur de relativement longues distantes sans inter-agir significativement avec son environnement. On peut ainsi envisager de transmettre, pour des applications cryp-tographiques, des photons intriqués avec d’autres qubits

sur des distances très grandes dans des fibres optiques. Cependant, il restera nécessaire de développer des répé-teurs quantiques capables de stocker les états quantiques des photons et de les restituer après amplification sans al-tération des propriétés d’intrication de ces photons. Se pose alors la question du développement de mémoires quan-tiques. Que ce soit à longue distance ou à courte distance, la mise au point de mémoires quantiques est un élément clé du développement de toute architecture quantique.

On sait depuis quelques années construire en labo-ratoire des dispositifs de mémoires quantiques fonction-nant en milieu gazeux. Plusieurs dispositifs utilisant des phénomènes d’optique non linéaire ont été proposés pour ralentir la lumière voire l’arrêter complètement pen-dant une durée très courte. L’inconvénient des dispositifs « classiques » de ralentissement de la lumière est le fort taux d’absorption qu’ils entraînent.A partir de 2001, des expériences ont été menées en utilisant le phénomène optique de transparence induite électromagnétiquement (TIE). La TIE est un phénomène optique non linéaire qui apparaît lorsqu’un milieu excité par pompage optique reçoit un faisceau sonde. Il suppose que le milieu présente trois états possibles, par exemple

A l’heure où nous achevons le bouclage de ce numéro de la REE, le Comité Nobel vient de décerner le prix Nobel de physique 2013 à deux savants, le Belge François Englert, 81 ans, et l’Écossais Peter Higgs, 84 ans, afin de récompenser leurs travaux sur l’existence d’une particule élémentaire, qui sera dénom-

mée boson de Higgs, dont ils ont montré la nécessité, dès 1964, afin d’expliquer pourquoi, dans la théorie du modèle standard, certaines particules élémentaires avaient une masse et d’autres non.

François Englert, ainsi que son compatriote Robert Brout (!�2011), et Peter Higgs avaient travaillé séparément et étaient parvenus quasi-ment simultanément à des conclusions identiques.

Le 4 juillet 2012, le CERN (organisation européenne de recherche nucléaire) annonçait la découverte de ce nouveau venu grâce à l’im-posant accélérateur de particules LHC et ses deux détecteurs géants, ATLAS et CMS, comme l’a rappelé l’Académie royale des Sciences suédoise.

La REE a consacré plusieurs articles au suivi de cette « chasse » au boson, couronnée de succès en 2012. Le lecteur pourra se référer notamment à l’article d’Etienne Klein publié dans le N° 2011-5, au Flash Info inséré dans le N° 2012-4 et enfin à la chronique de Bernard Ayrault dans le présent numéro. !

François Englert.

Peter Higgs.

Deux lauréats du prix Nobel pour le boson de Higgs

Page 6: Aperçu du numéro 2013-4 de la REE (octobre 2013)

REE N°4/2013 Z 5

FLASHINFOS

deux états de base ́ �g��et ́ �s��et un état excité ́ �e�, tels que référencés dans la figure 1.

L’état excité peut être atteint par des transitions op-tiques autorisées. Parmi celles-ci figurent la transition di-recte ´�s� A�´�e��et la transition indirecte ´�s� A�´�e� A�´�g� A�´�e�. Ces transitions, sous certaines conditions, ont la même probabilité mais des amplitudes de probabilité de phases opposées. Elles interfèrent destructivement sous l’effet du faisceau de pompe et donne naissance, dans le spectre d’absorption du faisceau sonde, à une fenêtre de transparence lorsque le faisceau de pompe (ou faisceau de contrôle) est activé (figure 2).

Dans cette fenêtre, la probabilité de transition entre l’un des deux états de base et l’état excité s’évanouit et avec elle l’absorption de la fréquence correspondante. Mais le changement dans l’absorption entraîne un chan-gement extrêmement brutal dans l’indice de réfraction qui réduit la vitesse des pulses de lumière entrant, au point de l’annuler. En éliminant le faisceau de pompe quand la lumière de la sonde est dans le milieu, l’éner-gie des photons est convertie en excitation de spin des atomes (appelée vagues de spin) qui peut être conser-vée aussi longtemps que la cohérence entre les états de spins peut survivre. En rétablissant le faisceau de

contrôle, on « libère » la lumière qui est restituée avec ses propriétés quantiques (figure 3).

La durée pendant laquelle les photons peuvent être stockés dépend de la durée pendant laquelle peut être maintenue la cohérence des états de spin dans le mi-lieu atomique. Cette durée est fonction des interactions entre les atomes et leur environnement. Dans un premier temps, les durées de stockage des photons ont été limi-tées à quelques µs. En 2011, une équipe anglaise, ani-mée par Ian Walmsley de l’université d’Oxford, a proposé un système fonctionnant à température ambiante et utili-sant un nuage de vapeur de césium, matériau utilisé dans les horloges atomiques. Au début de l’année 2013, une équipe du Georgia Institute of Technology a obtenu des temps de stockage de 16 s en plaçant les atomes dans un réseau optique limitant leurs mouvements et donc leur interaction avec le milieu environnant.

L’expérience relatée en juillet 2013 par Georg Heinz, Christian Hubrich et Thomas Halfmann, de l’université de Darmstadt (Phys. Rev. Lett. 111, 2013), apporte des éléments nouveaux dans plusieurs directions. Elle utilise un milieu solide, en l’occurrence un cristal de silicate d’yt-trium dopé au praséodyme, Pr3+ : Y2SiO5. Il est clair que l’utilisation d’un milieu solide se prête mieux, a priori, à de futures applications industrielles. Par ailleurs, ce mi-lieu présente des temps de relaxation de l’état excité (T1) d’environ 100 s, ce qui est assez long. Ce temps de relaxa-tion constitue la limite physique de la durée T2 pendant laquelle la cohérence des états de spin peut être main-tenue. Mais amener T2 proche de T1 posait de difficiles problèmes technologiques que l’université de Darmstadt

Figure 1 : Niveaux d’énergie dans un milieu donnant naissance à une transparence induite électromagnétiquement.

Figure 2 : Spectre d’absorption de la TIE. En rouge avec le faisceau de pompe et en bleu sans ce dernier. Source : Wikipedia.

Figure 3 : Dans le système à vapeur de césium, une impulsion laser du faisceau de pompe (en bleu) amène le système dans un état où il arrête la lumière. Le signal porté par un deuxième faisceau laser (en rouge) est stoppé et le photon est converti en ondes

de spin dans le matériau. Un deuxième pulse laser rétablit la transparence et le photon est réémis.

Source : Ian Walmsley & Al - University of Oxford.

Page 7: Aperçu du numéro 2013-4 de la REE (octobre 2013)

6 Z�REE N°4/2013

FLASHINFOS

est parvenue à surmonter en contrebalançant les divers facteurs de décohérence par des champs magnétiques ajustés en tenant compte de la jungle hyperfine des états d’énergie des atomes.

In fine, les chercheurs de Darmstadt sont parvenus à stocker la lumière pendant une période d’une minute en-viron, avec, il est vrai, un rendement très faible (de l’ordre de 0,05 %). La mémoire étant spatialement multimode, les chercheurs ont pu stocker une image constituée de trois bandes horizontales de 100 µm chacune, pendant une minute (figure 4).

Ces résultats sont très encourageants et illustrent la dynamique de la recherche dans le monde sur le déve-loppement de composants et d’architectures quantiques. Ils constituent un bel exemple de la possibilité de contrô-ler les processus de décohérence et d’interaction entre les photons et la matière.

Cependant, de grosses difficultés restent à surmon-ter avant de pouvoir envisager de construire un Internet quantique avec des routeurs capables de stocker puis de restituer des paquets de photons. Il faut tout d’abord être capable de traiter les photons un par un et donc réduire suffisamment le bruit créé par les méthodes utilisées pour accroître la durée de cohérence T2. Il faut trouver des sources de lumière quantique très fines compatibles avec la TIE (largeur de bande < 1 MHz). Il faut enfin ac-croître considérablement le rendement du stockage et permettre le fonctionnement à température ambiante.

De nouveaux matériaux semblent constituer de bons candidats pour permettre un allongement très important du temps de stockage. Le silicate d’yttrium dopé à l’euro-pium, Eu3+ : Y2SiO5, offre une durée de vie des états de spin de plusieurs jours et pourrait permettre d’atteindre des durées de stockage de 10 minutes. !

JPH

Des pico-systèmes photovoltaïques pour faciliter l’accès à l’électricité

1,6 milliard de personnes n’ont pas encore accès à l’élec-tricité dans le monde et, partant de là, aux services de base qui en dépendent : eau potable, premiers soins, éducation.

Depuis 40 ans, un gros effort a été mené dans de nombreuses régions du monde pour développer des sys-tèmes photovoltaïques d’alimentation domestique (Solar Home Systems ou SHS) capables d’offrir une puissance de l’ordre de 100 Wc à des habitations non raccordées au réseau. Une étude publiée récemment par l’Agence Inter-nationale de l’Energie (AIE) “Pico Solar PV Systems for Remote Homes” évalue à quelques millions le nombre d’installations réalisées en zones éloignées, avec en par-ticulier un million d’installations de ce type recensées au Bangladesh. Cependant, ce type de solution se heurte à l’obstacle du financement, compte tenu de son coût, et pose de gros problèmes d’installation et de maintenance. Par ailleurs, les populations concernées voient souvent dans ces solutions un « piège solaire » qui les conduit à se trouver écartées pour de nombreuses années d’un raccordement au réseau.

Dans ces conditions, l’étude précitée de l’AIE met l’ac-cent sur les perspectives à présent offertes par les pico-systèmes photovoltaïques offrant une puissance-crête allant typiquement de 0,3 à 10 Wc (figure 1).

L’intérêt pour ce type de systèmes résulte de diverses considérations techniques et économiques. Le prix des panneaux photovoltaïques a considérablement baissé et se situe désormais sensiblement en-dessous d’un euro par Wc (en grandes quantités). Simultanément, les conver-tisseurs et les batteries ont fait des progrès considérables, tant en termes de prix de revient que de performances.

Du côté des utilisations, le développement des LEDs1 a permis de porter aux environs de 100 lm/W l’efficacité lu-mineuse pouvant être obtenue en matière d’éclairage, soit 10 fois le niveau atteint par les lampes à incandescence conventionnelles. Les téléphones portables, au moins

1 Voir le dossier « La nouvelle révolution de l’éclairage » dans le numéro 2012-4 de la REE.

Figure 1 : Surface approximative de panneaux en fonction de la puissance-crête requise. Source : AIE.

Figure 4 : Récupération d’une image constituée de trois bandes après un stockage de durée variable.

Source : G. Heinze & al - Darmstadt university 2013.

jphauet
Rectangle
Page 8: Aperçu du numéro 2013-4 de la REE (octobre 2013)

16 Z�REE N°4/2013

Le GIEC et ses rapports

L e Giec, groupe intergouvernemental d’experts sur l’évolution du climat, a été créé en 1988 sous l’impulsion d’un grand scientifique suédois Bert Bolin avec une triple mission : faire le point

des connaissances sur le changement climatique, prévoir ses conséquences et ce qu’on peut faire pour s’y adapter et enfin examiner les possibilités de maîtriser l’ampleur de ce changement. Il est placé sous la double tutelle de l’Organi-sation météorologique mondiale (OMM) et du Programme des Nations Unies sur l’environnement (PNUE). Depuis cette date, il cordonne régulièrement la rédaction d’un rapport général, confiée à trois groupes de travail qui font le point sur chacun des trois volets : analyse scientifique du changement climatique, conséquences et adaptation, mitigation, c’est-à-dire maîtrise des émissions de gaz à effet de serre (ou GES).

C’est la contribution du groupe I au 5e rapport qui vient d’être approuvée fin septembre. Les rapports précédents datent de 1990, 1995, 2001 et 2007. Comme il est de règle au sein du Giec, cette contribution analyse tous les travaux publiés et présente tous les points de vues et toutes les in-certitudes. Elle se doit d’être pertinente pour les décideurs, mais s’interdit toute recommandation politique. Pour 60 % d’entre eux, les auteurs du cinquième rapport ne sont pas ceux qui ont participé au rapport précédent. Le rapport final a été précédé d’une large consultation de la communauté scientifique internationale. Une première version du rapport a été soumise, du 16 décembre 2011 au 10 février 2012, à l’avis de tous les experts mondiaux connus ou désignés, soit par les états membres, soit par les ONG concernées qui ont un statut d’observateur. Les commentaires reçus ont été regroupés ligne par ligne. On sait ainsi que la ligne 15 de la page 28 du chapitre 6 a recueilli huit commentaires. Le sort réservé par les auteurs du chapitre à chacun des commen-taires est enregistré et disponible pour tous. Une 2e version a été rédigée et soumise, du 5 octobre au 30 novembre 2012, aux mêmes experts et à tous les gouvernements membres du Giec qui peuvent consulter leurs propres experts et en-voyer une série consolidée de commentaires. Ces commen-taires ont été traités comme ceux faits sur la 1ère version. La version finale n’a été rédigée qu’après ces allers-retours et a

été approuvée en assemblée plénière en septembre 2013. Il faut ajouter que chaque contribution d’un groupe au rap-port est résumée dans un sommaire pour décideurs qui est approuvé mot à mot lors de l’assemblée plénière. Ainsi, une version préliminaire de ce sommaire avait été soumise aux gouvernements du 7 juin au 2 août 2013.

La lourdeur de ce processus est la contrepartie du sérieux de la procédure d’examen mondial des rapports qui est sans équivalent. Les rapports du Giec peuvent donc être consi-dérés comme des documents fiables, reflétant non les vues de quelques individualités ou coteries, mais comme l’ana-lyse objective des connaissances scientifiques sur un sujet qui concerne le devenir de notre cadre de vie. De plus, le degré de certitude de chaque conclusion est clairement indi-qué, ainsi que les controverses éventuelles. Dans cet article, toutes les figures sont tirées du dernier rapport du Giec.

La compréhension du climat

Avant d’aborder le problème de l’influence humaine sur le climat, il est utile de rappeler l’histoire de la science du climat qui n’est pas neuve et balbutiante, comme certains tentent de le faire croire. Il y a près de deux siècles que Fourier, un spécialiste de la conduction de la chaleur dans les solides, a cherché à évaluer si le transfert de la chaleur du noyau de la Terre vers sa surface pouvait expliquer la température qui y régnait. Comme souvent en recherche, ses travaux débou-chèrent sur quelque chose de très différent. Il s’aperçut que la chaleur reçue du Soleil était beaucoup plus grande que la chaleur issue du sous-sol. La puissance du flux lumineux solaire qui éclaire la Terre est de 1,3 kW par m! de surface perpendiculaire aux rayons solaires. Un tiers environ de ce rayonnement est réfléchi dans l’espace par l’atmosphère et le sol et les deux tiers restants sont absorbés essentiellement par la surface du sol et de la mer. L’énergie reçue par m! dépend de l’angle des rayons solaires par rapport au sol. Elle est donc plus forte au voisinage de l’équateur qu’au voisinage des pôles. Il en résulte un mouvement des eaux océaniques et des gaz atmosphériques qui tend à réduire cet écart. Ce dernier constitue donc un moteur essentiel des courants d’ensemble qui affectent l’océan et l’atmosphère et redistri-buent aux diverses latitudes l’énergie fournie par le soleil.

Que dit le nouveau rapport du Giec sur le changement climatique ?

L'ARTICLE INVITÉ MICHEL PETIT Membre correspondant de l’Académie des sciences

Page 9: Aperçu du numéro 2013-4 de la REE (octobre 2013)

REE N°4/2013 Z 17

L'ARTICLE INVITÉ

Considérée dans sa globalité, la surface de la Terre (océans et continents) absorbe jour après jour du rayonne-ment solaire et elle ne peut cesser de se réchauffer indéfi-niment qu’en évacuant dans l’espace une quantité d’énergie égale à celle qu’elle reçoit. Elle le fait en envoyant elle-même dans l’espace des ondes de même nature que les ondes lumineuses du Soleil. Compte tenu de sa température qui est beaucoup plus faible, ces ondes sont d’une longueur d’onde plus grande, dans l’infrarouge qui est invisible pour l’œil humain. Ce rayonnement commence par traverser l’atmos-phère et plus cette dernière contient de gaz ayant la propriété de l’absorber, moins grande est l’énergie qui peut s’échapper dans l’espace. La présence de tels gaz tend donc à accroître la température de la Terre. On dit ces gaz produisent un effet de serre, par analogie avec l’un des phénomènes qui sur-viennent dans les serres des jardiniers. Ce phénomène est bien présent dans les serres de jardinier mais en outre, ces dernières éliminent les pertes de chaleur par conduction et convection qui n’existent pas pour la Terre isolée dans le mi-lieu interplanétaire. Ce terme « effet de serre » peut introduire une ambigüité, même si son emploi s’est généralisé.

L’atmosphère de la Terre contient naturellement de la vapeur d’eau et du gaz carbonique (CO2) qui sont des gaz à effet de serre (GES) et sans leur présence, la température au sol serait inférieure d’une trentaine de degrés à ce qu’elle est : l’effet de serre a permis l’apparition de la vie. Les autres planètes sont régies par les mêmes lois physiques et c’est ainsi que l’atmosphère dense de Vénus, composée essentiel-lement de CO2, donne lieu à un effet de serre très important qui explique la température de 450 °C qui y règne.

Les variations naturelles du climat

Indépendamment des activités humaines, le climat de la Terre évolue sous l’influence de causes naturelles qui ont toujours existé et continueront à jouer un rôle certain. Depuis sa naissance, le climat de la Terre a beaucoup changé, la composition de son atmosphère et la position des continents ayant beaucoup varié. Pour se limiter aux évolutions au cours du dernier million d’années durant lequel l’espèce humaine s'est répandue, les variations observées peuvent être expli-quées par les phénomènes naturels suivants :

Soleil, à cause de l’attraction des autres planètes et de la Lune :- L’axe de rotation autour duquel la planète tourne sur elle-

même en un jour est plus ou moins incliné par rapport au plan dans lequel elle accomplit sa rotation annuelle autour du Soleil ;

- L’aplatissement de l’ellipse qu’elle décrit dans ce plan est plus ou moins marqué ;

- Le mois au cours duquel la Terre est au plus près du Soleil varie lui aussi.

Toutes ces variations se produisent lentement, avec des périodes qui se mesurent en dizaines de milliers d’années. Elles provoquent des changements dans la manière dont le Soleil éclaire notre planète et sont à l’origine des grands cycles glaciaires-interglaciaires dont l’amplitude est de l’ordre de 4 à 5° C et la périodicité d’environ 100 000 ans.

Nous sommes depuis 10 000 ans dans une période inter-glaciaire, donc chaude. L’existence de ces cycles glaciaires au cours du dernier million d’années a été mise en évidence par des études géologiques et confirmée par l’analyse de ca-rottes de glace prélevées dans l’Antarctique jusqu’à une pro-fondeur de 3 km. Ces carottes contiennent des bulles d’air dont l’âge croît avec la profondeur. L’air initialement présent entre les flocons de neige a été piégé dans la glace qui s’est formée à partir de la neige tassée par le poids des précipita-tions ultérieures. Sa teneur en CO2 peut ainsi être mesurée et la composition isotopique1 de l’eau qu’elle contient permet de reconstituer la température. Des carottes prélevées à dif-férentes profondeurs ont permis de reconstituer la tempéra-ture et la teneur en CO2 au cours des derniers 800 000 ans.

en particulier par la présence de tâches à sa surface, dont le nombre varie avec un cycle de 11 ans. La variation de ce rayonnement solaire se produit essentiellement dans la gamme de l’ultraviolet et affecte donc le comportement des parties les plus élevées de l’atmosphère terrestre qui l’absorbent : ionosphère (altitude de 100 km et au- delà) et, dans une moindre mesure, stratosphère (altitude d’environ 30 km). Ces variations ne concernent que très peu l’énergie totale rayonnée par le Soleil et leur influence n’est que très faible sur les phénomènes climatiques. Il existe aussi des variations à long terme du rayonnement total du Soleil, comme l’accroissement observé depuis le minimum, « dit de Maunder », à la fin du 17ème siècle, dans le nombre des tâches solaires, mais leur amplitude limitée ne saurait expliquer les variations du climat, au cours des dernières décennies. D’après le dernier rapport du Giec, il semble acquis que les changements dans le rayonnement solaire total mesurés par satellite, n’ont pas contribué à l’accroissement de la température de surface au cours de la période 1966-2008.

un rôle sur la température au sol. Lors des fortes éruptions volcaniques, des poussières atteignent la stratosphère (au-

1 Deux isotopes ont les mêmes propriétés chimiques, mais leur masse ato-mique est différente et ils se comportent différemment lors des processus d’évaporation et de condensation de l’eau. Les glaces polaires résultant des chutes de neige sont en conséquence plus riches en isotopes lourds que l’océan. La composition isotopique des glaces polaires permet donc de reconstituer la température. Une explication plus complète requiert de longs développements qu’on trouvera dans des ouvrages spécialisés, par exemple « Incertitudes sur le climat » de Katia et Guy Laval (éditions Belin 2013) dont l’intérêt va bien au-delà de cette question particulière.

jphauet
Rectangle
Page 10: Aperçu du numéro 2013-4 de la REE (octobre 2013)

REE N°4/2013 Z 25

LES GRANDS DOSSIERSIntroduction

La création de l’Internet dans les années 90 puis le développement de la téléphonie mobile ont radicalement changé notre façon de commu-niquer et d’échanger des données. De plus en plus d’informations sensibles ou relevant de notre vie privée sont ainsi régulièrement échangées sur les réseaux. Cette révolution des moyens de communication s’est accompagnée d’une amplifi-cation des risques d’attaques ciblant les systèmes d’information. La prise de conscience des utilisateurs a cepen-dant été assez progressive. Il a fallu attendre que des incidents de sécurité majeurs surviennent dans divers systèmes d’infor-mation pour que les vendeurs de solutions matérielles ou logi-cielles commencent à intégrer des mécanismes de protection ou de détection d’attaques dans leur offre commerciale.

La problématique de la sécurité des systèmes d’informa-tion est un très vaste sujet qui recouvre un large spectre de techniques, allant de la cryptographie quantique à la détection d’intrusion en passant par les techniques de tatouage, la bio-métrie, la gestion et la fédération des identités, l’analyse et la gestion des risques, l’expression et le déploiement de poli-tiques de sécurité sans oublier les problèmes de protection de la vie privée et de gestion de la confiance. Ce dossier vise, plus particulièrement, à donner un aperçu des problèmes de sécu-rité et des solutions existant aujourd’hui pour protéger l’accès aux données. Plusieurs raisons expliquent pourquoi nous sou-haitons protéger certaines données : (1) elles doivent rester confidentielles et nous souhaitons garantir que seuls des utili-sateurs autorisés puissent les consulter, (2) elles doivent rester intègres et nous souhaitons garantir que seuls des utilisateurs autorisés puissent les modifier et enfin (3) elles doivent être disponibles et nous souhaitons assurer que les utilisateurs autorisés puissent y accéder quand ils en ont besoin.

La première solution qui vient naturellement à l’esprit pour assurer la confidentialité des données est l’utilisation des techniques de chiffrement pour protéger les données lorsqu’elles sont stockées sur un support informatique ou lorsqu’elles sont transmises sur un réseau de communica-tion. Le chiffrement est pertinent mais ne résout pas tous les problèmes. En effet, les serveurs doivent généralement pouvoir déchiffrer les données pour effectuer différents trai-tements sur ces données tels que, par exemple, évaluer des requêtes ou réaliser des calculs faisant intervenir ces don-nées. Des attaques sont alors possibles lorsque le serveur manipule les données en clair pour effectuer ces traitements.

Pour protéger les données sensibles héber-gées par ces serveurs, les solutions les plus communément déployées reposent sur des mé-canismes de contrôle d’accès. Ces mécanismes permettent (1) d’identifier et d’authentifier l’utili-sateur qui souhaite obtenir un accès aux données et (2) d’assurer que le traitement demandé par l’utilisateur est effectivement autorisé. Le présent dossier se focalise plus particulièrement sur les

différentes problématiques posées par le contrôle d’accès ainsi que les solutions associées.

Une question centrale est celle de la définition des droits affectés aux utilisateurs lorsqu’ils demandent à accéder aux données. La définition de ces droits repose sur l’expression de politiques d’autorisation. L’article d’A. Gabillon présente les différents modèles de contrôle d’accès qui ont été dévelop-pés et qui sont actuellement déployés pour exprimer des politiques d’autorisation. Il évoque le problème de l’évalua-tion des requêtes, l’objectif étant de retourner un résultat conforme à la politique d’autorisation qui s’applique à l’uti-lisateur qui présente la requête. Les différentes approches pour résoudre ce problème sont présentées et les spécifi-cités liées à l’utilisation de différents formats de stockage, tels que les tables relationnelles ou les formats XML et RDF sont analysées. Enfin, ces dernières années ont vu le dé-veloppement de nouveaux environnements pour gérer les données, notamment pour externaliser des données grâce à l’informatique dans le nuage ou pour traiter de gros volumes de données peu structurées avec le Big Data. Les nouveaux défis que posent ces nouveaux environnements en termes de sécurisation des données y sont discutés.

Une autre dimension du problème de contrôle d’accès concerne la définition de langages et d’architectures norma-lisés pour exprimer et déployer des politiques de contrôle d’accès. Dans ce contexte, l’article « Gestion des habilita-tions : modèles et architectures » de M. Benzekri, F. Barrère et R. Laborde porte sur les architectures des systèmes de gestion des identités et des autorisations : il présente, no-tamment, l’architecture normalisée bâtie sur le concept de serveur AAA (Authentication Authorization Accounting) ainsi que la proposition par l’OASIS de XACML, un langage norma-lisé pour exprimer des politiques de contrôle d’accès.

Les serveurs actuels permettent de stocker différents types de données tels que textes, images, messages audio, données vidéo, etc. Il convient d’y distinguer les données

La protection de l’accès aux données

Frédéric CuppensTélécom Bretagne

Page 11: Aperçu du numéro 2013-4 de la REE (octobre 2013)

26 Z�REE N°4/2013

LES GRANDS DOSSIERS Introduction

sensibles pour l’utilisateur, par exemple données confiden-tielles ou données à caractère personnel, et les données de sécurité elles-mêmes, telles que les mots de passe ou les données biométriques. L’article de J. Bringer, H. Chabanne et A. Patey traite des problèmes spécifiques liés au contrôle d’accès à des serveurs hé-bergeant des bases de données bio-métriques. L’article présente plusieurs techniques cryptographiques telles que le chiffrement homomorphe ou le chiffrement cherchable et montre comment ces techniques peuvent être utilisées pour assurer la protection selon que les données biométriques sont stockées en clair ou chiffrées.

Enfin, il est important de rappeler que le déploiement de solutions de contrôle d’accès doit, pour être effi-

cace, assurer une protection globale du système d’informa-tion. Ceci passe par la protection des réseaux sur lesquels les données sont transmises, les systèmes d’exploitation qui

implantent les fonctions de stockage des données ainsi que les applica-tions qui effectuent les traitements sur ces données. Lorsque des don-nées sont stockées ou transitent par des composants matériels tels que des cartes à puce, des attaques parti-culières exploitant les caractéristiques de ces composants sont possibles. L’article de J.-L. Danger et S. Guilley recense différents moyens pratiques pour attaquer un circuit et récupérer ou modifier les données sensibles qui y sont stockées. Il examine également plusieurs techniques pour concevoir des circuits résistant à ces attaques. Q

Contrôler les accès aux données numériques Par Alban Gabillon .......................................................................................................................................................................... p. 27

Gestion des habilitations : modèles et architecturesPar Abdelmalek Benzekri, François Barrère, Romain Laborde ....................................................................................... p. 35

Protection des données biométriques pour le respect de la vie privéePar Julien Bringer, Hervé Chabanne, Alain Patey ................................................................................................................ p. 42

Pourquoi faire confiance aux circuits électroniques ?Par Jean-Luc Danger, Sylvain Guilley ...................................................................................................................................... p. 48

LES ARTICLES

Frédéric Cuppens est professeur à Télécom Bretagne et animateur du réseau thématique « Sécurité des systèmes et services numériques » de l’Institut Mines-Télécom. Il a obtenu un doctorat de l’Ecole Nationale Supérieure de l’Aéronautique et de l’Espace et une Habilitation à Diriger les Recherches de l’Université de Toulouse III. Il mène depuis plus de 20 ans des travaux de recherche dans le domaine de la sécurité des systèmes d’in-formations et plus particulièrement sur la modéli-sation formelle de politiques de sécurité, le contrôle d’accès dans les réseaux et les systèmes d’infor-mation et la détection d’intrusion. Il a publié plus de 200 articles dans des revues et des conférences internationales à comité de lecture. Il est l’un des principaux concepteurs du modèle d’expression de politiques de sécurité Or-BAC (Organization Based Access Control) et a défini le module de supervi-sion de la sécurité CRIM (Corrélation et Reconnais-sance d’Intentions Malveillantes).

Page 12: Aperçu du numéro 2013-4 de la REE (octobre 2013)

REE N°4/2013 Z 27

LA PROTECTION DE L'ACCÈS AUX DONNÉES

Alban Gabillon Université de la Polynésie Française Laboratoire GePaSud EA4238

IntroductionUn modèle de contrôle d’accès comprend :

politique de contrôle d’ac-cès

politique d’administration -

Un mécanisme de contrôle d’accès --

-

Discretionary Access Control

Mandatory Access ControlRole Based

Access ControlContext-Based Access Control

(eXtensible Markup Language Resource Description Framework -

-

Modèles de contrôle d’accès Modèles de contrôle d’accès discrétion-naires (DAC1)

-

s, a, os o »2

-

-

-

1 Discretionary Access Control.2 Parfois ces triplets sont représentés en interne par le système

sous la forme de listes de contrôle d’accès (ACL). Une ACL est une liste de paires (sujet, action) attachée à un objet.

Contrôler les accès aux données numériques

In this paper, we first review existing access control models and their application. We consider Discretionary Access Control models (DAC), Mandatory Access Control (MAC) models, Role Based Access Control (RBAC) models and Context Based Access Control models. We then recall existing solutions for access control to relational data, eXtensible Markup Language (XML) data and Resource Description Framework (RDF) data. Finally, we investigate the new security and privacy issues in the framework of web service interconnection, cloud computing, Big Data and usage control.

ABSTRACT

Page 13: Aperçu du numéro 2013-4 de la REE (octobre 2013)

28 Z�REE N°4/2013

LA PROTECTION DE L'ACCÈS AUX DONNÉES

--

Facebook

-

Modèles de contrôle d’accès obligatoires (MAC3)

-

-

4

--

-

no read uplire

no write downécrire

no write down

3 Mandatory Access Control.4 Pour un modèle MAC visant à assurer l’intégrité des données, se référer

au modèle de Biba.

canaux cachés (covert channels

--

-

-

-

Modèles de contrôle d’accès à base de rôles (RBAC5)

-

rôle

-

5 Role Based Access Control.

jphauet
Rectangle
Page 14: Aperçu du numéro 2013-4 de la REE (octobre 2013)

54 Z�REE N°4/2013

LES GRANDS DOSSIERS Introduction

Introduction Les métamatériaux sont des matériaux arti-

ficiels conçus pour présenter des propriétés physiques qui ne sont pas rencontrées dans la nature. Les métamatériaux électromagnétiques possèdent une structure périodique de dimen-sions inférieures à celles des ondes électro-magnétiques dont ils affectent la propagation. Les métamatériaux sont devenus une nouvelle discipline de la physique et de l’électromagné-tisme. Leurs applications potentielles sont très diverses : les micro-ondes avec les antennes et les composants guidés, les télécommunications, la défense (antennes implantables, absorbants et radômes), la santé avec les capteurs intelli-gents et les systèmes acoustiques.

On sait que pour résoudre les équations de Maxwell, il faut connaître les équations « constitutives » qui relient les grandeurs champ électrique et champ magnétique aux pro-priétés intrinsèques des matériaux que sont la permittivité (¡) et la perméabilité (+), voire à d’autres paramètres de cou-plage traduisant la chiralité éventuelle du matériau1 (j,�c)2.

La forme générale de ces équations constitutives est don-née par les relations

dans lesquelles désigne le champ électrique, le champ d’induction électrique, le champ d’excitation magnétique et le champ magnétique. ¡,�j,�c�et +�sont de nature tenso-rielle et sont des matrices 3 x 3.

Dans ces équations, du fait des termes de couplage (j,�c), le champ électrique peut entraîner une polarisation magné-tique et le champ magnétique une polarisation électrique. Les ondes entrantes peuvent alors avoir un comportement diffé-rent des ondes sortantes. Cette forme d’anisotropie, s’ajoutant à l’anisotropie associée au caractère tensoriel de ¡�et + (c’est-

1 La chiralité traduit l’absence de symétrie qui interdit de superposer un système avec son image dans un miroir.

2 Le coefficient j est dénommé « paramètre de chiralité » et le coefficient c « paramètre de Tellegen ».

à-dire leur variation en fonction de la direction considérée), a conduit en 1968, le professeur J. A. Kong du MIT à appeler ces milieux des milieux « bianisotropes » [1].

D’ores et déjà, il convient de dire que les mi-lieux bianisotropes, dans le cas le plus général, n’existent pas dans la nature. On peut le regret-ter car un milieu polarisé pourrait alors s’aiman-ter et vice versa, ce qui pourrait contribuer à beaucoup d’applications dans le domaine des micro-ondes.

Sans prétendre lister tous les types de milieux naturels, on peut distinguer :

¡ et + sont des scalaires ;

¡ et +� sont tensoriels mais où n’existent pas de coefficients de couplage j,�c ;

qui sont construits de la main de l’homme.On peut classer les milieux isotropes dans un diagramme [¡,

+] faisant apparaître quatre quadrants (figure 1) selon le signe de ¡�et +.

¡ et + > 0 qui constituent 80 % environ des milieux naturels ;

¡ est < 0 et +�> 0. On y trouve de nombreux plasmas. Certains métaux (or, argent) présentent également cette caractéristique à des fréquences optiques ;

¡ est > 0 et + < 0 est le domaine des matériaux magnétiques au sens large. Il été démontré que les ondes à polarisation circulaire pouvaient s’y propager donnant naissance à des dispositifs divers comme les isola-teurs, les circulateurs et les déphaseurs non réciproques à ferrite largement utilisés dans les techniques radars et dans les télécommunications ;

¡ et + sont < 0 et donnent naissance à un indice de réfraction n < 03. Il a fallu attendre 1967 pour que le scientifique russe

3 , formule dans laquelle ¡ et + sont des grandeurs complexes.

Les métamatériauxDes matériaux naturels aux matériaux

créés et fabriqués par l’homme

Alain Priou Université

Paris Ouest Nanterre La Défense Laboratoire d’Energie,

de Mécanique et d’Electromagnétisme

Page 15: Aperçu du numéro 2013-4 de la REE (octobre 2013)

REE N°4/2013 Z 55

LES GRANDS DOSSIERSIntroduction

-ger dans de tels milieux, ondes obéissant aux équations de Maxwell permettant de déduire R et T [2].

Les structures des métamatériauxEn 1999, J. Pendry & al [3] ont proposé une variété de

structures planes périodiques qui selon eux permettraient de

Si ¡�= -1 et +�= -1, il vient = .

construire des métamatériaux. Ces structures consistaient en résonateurs en anneau fendu “split ring resonators (SRR)” équivalant à des boucles ou à des tubes conducteurs inter-rompus par un espace et de tiges conductrices périodiques continues ou discontinues. Un champ magnétique variable crée dans une telle structure « anneau » une force électro-motrice située dans le plan de l’élément, qui génère des cou-rants dans le conducteur. Le gap équivaut à une capacité permettant l’apparition d’un phénomène de résonance fonc-

Figure 1 : Classification en quatre quadrants des milieux complexes.

Figure 2 : Schéma d’un résonateur en anneau fendu (SRR) Source : Wikipedia.

Figure 3 : Dans le matériau de gauche, ¡ et + dérivent des atomes constitutifs – Dans celui de droite, ils dérivent

d’éléments constitutifs tels que des SRR.

Page 16: Aperçu du numéro 2013-4 de la REE (octobre 2013)

56 Z�REE N°4/2013

LES GRANDS DOSSIERS Introduction

tion de la géométrie de l’élément (figure 2). De tels éléments peuvent être assemblés en un métamatériau dans lequel ils conditionnent les valeurs de la permittivité ¡�et de la per-méabilité +, comme les atomes le font dans les matériaux naturels (figure 3).

En 2000, D.R. Smith & al [4], reprenant les idées de J. Pendry, a montré, pour la première fois, comment fabriquer ce type de matériaux qui n’existent pas dans la nature. Ils ont utilisé, comme cellule élémentaire, des tiges et des anneaux conducteurs montés en un réseau périodique 1 D ou 2 D (figures 4 et 5). En 2003, C.G. Parazolli & al [4] ont réalisé au Phantom Boeing Works une structure 3 D connue sous le nom de Boeing cube (figure 6).

et les premières réalisations de D.R. Smith & al ont ouvert tout

un champ nouveau de conception des matériaux fabriqués par l’homme.

“Insulation Lab MIT” (Dielectrics and Waves 1952, Artech

entre les propriétés des matériaux et les circuits électriques équivalents, il était possible de penser à réaliser des milieux à ¡ < 0 et + < 0 soit à indice n < 0. Il a, entre autres, montré l’existence de milieux à ¡ < 0 bien avant tout le monde en uti-lisant des circuits en T en W prédisant que le comportement que l’on peut avoir dans un milieu à ¡�< 0 était similaire au fonctionnement magnétique des ferrites, et ce avant le prix Nobel de Louis Néel sur la théorie des ferrites (1970).

Les vitraux de nos cathédrales (figure 7) sont encore un autre exemple de ce qui a été réalisé comme structure pério-dique filtrant ou modulant la lumière selon la journée. Est-ce une première application des métamatériaux en optique 4?

4 En 1857 Michael Faraday a synthétise la première solution de nanopar-ticules d’or pur. Il explique alors de manière empirique comment les nanoparticules métalliques modifient la couleur des vitraux.

Il faut attendre 1908 pour que G. Mie et P. Lilienfeld élabore une théorie qui explique la couleur des vitraux en fonction de la taille des nano-particules.

Figure 4 : Première structure « à main gauche » réalisée à l’UCSD (Université de Californie - San Diego) par D.R. Smith & al.

Figure 5 : Structure à résonateurs fendus à deux dimensions réalisée à l’UCSD par D.R. Smith.

Figure 6 : Structure 3D - Cube Boeing.

Figure 7 : Les vitraux - L’une des premières applications des métamatériaux.

Page 17: Aperçu du numéro 2013-4 de la REE (octobre 2013)

REE N°4/2013 Z 57

LES GRANDS DOSSIERSIntroduction

Les écrans sélectifs en fréquence (Frequency Selective Screens ou FSS) utilisés dans les absorbants, les radômes et décrits largement en 2000 dans un ouvrage de Ben A. Munk [6] représentent une première réalisation de structures pério-diques de petites dimensions (cellules élémentaires de l’ordre de h/4) fabriquées par l’homme (plus de 300 cellules élé-mentaires ont été créées correspondant à autant de fonctions filtres possibles). Un exemple est donné (figures 8 et 9) avec un dipôle linéaire monté en mur de blindage et une structure convoluée pour avoir des fonctions plus large bande.

Les métamatériaux sont fabriqués avec des cellules élé-mentaires périodiques dont les dimensions (périodicité des motifs et dimensions) restent très petites devant la longueur d’onde ce qui conduit à regarder ces matériaux comme assez homogène. Une très importante innovation dans ces struc-tures a porté sur la réalisation de surfaces à haute impédance

l’accordabilité de ces surfaces haute impédance (figure 10). C’était la première fois qu’une antenne à balayage électro-nique planaire était réalisée. C’était aussi la première fois que l’on pouvait :

h, alors que dans un fonctionnement normal l’épaisseur est de h/4 ;

-tique » parfait (PMC ou AMC) tout comme on dispose d’un conducteur électrique parfait, ce qui change le fonctionne-ment des antennes plaquées sur une paroi métallique, ren-force et améliore leurs propriétés (gain, directivité et niveau de lobes secondaires). C’est l’ouverture possible vers des antennes de plus petites dimensions plaquées sur une surface, conduisant à des antennes de faible épaisseur en basses fréquences en télécommunications.

L’ingénierie des métamatériauxCe qui est particulièrement intéressant avec ces struc-

tures à base de métamatériaux entièrement conçus et créés par l’homme, ce sont les possibilités de développer une ingé-nierie de milieux à indice complexe, de définir des milieux à gradient d’indice et de réaliser de nouvelles antennes sur ma-tériaux textile ouvrant un champ important vers de nouveaux dispositifs communicants en télécommunications sans fil.

Les trois articles de ce dossier illustrent ces possibilités. Le premier papier de R. Abdeddaim & al sur « les méta-matériaux, une solution pour l’ingénierie d’indice complexe » illustre cette possibilité de concevoir des matériaux nouveaux et de mimer des milieux homogènes ayant des propriétés de réflexion, de transmission et d’absorption contrôlées avec des structurations macroscopiques de motifs ou de cellules élémentaires simples. Les applications se rapportent aux an-tennes, aux absorbants et aux radômes.

Le deuxième papier de A. Dhouibi & al sur « les méta-matériaux à gradient d’indice pour les antennes-lentilles large bande » présente les possibilités de transformer une onde cy-lindrique en onde plane avec une lentille planaire constituée par des structures à gradient d’indice réalisée en technolo-gie circuit imprimé. Des métamatériaux complémentaires de type CCR (Complementary Closed Rings), qui sont des fentes annulaires rectangulaires dans un plan métallique posé sur un substrat diélectrique, ont été définis et réalisés

Figure 8 : Mur de blindage 300 Mhz-3 GHz, fabriqué avec des dipôles linéaires empilés sous forme de mur.

Source : Université de Kent, Méta’08. Figure 9 : Structure fractale ou convoluée d’éléments métalliques.

Source : Université de Kent, Méta’08.

Figure 10 : Surface haute impedance ou structure mushroom, champignon de Sievenpiper faite de cellules hexagonales reliées

au plan conducteur par un via et constituant un circuit LC.

Page 18: Aperçu du numéro 2013-4 de la REE (octobre 2013)

58 Z�REE N°4/2013

LES GRANDS DOSSIERS Introduction

pour la constitution du milieu à gradient d’indice de la lentille planaire. Les résultats expérimentaux valident le concept de ces lentilles planaires à gradient d’indice.

Le troisième article de M. Mantash & al sur « la conception et la caractérisation d’antennes à métamatériaux sur textiles » montre comment associer la structure conducteur magnétique artificiel (AMC) créée avec des motifs élémentaires périodiques

intégrable sur des tissus et favoriser le développement des systèmes de communications sans fil et de réseaux intelligents dans la tech-nique de miniaturisation des objets communicants de proximité (WPAN) ou centré sur la personne (WBAN). Les capteurs sur la personne sont très largement utilisés et l’amélioration de leurs performances par utilisation des

possibilités importantes pour les nou-veaux capteurs intelligents, intégrables et performants. Les auteurs montrent

-tenne permettant d’avoir la couverture nécessaire pour les bandes Wi-Fi et 4G/LTE tout en protégeant le corps du rayonnement parasite.

Ce sont quelques uns des concepts possibles de métamatériaux et de structures à base de métamatériaux

faisant ressortir les applications nouvelles envisageables asso-ciées au façonnage par l’ingénieur et le chercheur des proprié-tés des matériaux à employer.

Références[1] J. Au Kong, “EM Wave Theory”, EMW, 2008 4e edition.[2] V. G. Veselago, “The Electrodynamics of Substances with

Simultaneously Negative Values of ц and э (1967)”. Article publié en russe, traduit en anglais en 1968.

[3] J. Pendry & al, “IEEE Transactions on Microwave Theory and Tech-niques”, 47, 2075 (1999).

[4] R.A. Shelby, D.R. Smith & S. Schultz, “Science 292”, 77 (2001).

[4] C.G. Parazolli & al, “Phys. Rev. Lett. 90”, 107401-1 (2003).

[5] A. R. von Hippel, “Dielectric Ma-terials and Waves”, New York : Technology Press of M.I.T and Wiley (1952).

[6] B. A. Munk, “Frequency Selective Surfaces: Theory and Design”, Wiley (2000).

[7] D. Sievenpiper & al, “High-Impedance Electromagnetic Sur-faces with a Forbidden Frequency Band”, IEEE transactions on microwave theory and techniques - Vol 47 (novembre 1999).

Alain Priou est professeur CE2, DR en électro-nique et électromagnétisme à l’Université Paris Ouest Nanterre la Défense, site de Ville-d’Avray. Il est membre senior de la SEE, life senior mem-ber des IEEE MTT et APS, life fellow member de l’académie d’électromagnétisme du MIT. Il a été directeur adjoint du département de micro-ondes de l’ONERA-CERT de Toulouse jusqu’en 1998, puis responsable de la technologie radar à la DGA/DRET et STTS jusqu’en 2007 et enfin directeur du groupe d’Electromagnétisme Appliqué (GEA) devenu groupe Ondes Matériaux et Systèmes du Laboratoire Energie, de Mécanique et d’Electro-magnétisme (LEME-OMS) jusqu’en 2012. Il est à présent professeur émérite de l’université Paris-Ouest Nanterre la Défense, professeur Invité du Nankin université des sciences et technologies et d’autres universités. Il est président de la Com B de l’URSI France et du groupe de travail emploi-formation-recherche du pôle aéronautique ASTECH Paris Ile de France

Les métamatériaux : une solution pour l’ingénierie d’indice complexePar Redha Abdeddaim, Abdelwaheb Ourir, Jean-Michel Geffrin, Julien de Rosny, Gérard Tayeb ..................... p. 59

Métamatériaux à gradient d’indice pour les antennes-lentilles large-bandePar Abdallah Dhouibi, Shah Nawaz Burokur, André de Lustrac, Alain Priou .........................................................p. 63

Conception et caractérisation d’antennes à métamatériaux sur textilesPar Mohamad Mantash, Anne-Claude Tarot, Sylvain Collardey, Kouroch Mahdjoubi ........................................p. 68

LES ARTICLES

Page 19: Aperçu du numéro 2013-4 de la REE (octobre 2013)

REE N°4/2013 Z 59

LES MÉTAMATÉRIAUX

Redha Abdeddaim1, Abdelwaheb Ourir2, Jean-Michel Geffrin1, Julien De Rosny2, Gérard Tayeb1 Aix Marseille Université, CNRS, Centrale Marseille, Institut Fresnel, UMR 7249, Marseille1, Institut Langevin, CNRS, ESPCI2

IntroductionL’apparition des métamatériaux au début des

années 2000 [1] a ouvert de nouvelles perspec-tives dans le domaine des interactions ondes élec-tromagnétiques – matière. Ils ont permis, en prenant comme base de départ des structures simples, de réaliser des fonctions électromagnétiques complexes dans le domaine des micro-ondes [2] et puis plus ré-cemment dans le domaine optique [3]. Ces fonctions sont réalisées grâce à un contrôle fin de l’indice com-plexe. Effectivement, ces structures présentent, sous certaines conditions d’arrangement et de polarisation, une plage de variation remarquable en termes d’in-dice de réfraction. L’ingénierie de cet indice peut être réalisée à partir de différentes méthodes de structura-tion et de construction. Elle utilise les concepts d’ho-mogénéisation, de résonance de Mie [4], de modes piégés [5], de modes hybridés [6], ainsi que ceux de la théorie du couplage. Dans cet article, nous illus-trons quelques techniques permettant d’obtenir des valeurs particulières de perméabilité, de permittivité et d’indice.

La première structure étudiée permet de réaliser des milieux anisotropes dont la permittivité est néga-tive selon un de ses axes [7]. Nous étudions ensuite le cas des résonateurs métalliques qui permettent d’obtenir une perméabilité négative [8]. Ensuite, nous

nous intéressons aux réseaux de structures hybridées [9] qui permettent d’obtenir un indice négatif sans avoir recours à des résonateurs magnétiques. Enfin, nous abordons le cas des résonateurs diélectriques qui permettent aussi l’obtention d’indices complexes en utilisant les différentes interactions et couplages entre les modes propres électriques et magnétiques excitables dans ces structures [10].

Ingénierie de la permittivitéUne des méthodes les plus simples pour réaliser des

milieux de permittivité complexe est indéniablement la méthode des réseaux de tiges métalliques orientées parallèlement à la direction du champ électrique. Le point fort de cette technique vient du fait que la valeur de la permittivité dépend essentiellement du réseau [7]. Lorsque la période du réseau est faible devant la longueur d’onde, la permittivité effective est obtenue à partir de la période du réseau (d) et du rayon des fils (r) comme le montre l’équation (1).

avec (1)

La figure 1 montre la comparaison entre les ré-ponses simulées d’un réseau de tiges infiniment conductrices (r = 0,01, d = 1, hc = 5, h = 10) et une tige homogène de rayon 3,63 et d’indice imaginaire pur 1,35 i. On voit qu’il y a un très bon accord entre les deux cartes de champs représentées ci-après. Il est donc évident qu’à l’aide d’une structure très simple, il est possible de mimer le comportement d’un milieu homogène de permittivité négative. Un des incon-vénients de ces structures est que la dimension des tiges métalliques doit être grande devant la longueur d’onde dans la direction du champ électrique.

Les métamatériaux : une solution pour l’ingénierie d’indice complexe

In this article, we demonstrate the interest of using metamaterials in the index engineering domain.We show that using these structures makes it is possible to mimic the behavior of homogeneous media with given permittivity, permeability and refraction index values, realizing a macroscopic structuration of simple elementary patterns. The metamate-rials are therefore an attractive alternative to the microscopic structuration of matter.

ABSTRACT

Page 20: Aperçu du numéro 2013-4 de la REE (octobre 2013)

60 Z�REE N°4/2013

LES MÉTAMATÉRIAUX

Ingénierie de la perméabilité L’ingénierie de la perméabilité peut être faite de la même

façon que dans le cas des réseaux de fils. Dans ce cas, on remplace les tiges métalliques par des résonateurs à anneaux fendus imbriqués l’un dans l’autre avec un champ magné-tique qui leur est normal. La perméabilité s’exprime dans ce cas de la façon suivante [8] :

(2)

c et r sont respectivement l’épaisseur et le rayon de l’an-neau et a est le pas du réseau. L’utilisation de ce genre de structures est limitée au domaine micro-onde. Cette limite est due essentiellement à la vitesse des électrons qui devient finie dans le domaine optique. Une alternative pour atteindre des fréquences plus élevées est l’utilisation des milieux chiraux en forme de spire par exemple [12].

Ingénierie de l’indiceL’ingénierie de l’indice complexe nécessite d’agir simulta-

nément sur les deux réseaux cités ci-dessus. Une solution plus simple à mettre en place est de basculer sur des struc-

tures couplées dites à modes hybridés [6]. Effectivement, si on superpose deux résonateurs électriques dans la direction de propagation, le mode électrique fondamental (t0) d’un résonateur seul donne naissance à deux nouveaux modes : un mode électrique (t+) et un mode magnétique (t-) comme le montre le sens des courants sur la figure 2a et la réponse fréquentielle sur la figure 2b. Avec cette méthode, il devient facile d’agir sur ces deux modes simultanément en ajustant d’une part la dimension du résonateur pour travailler sur la permittivité et d’autre part la distance de couplage pour agir sur la perméabilité. Cette technique nous offre un degré de liberté supplémentaire qui est la symétrie. Effectivement, si on agit sur la symétrie du réseau, il est possible de changer la position fréquentielle des modes (figure 2b), de les cou-pler et ainsi d’obtenir un indice complexe donné. La figure 2c montre un exemple de réalisation d’un milieu isotrope à indice négatif [13] conçu avec cette méthode.

Bien qu’avantageuse cette méthode peut être difficile à mettre en place pour réaliser des structures fonctionnant à de faibles longueurs d’onde. Effectivement, comme le cou-plage de modes se fait à partir de brisure de symétrie, des problèmes de précision d’alignement peuvent vite se poser.

Figure 1 : Comparaison entre la réponse d’un réseau de tiges et d’un milieu homogène – (a) : carte de champ d’un réseau de tiges - b : milieu équivalent) [11].

(a) (b)

Figure 2 : Milieu isotrope à indice négatif par hybridation de modes (a : modèle d’hybridation - b : courbes de transmissions avec trois types de résonateurs - c : indice négatif selon deux types de polarisation) [13].

jphauet
Rectangle
Page 21: Aperçu du numéro 2013-4 de la REE (octobre 2013)

REE N°4/2013 Z 73REE N°4/2013 Z 73

RETOUR SUR !!!!!!!!!

Philippe Dupuis

En 1963, le Centre National d’Études des Télé-communications inaugurait son site de Lannion. Ce nouveau site allait non seulement être un puissant moteur dans l’évolution des technologies de télécom-munications mais également un catalyseur pour le développement d’une industrie de pointe dans une région à l’origine rurale et maritime.

La fondation du CNET LannionDurant les années 1950 le CNET, installé en Région

parisienne, a connu une forte croissance de ses effec-tifs à l’initiative de Pierre Marzin, son principal fonda-teur en 1944 et directeur à part entière à partir de 1954. Origi-naire de Lannion il a répondu en 1955 à un appel à projet du Comité interministériel Sur-leau pour la décentralisation de services et établissements scientifiques et techniques de l’État en province. Le projet d’un deuxième établissement du CNET en province est re-tenu en même temps qu’une vingtaine d’autres projets. Il reste alors à en fixer le lieu. Cer-tains, notamment dans le Comité Surleau, verraient bien Grenoble, pôle scientifique déjà reconnu. La Côte d’Azur est aussi attractive, car c’est là qu’IBM et son principal fournisseur de semi-conducteurs Texas Ins-truments s’installeront au début des années 1960. P. Marzin obtient le choix de Lannion, grâce au fort appui de René Pleven, ancien Président du Conseil et chef de file du Comité d‘Études et de Liaison des Intérêts Bretons (CELIB), de surcroît bon connaisseur des télécommunications pour avoir exercé des res-

ponsabilités commerciales et financières de 1929 à 1939 au sein du groupe anglo-américain Automatic Electric, troisième fabricant mondial de centraux télé-phoniques.

La décision de la création du CNET Lannion, prise au début 1958, est confirmée en décembre 1958 par le gouvernement du Général de Gaulle avec une pre-mière enveloppe de 500 emplois. Le premier dépar-tement, celui des essais en vol, s’installe à proximité de la piste de l’aérodrome et l’acquisition des terrains du futur centre est réalisée tambour battant. Des pro-grammes de logement sont lancés à Perros-Guirec et Lannion. Une ligne aérienne CNET avec de vieux Dakotas, surplus de l’armée américaine, est mise en place entre Lannion et Villacoublay. Ainsi le centre de

Lannion, inauguré en 1963, est le premier des projets vali-dés par le comité Surleau à être mis en place, d’autres le seront plus tard notamment à Toulouse et Nancy.

Dans le même temps P. Marzin, impressionné par l’engagement américain dans le domaine des satellites, éta-blit une coopération avec les Bell Labs. Ainsi la première transmission transatlantique d’une image de télévision est

obtenue le 11 juillet à 1h30, heure française, avec ré-ception des images à Pleumeur-Bodou, belle réussite technique et formidable opération de communication [1]. Le Général de Gaulle vient saluer l’évènement en octobre 1962 en apportant une enveloppe supplé-mentaire de 500 emplois pour le CNET Lannion, dont le Directeur Louis-Joseph Libois a été nommé un an auparavant. Le CNET Lannion s’engage dans le do-maine spatial en effectuant des recherches limitées sur des composants, notamment les masers, et en

Le Centre National d’Études des Télécommunications à Lannion : 50 années au service des Télécommunications

Figure 1 : Inauguration du CNET Lannion le 23 octobre 1963 par J. Marette ministre des PTT.

Source : Orange/DGCI

Page 22: Aperçu du numéro 2013-4 de la REE (octobre 2013)

74 Z�REE N°4/2013

!!!!!!!!!!! RETOUR SUR !!!!!!!!!!!!!! RETOUR SUR

soutenant dès 1963 la création d’une Centre de Métérologie Spatiale à Lannion, toujours actif aujourd’hui.

Le grand projet numériqueLe codage numérique de la parole avait été inventé aux

laboratoires LMT de Paris en 1938 et plus largement la théo-rie des communications avait fait l’objet de nombreuses publications au lendemain de la guerre, avec un temps fort celui de la Conférence IRE1 de New-York en novembre 1947, où l’idée de convergence numérique était déjà présente : “Pulse-code modulation (PCM)2 can be used also to trans-mit radio programs, pictures, and teletypewriter signals” [2]. En France l’Onde Électrique3 s’en était fait l’écho avec des articles de Jacques Laplume en 1949 et de Pierre Aigrain en 1950. L.-J. Libois et son adjoint André Pinet étaient alors des jeunes chercheurs en transmission au CNET. Conseillés par Paul Gloess un ancien de LMT, ils travaillent sur le codage PCM avec des tubes électroniques vers 1947 puis avec des transistors vers 1958 sans pouvoir dépasser le stade du labo-ratoire. Convaincus depuis 1947 par la convergence numé-rique et confortés par la lecture d’un article d’un chercheur d’IBM, prédisant que le développement proche des circuits intégrés allait provoquer simultanément l’avènement de ce qui s’appellera l’informatique et la numérisation des réseaux téléphoniques, ils lancent un grand projet numérique en 1963 avec une première étape, centrée sur la commutation temporelle synchrone, qu’ils nomment Platon.

L’équipe d’A. Pinet grandit au fil des années, réalise des ma-quettes de préfiguration et tâtonne tout en gardant l’objectif d’aboutir à un prototype opérationnel. Le premier ordinateur

1 L’IRE s’intègrera à l’IEEE plus tard.2 En français Modulation par Impulsions Codées (MIC).3 L’Onde Electrique était une des revues de la SEE qui ont précédé la REE.

de gestion de la commutation est un ordinateur Packard-Bell PB 250, basé sur des mémoires à lignes magnétostrictives. Les organes de commande en temps réel du commutateur (établissement, taxation, rupture des communications) sont réalisés aussi avec des mémoires à lignes magnétostrictives suivant une architecture décentralisée des organes, décidée par défaut en 1963 à contre-courant de la vision des Bell Labs, qui privilégie une commande centralisée, nécessitant une pro-grammation hors de portée du CNET Lannion. Quels circuits intégrés pour le codage PCM ? En 1965 les premiers circuits intégrés disponibles sont de type DTL à base de diodes, fabri-qués notamment par Fairchild. Leur emploi est maîtrisé par les équipes de Lannion, mais A. Pinet fait le choix risqué de la nouvelle génération TTL, plus rapide et à base de transistors, encore au stade de présérie en 1966 chez Texas Instruments.

Le premier prototype, réalisé par le CNET, est mis en ser-vice en janvier 1970 à Perros-Guirec avec plusieurs centaines d’abonnés. Un partenariat de co-développement a été établi en 1966 avec la toute jeune Société Lannionaise d’Electro-nique (SLE), filiale de la CGE. Plusieurs ingénieurs du CNET y sont transférés pour y assurer le développement industriel. Jusqu’en 1972 le projet PLATON reste dirigé par A. Pinet. La SLE fabrique en deux ans tous les commutateurs et équipe-ments de transmission permettant la numérisation du réseau téléphonique du Trégor de Lannion à Paimpol et Guingamp, première mondiale en 1972.

A la conférence d’Atlanta en 1977 la commutation numé-rique est reconnue par la communauté entière des télécom-munications comme la seule technique pour l’avenir. De plus comme le reconnaîtra le principal expert de la commutation du CNET Issy-les-Moulineaux : « cette structure décentrali-sée, très en avance sur son temps, s’est révélée être un bon choix lorsque sont apparus les microprocesseurs » [3].

Figure 2 : Le central téléphonique prototype Platon de Perros-Guirec (1969). Source : Orange/DGCI. Figure 3 : Prix Armstrong de l'IEEE attribué à André Pinet.

jphauet
Rectangle
Page 23: Aperçu du numéro 2013-4 de la REE (octobre 2013)

REE N°4/2013 Z 81

Open-Root, présidentENTRETIEN AVEC LOUIS POUZIN

REE : Vous venez de recevoir le 1er Queen Elizabeth Prize for Engineering, pour votre contribution majeure à la création et au développement de l’Internet. Pouvez-vous nous situer le cadre de vos travaux ?L. P. : Le développement des machines informatiques a fait apparaître à la fin des années 60 le besoin d’y connecter des utilisateurs distants. C’était la préoc-cupation principale des fournisseurs de machines. Mais il a amené aussi de nombreuses équipes à tenter d’intercon-necter les ordinateurs entre eux pour les mettre en réseau.

Nous étions à l’époque du plan calcul : le gouvernement avait stimulé la créa-tion de la CII en regroupant les forces qui existaient en France et avait créé l’IRIA qui deviendra plus tard l’INRIA. L’idée était de créer un pôle français de l’informatique qui pourrait contribuer au développement d’un consortium industriel européen. Mais la délégation à l’informatique qui pilotait cette politique avait conscience de la faiblesse du dispositif industriel français et recherchait un domaine dans lequel la France pourrait avoir un leadership technique. Une mission d’information technique aux États-Unis au cours de laquelle avait été présenté l’avancement des travaux d’ARPANET, avait conclu que les réseaux de données constituaient une technologie critique dans laquelle la France pourrait assez rapidement ac-quérir un leadership. C’était aussi l’époque où toutes les administrations françaises voulaient mettre en place leurs propres bases de données qui étaient évidem-

ment hétérogènes. Le délégué général à l’informatique, Maurice Allègre, a alors proposé de les interconnecter via un ré-seau de données. La décision fut prise de lancer un tel réseau et 24 MF furent déblo-qués pour son financement. Ce projet fut appelé CYCLADES.

REE : Et vous avez pris la direction de ce projet ?L. P. : J’étais alors chez Simca quand on me proposa de prendre la direction de ce projet. En septembre 1971, je quitte Simca pour la Délégation à l’Informa-tique qui me fait héberger par l’IRIA. André Danzin quitte Thomson pour diri-ger l’IRIA et je construis une équipe en recrutant Hubert Zimmermann, Jean-Louis Grangé, Jean Le Bihan, Gérard Le Lann et un ingénieur de la CII, Jean-Pierre Touchard, équipe qui sera com-plétée par des ingénieurs de SSII. Les universités coopèrent au projet par le biais de contrats de recherche.

REE : Quelles étaient les équipes qui à travers le monde travaillaient alors sur les réseaux de données ?L. P. : La plus connue est évidemment celle d’ARPANET qui avait déjà fait de nombreux travaux à l’époque mais d’autres solutions anticipatrices ont existé :

communications Aéronautiques) cher-chait à interconnecter un grand nombre de compagnies aériennes et d’aéroports internationaux : les liaisons louées étaient à l’époque très coûteuses et la SITA avait donc monté un réseau de transport de paquets dérivé de la commutation de

temps partagé avait aussi développé un réseau de transport de données ou-

un réseau de transport de données fondé sur des protocoles spécifiques pour les besoins des banques. CTNE est en fait, plus qu’ARPANET, le véritable précurseur opérationnel de la commu-tation de paquets.

REE : Quels ont été les résultats des travaux du projet CYCLADES ?L. P. : Dès la fin de 1972, le projet met sur la table les spécifications de protocoles puis publie à l’intention de la délégation un rapport « réseau CYCLADES » qui fera connaître les principes de fonctionne-ment de ce réseau. En octobre 1973, au cours d’une réunion avec le ministère des PTT et la délégation à l’informatique, nous faisons la première démonstration de CY-CLADES. Il s’agissait de faire exécuter à tra-vers le réseau depuis un CII 10070 à l’IRIA

IBM 360 situé à Grenoble. La démonstra-tion fonctionna de façon très satisfaisante.

J’avais fait, dès le début du projet, des propositions de coopération aux grands organismes de recherche publics et en particulier au CNET qui avait un projet

de développement. Il a été convenu de développer en commun un réseau de paquets prototype propre aux PTT. Les PTT devaient mettre à disposition gratui-tement les liaisons louées nécessaires à l’interconnexion des nœuds de commu-

été produites par CYCLADES mais en fait les travaux engagés en commun piéti-

La recherche d’un leadership en informatique

conduisit à lancer en 1971 le projet Cyclades

Un père de l’Internet

Cyclades était au niveau des autres grands projets

internationaux

Page 24: Aperçu du numéro 2013-4 de la REE (octobre 2013)

82 Z�REE N°4/2013

naient : il y avait un désaccord technique entre les équipes du CNET et celles de CYCLADES.

CYCLADES transportait des élé-

session de données sous forme de datagrammes : les commutateurs se contentaient de transférer les paquets d’un accès d’entrée à un accès de sor-tie sans connaissance de la session de données et sans surveillance de la bonne réception du paquet émis par le destinataire final. C’est par une

couche transport définie plus tard dans l’OSI) que les terminaux source et destination de l’échange de don-nées s’assuraient de la bonne remise des datagrammes. Côté PTT on favo-risait plutôt la technique du circuit virtuel, lien logique connu des com-mutateurs de réseau qui est établi au début de chaque session de données et l’assurance par chaque nœud de la bonne réception du paquet par l’entité adjacente.

J’étais parvenu à faire admettre l’idée de développer un réseau de paquets indépendant des PTT sans qu’il en résulte des « mesures de ré-torsion » notables de la part du CNET. Mais l’élection de Giscard d’Estaing à la présidence de la République va conduire à une révision de la poli-tique informatique : au cœur du pro-blème, il y avait la concurrence entre les deux grands groupes industriels de l’électronique, la CGE et Thomson-CSF. La délégation à l’informatique fut supprimée, les crédits CYCLADES également. L’IRIA était menacé mais

établissements : Grenoble, Sophia, Rennes, Nancy. L’exploitation du ré-seau CYCLADES se poursuivra après 1975 via les universités qui main-tiendront le réseau et développeront des applications. En 1978 CYCLADES

cinq commutateurs de paquets et 15 ordinateurs qui leur étaient raccordés.

REE : Quelles étaient vos relations avec les équipes travaillant à l’étran-ger sur les réseaux de données ?L. P. : Dès ses débuts, le projet CYCLADES s’est intéressé aux études de réseau de paquets conduites en Amé-rique du nord : les Américains nous ont ouvert leurs portes, nous étions considé-rés comme des concurrents sans grand risque. J’ai eu l’occasion de rencontrer

l’équipe de départ de l’ARPANET… et ainsi de bien comprendre les principes qu’ils avaient retenus et d’identifier ceux qu’il fallait conserver dans CYCLADES : les paquets, le routage adaptatif, les fonctions de contrôle du réseau, et ceux qui étaient à revoir : le protocole de

l’utilisation du circuit virtuel au niveau des accès, les entrées-sorties des ordi-nateurs à connecter… On a beaucoup échangé de papiers et tenu de discus-sions.

D’autres interactions ont existé dans le cadre d’un groupe anglo-américain,

-

nous intégrerons et qui sera associé au groupe TC6 de l’IFIP. Des démonstra-tions d’interconnexion seront faites entre CYCLADES et le Canada et l’ESA mais paradoxalement pas avec les USA.

Des travaux se sont poursuivis dans le cadre d’un projet européen COST 11, auquel participaient France, Angleterre, Suède, Allemagne, Italie et Suisse, pour développer un réseau européen : mais étant largement basé sur les travaux de

fin de CYCLADES.En 1976, X.25 est normalisé, soutenu

par les PTT européens, et, en 1978, le réseau Transpac est ouvert. C’était évi-demment une rupture technologique. Les USA n’emprunteront pas cette voie et poursuivront sur le transport de data-grammes. Ils travailleront beaucoup sur l’interconnexion de réseaux locaux d’en-treprises avec le développement des techniques de relais de trames.

REE : Depuis cette époque, le réseau mondial s’est extraordinairement déve-loppé : quels ont été, à votre sens, les jalons essentiels de ce développement ?L. P. :est resté un monde un peu cloisonné, fréquenté surtout par les universitaires et

les américains développaient TCP/IP et le mettaient en œuvre sur beaucoup de machines, grâce aux subventions de l’ARPA. Simultanément la popularité d’Ethernet, peu coûteux et d’installa-tion facile, permettait de construire des réseaux locaux connectant aussi bien terminaux que minis et gros ordinateurs.

Des liaisons hertziennes ou terrestres dédiées raccordaient des sites distants via des routeurs. Ainsi les centres de recherche et entreprises se sont équi-pés d’intranets sans utiliser de réseaux publics de données. Sauf Telenet, qui vendait X.25, les autres opérateurs

commutation de paquets car les circuits

Le choix fait en faveur d’X.25 n’a pas permis de poursuivre

sur la lancée de Cyclades

Le développement de TCP a permis le lancement

d’Internet à grande échelle et a assis la suprématie

américaine

jphauet
Rectangle
Page 25: Aperçu du numéro 2013-4 de la REE (octobre 2013)

REE N°4/2013 Z 85

ENSEIGNEMENT & RECHERCHE

Yves Poilane Directeur de Télécom ParisTech Ancien Président de ParisTech

P eu de temps avant le terme de ma Présidence de ParisTech, j’ai fait procéder, avec l’aide d’un jeune poly-technicien stagiaire, à un sondage trottoir dans le Quar-tier latin sur la notoriété et la puissance évocatrice de

ParisTech, auprès de jeunes étrangers fréquentant Paris au mois d’août : seuls 5 sur 40 savaient ce qu’était ParisTech, mais pour plus de la moitié des autres ce nom leur évoquait une « université de technologie à Paris ».

Ceux qui avaient trouvé cette marque en 1999 n’avaient pas fait ce sondage express. Mais ce fut alors une véritable trouvaille pour consacrer la coopération informelle initiée en 1991 entre neuf grandes écoles d’ingénieurs parisiennes, sous le nom austère de GEIP (Groupe des Ecoles d’Ingénieurs de Paris).

La puissance évocatrice de la marque à l’international, voici donc bien ce qui a soutenu le développement de ParisTech au cours de ces 13 dernières années, malgré des hauts et des bas sur la pé-riode sur cette période, avec notamment :

Ministère de la Recherche et de l’Enseignement Supérieur (MESR) comme PRES (Pôle de Recherche et d’Enseignement Supérieur) et doté de 4,5 millions d’euros ;

définitivement consacré une organisation de l’enseignement supé-rieur autour de campus géographiques, organisation confirmée, nonobstant le changement de majorité, par la nouvelle loi, pro-

ParisTech bénéficie du soutien constant et créatif de ses membres.

1991-2006 : le groupe des écoles d’ingénieurs de Paris, devenu ParisTech en 1999

En 1991, c’est grâce à l’initiative de Jacques Levy (directeur de « l’école des Mines de Paris » de l’époque) et à l’enthousiasme de Pierre-Gilles de Gennes (directeur de l’ESPCI de l’époque) que neuf grandes écoles d’ingénieurs publiques se rassemblent au sein du GEIP, association loi 1901, pour collaborer dans les domaines d’inté-rêt commun et acquérir, grâce à une taille suffisante, une reconnais-sance internationale. Avec la chute du mur de Berlin notamment, les établissements d’enseignement supérieur prenaient en effet conscience, en France comme à l’étranger, de l’intérêt de se consti-tuer en réseaux, nationaux et internationaux.

En 1999, l’association prend le nom de « ParisTech », plus à même d’accompagner son développement international. Ce nom, qui évoque celui de grandes universités américaines telles que Caltech, Virginia Tech ou Georgia Tech, correspondait bien à l’am-

bition de devenir un établissement de « stature comparable aux grandes universités scientifiques et techniques au niveau mondial ».

Sur cette période, l’association met sur pied des groupes de tra-vail, plus ou moins actifs, construisent l’habitude de l’action com-mune et de la concertation, antérieurement fort rare : les neufs directeurs prirent par exemple l’habitude de se réunir en conseil d’administration tous les trois mois, avec un taux de présence effec-tif remarquable.

C’est le groupe « formation » qui obtint les résultats les plus concrets avec la création des semaines européennes (devenues par la suite semaines ATHENS).

Le groupe « recherche » organisa chaque année un colloque sur l’évolution des sciences de l’ingénieur. A titre d’exemple, le colloque

Quelles mathématiques pour l’industrie et la recherche de demain ? » fut notamment l’occasion de faire, en présence de Laurent Schwartz, un bilan sur l’enseignement des mathématiques dans les écoles d’ingénieurs à la suite des réformes du secondaire et des classes préparatoires.

Le groupe « documentation » tenta une coordination dans la gestion des bibliothèques ; le résultat principal obtenu en fut une meilleure connaissance de l’ensemble des ressources disponibles dans le GEI Paris.

Sur le plan international, l’opération la plus spectaculaire fut la mise en place de l’IFCIM (Institut Franco-Chinois d’Ingénierie et de Management) dans laquelle l’Ecole des ponts et chaussées joua le rôle moteur et qui aboutit à la mise en place du programme « 50 étudiants chinois », recrutement coordonné d’élèves ingénieurs au sein des meilleures universités chinoises.

ParisTech : une ambition revisitéePOINT DE VUE

Ingénieurs chinois diplômés de ParisTech La recherche de visibilité internationale fut le premier moteur de ParisTech. L’action d’envergure la plus ancienne (13 ans désor-mais) et la plus emblématique fut le programme 50i visant à re-cruter des étudiants parmi les 12 meilleures universités chinoises pour les 12 grandes écoles de ParisTech. Ce programme a diplômé plus de 600 ingénieurs depuis l’origine : 20 % sont allés à Arts et Métiers ParisTech, 18 % à l’Ecole Polytechnique, 10 % dans chacune des quatre autres écoles suivantes : AgroParisTech, ENSTA ParisTech, Ecole des Ponts ParisTech, Telecom ParisTech.Interrogés fin 2012 sur leur situation professionnelle, 60 % environ ont répondu à l’enquête. Sur les 350 répondants, 55 % travaillent soit dans une entreprise en France (pour 2/3), soit dans une entreprise française implantée en Chine (pour 1/3). Ces résultats, régulièrement actualisés, confirment l’im-pact économique de ce programme, conçu pour le développe-ment international des entreprises françaises.

Page 26: Aperçu du numéro 2013-4 de la REE (octobre 2013)

86 Z�REE N°4/2013

ENSEIGNEMENT & RECHERCHE

2007 - 2011 : devenir le futur MIT à la Française ?loi de programme pour la

recherche », à la fois loi de programmation F annoncés loi d’orientation, créant notamment

les PRES (Pôles de Recherche et d’Enseignement Supérieur) et les RTRA (Réseaux Thématiques de Recherche Avancée).

-nément, ParisTech changea de statut, devenant établissement public de coopération scientifique (EPCS).

Paris et d’IOGS, multiplièrent les chantiers visant à construire le futur

ces évolutions coïncidèrent avec mon arrivée à la tête de Télécom ParisTech :

chantiers opérationnels, avec de nombreux projets en matière de formation initiale et continue, de recherche, d’innovation, de relations internationales, de communication, de relations avec les entreprises. Les commissions, regroupant les directeurs fonction-nels concernés, animées par un délégué et présidées chacune par un directeur d’école, tournèrent alors à plein régime ! chantiers institutionnels, avec des travaux au niveau des direc-teurs (une réunion mensuelle et de nombreux séminaires), pour imaginer les transferts de compétences, les règles de commu-nication (y.c. scientifique), le meilleur statut pour un ensemble plus intégré.

Un bilan impressionnant à la fin 2011Si au plan institutionnel, les avancées se révélèrent délicates,

voire laborieuses, le bilan des initiatives concrètes fut très important, grâce à une intense activité collective, où toutes les écoles, sans exception, jouèrent le jeu de la coopération.

ParisTech put, en quelques années, lancer puis faire fonctionner un nombre considérable de projets communs. Qu’on en juge :

sont la Chine, le Brésil et la Russie, pour les programmes d’ingé-nieur ou de master (grâce à la structuration d’une offre complète de masters labellisés et à sa promotion sur le Net et dans des salons internationaux) ; près de 300 étudiants étrangers sont ainsi recrutés chaque année dans les écoles ;

propres et renouvelables (ICARE), en coopération avec l’université -

péennes, soutenu financièrement par l’Union Européenne ;-

relever leurs principaux défis industriels. Citons la création de l’Ins-

énergie nucléaire avec EDF, GDF/Suez et Areva, et du Master éner-

chaires d’entreprises portées par deux à cinq écoles ;

une participation coordonnée aux opérations « cordées de la réus-site » puis, tout récemment, par la création de l’Institut Villebon

-dagogie, avec le développement de la mobilité étudiante in-tra-ParisTech, la création de cursus hybrides (comme TIC et

ParisTech et Télécom ParisTech), celle de doubles diplômes ingénieurs/managers (HEC avec quasiment toutes les écoles d’ingénieurs) et, très récemment, le lancement de ParisTeachI-nnovation, initiative visant à doper, en la mutualisant, la forma-tion à l’innovation ;

and Innovation Community) lancés par la Commission euro-péenne dans le cadre de l’European Institute of Technology (IET) ;

les énergies décarbonées, lauréat des Investissements d’avenir.

Figure 1 : Logos des 12 écoles de ParisTech.

Figure 2 : Signature de l’accord PSA-ParisTech en novembre 2012.

jphauet
Rectangle
Page 27: Aperçu du numéro 2013-4 de la REE (octobre 2013)

94 Z�REE N°4/2013

LIBRES PROPOS

Pierre Baqué Conseiller d’entreprise Animateur du cercle Suffren

R écemment le Président Hollande annonça aux Français qu’il allait engager un « choc de simplification » !

Au-delà du tranchant de l’expression, le besoin auquel cette initiative répond dépasse largement l’irritation quotidienne devant les tracasseries adminis-tratives et s’étend, en France et hors de France, à la plupart des domaines de l’activité humaine : au fil des ans, le tissu normatif, au sein duquel elle se déploie, ne cesse de s’épaissir et de se densifier : règles, obligations, procédures, interdits, prolifèrent.

Certains, dont la sensibilité politique libérale colore la vision, y voient une évolution liberticide. D’autres, sensibles aux déterminations sys-témiques, y voient le déploiement incontrô-lé d’une machine procédurale qui prolifère d’elle-même, mécanisme infernal, cercles de plomb qui se referment en assurant le triomphe mortifère d’un rationalisme nu, intégriste. D’autres encore, historiens dans l’âme, y voient les symp-tômes universels du vieillissement des sociétés et des civilisations, annonciateurs de leur disparition au profit des barbares qui leur succéderont, avant d’accéder eux-mêmes au statut de civilisations.

De toute manière, chacun, dans les circonstances de sa vie quotidienne, est confronté à cette densité crois-sante ; pour construire, améliorer, ou détruire une mai-son ; pour embaucher, déplacer ou licencier un salarié ; pour élaborer, modifier ou dénoncer un contrat ; pour adopter un enfant, soigner un malade, certifier la traça-bilité d’un composant ou la nature d’un contenu ; pour effectuer la moindre de ses tâches au travail…

Derrière la diversité de ces phénomènes, partout perceptibles, et souvent douloureux, un mécanisme de mode commun est à l’œuvre, mécanisme à deux faces, épaississement bien intentionné d’un côté, et de l’autre aversion à l’initiative personnelle. Quel est-il ?

Au sein d’une activité humaine, un incident se pro-duit ; et il s’en produit tous les jours. Les médias, les politiques, les dirigeants s’en emparent : l’incident est désigné comme incident à éviter. La phrase clé est « plus jamais ça ! ». Un texte normatif est alors rédigé,

par quelques uns des milliers de bureaucrates de nos institutions et entreprises, qui s’attachent, avec soin, méthode, intelligence souvent, bonne foi la plupart du temps, à concevoir une procédure nouvelle, contenant obligations et interdits nouveaux, visant à éviter que l’in-cident ne se reproduise. Ce texte en outre obéit à une loi du genre, qui veut gommer toute personnalisation, toute subjectivité, et substituer la qualité procédurale de l’organisation aux dispersions opérationnelles des indi-vidus ; il faut gommer les différences, assurer la substi-tuabilité des uns par les autres, remplacer la capacité de jugement, la compétence, ou l’éthique, des individus, par la perfection impersonnelle d’un système.

Y a-t-il démarche mieux intentionnée ? Qui va contester à l’auteur de ce texte, à son initiateur, et à son promulgateur, la légitimité de procéder ainsi ? Ceux qui

s’y opposeraient seraient taxés de conser-vatisme obscur, ou pire, d’irresponsabilité.

Et c’est là pourtant le nœud auto- serrant dans lequel s’installe la Société.

Car personne n'a plus le courage de re-considérer l’ensemble de l’édifice normatif à

l’issue de tels ajouts et personne ne prend le temps de le faire. Manque de temps ou manque de courage, il n’y a jamais de nettoyage de printemps. Les lignes de procé-dures, de règlements et de lois se superposent les unes aux autres. Au fil des ans s’épaissit l’édifice du Droit qui, des 12 tables de Rome, aboutit aujourd’hui aux centaines de milliers de pages des codes juridiques contemporains. Au fil des ans, dans les entreprises actuelles se substi-tuent aux habiletés d’homme de l’art des artisans et des professionnels, leurs héritiers, des tonnes de manuels de procédures, codes techniques, prescriptions…

Chacun s’en plaint. Le « nul n’est censé ignorer la loi » devient grotesque. Le « nul n’est censé ignorer les procédures » devient une énormité qui transforme chaque salarié en délinquant potentiel, presque à coup sûr. Que dire d’une société qui place ses membres sous de systématiques injonctions contradictoires ? L’exercice du contrôle aérien est devenu une fable des temps mo-dernes, exact pendant de la fable des abeilles de Man-deville au début du XVIII° siècle : respecter la procédure paralyse le fonctionnement. Mais on laisse en l’état.

La Société s’étouffe elle-même.Car les conséquences de cette prolifération procé-

durale ne se limitent pas à corseter les initiatives ; il y a

Les cercles de plomb

Page 28: Aperçu du numéro 2013-4 de la REE (octobre 2013)

REE N°4/2013 Z 95

LIBRES PROPOS

simultanément, et souvent subrepticement, une crois-sance insidieuse du nombre de tâches à accomplir. A la question par exemple : y a-t-il trop de fonctionnaires ? La réponse est sans doute oui, au regard des prélèvements supportés par la population et ses acteurs économiques. A la question corrélative : font-ils tout ce qu’on attend d’eux ? La réponse est sans doute non, au regard de la surcharge des prisons, de l’allongement des procédures judiciaires, de la tension dans les hôpitaux, des attentes insatisfaites en manière de respect de l’ordre dans les cités, du traitement des formalités d’état civil (notam-ment pour les étrangers), du traitement des chômeurs à Pôle Emploi, de la grogne à l’éducation nationale ou dans la recherche...

L’apparent paradoxe de cette contradiction « ils sont trop et en même temps pas assez » ne peut se résoudre seulement par le facteur souvent évoqué de « l’indolence » de certains de ces fonctionnaires.

L’efficacité d’un dispositif pourrait être désignée sym-boliquement par le ratio :E = N . P / Qoù N est le nombre des agents, P leur productivité, c’est-à-dire leur efficience, et Q la quantité de prestations que l’on attend d’eux.

Augmenter l’efficacité peut se faire en augmentant le nombre N des agents : c’est ce que réclament les organisations représentatives du personnel et beaucoup d’usagers. Cela peut se faire en augmentant la producti-vité P de ces agents : c’est ce que doit viser le dispositif de management, mais aussi la libération des énergies et des initiatives de chacun, qui, la plupart du temps sont bridées et non mobilisées. Cela peut enfin se faire en diminuant la quantité Q des prestations demandées, c’est-à-dire en élaguant les procédures, les exigences, les contrôles superflus, les « pape-rasses » inutiles ; l’idée maîtresse pourrait être celle de l’analyse de la « valeur » du dispositif procédural.

Sans une action explicite, lu-cide, volontaire, l’étouffement et la frustration ne font qu’augmenter.

Que faire ?

Attendre passivement que notre Société se couche lentement dans le linceul de l’Histoire, et soit remplacée par des barbares ?

Attendre que les tensions accumulées par les indivi-dus se traduisent par toujours plus de souffrances, de replis, de troubles psychosomatiques (burn-out, karoshi, dépression…) voire suicides ?

Attendre que, de ce fait, des risques technologiques majeurs émergent puissamment, parce que la vigilance des hommes aura été écrasée sous des tonnes de procédures qui ont aveuglé leur regard sur les choses réelles ?

Non. On ne peut se contenter de ce triste et pes-simiste constat.

Chacun, là où il est, et notamment parmi les diri-geants, peut contribuer à desserrer l’étau, à dissoudre les cercles de plomb que la bureaucratie engendre, et qui depuis un siècle déjà ont été dénoncés par Max Weber, mais que chaque génération laisse proliférer, dans la toute bonne conscience que donne la croyance dans le leurre de la maîtrise parfaite. Il faut engager cette démarche d’élagage procédural, c’est-à-dire de retour à des épures claires, porteuses de sens, et de repères compréhensibles.

Les deux grandes zones de pouvoir que sont les Etats et les entreprises sont concernées.

Il y faudra au plus haut niveau des urbanistes de grand talent, des refondateurs de catégories, des spé-cialistes des plans masse. Puis, domaine après domaine, il y faudra des architectes mandatés, hantés par l’ana-lyse de la valeur, la vraie valeur sociale, pour condenser, simplifier, choisir de ne pas faire, ou de ne pas imposer, alléger, élaguer, comme peut le faire un bon élagueur, sans mutiler, sans défigurer.

Le travail est à l’échelle de la Babel de nos procédures sociales et techniques. Il est temps de commencer, avec l’ardeur de ceux qui perçoivent le danger mortel, et l’humilité de ceux qui savent que la perfection est consubstantielle-ment hors d’atteinte. Q

Pierre Baqué est ingénieur au corps des mines. Actuellement conseiller d’entreprise (président de PB&A) et ani-mateur du Cercle Suffren (www.cercle-suffren.org ), il a travaillé successivement dans la recherche (fondateur du CEMEF), la construction nucléaire, l’aluminium (président de Pechiney Bâtiment).

jphauet
Rectangle
jphauet
Texte tapé à la machine
Vous voulez... Vous abonner à la REE ? Acheter un numéro ? Cliquer ICI Ou bien téléphoner au 01 56 90 37 04