25
 MINISTERE DE LINTERIEUR  EXAMEN PROFESSIONNEL DE TECHNICIEN DE CLASSE SUPERIEURE DES SYSTEMES D’INFORMATION ET DE COMMUNICATION  SESSION 2014 L’épreuve écrite unique d'admission consiste, à partir d'un dossier à caractère technique, en une étude de cas faisant appel à des connaissances relatives à l'environnement et à la technique des systèmes d'information et de communication et permettant de vérifier les capacités d'analyse et de synthèse du candidat ainsi que son aptitude à dégager des solutions appropriées. L'épreuve porte sur l'un des deux thèmes suivants soumis au choix du candidat le jour de l'épreuve écrite : - les réseaux de télécommunications et équipements associés ; - la gestion des systèmes d'information. LA GESTION DES SYSTĖMES DINFORMATION Durée : 3 h 00 Le dossier documentaire comporte 23 pages IMPORTANT  IL EST RAPPELE AUX CANDIDATS QU’AUCUN SIGNE DISTINCTIF NE DOIT APPARAITRE NI SUR LA COPIE NI SUR LES INTERCALAIRES.  LA CALCULATRICE N’EST PAS AUTORISEE      

EXAMEN PROFESSIONNEL DE TECHNICIEN DE CLASSE … · en une étude de cas faisant appel à des connaissances relatives à l'environnement et à ... Document 6 Sept bonnes pratiques

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

Page 1: EXAMEN PROFESSIONNEL DE TECHNICIEN DE CLASSE … · en une étude de cas faisant appel à des connaissances relatives à l'environnement et à ... Document 6 Sept bonnes pratiques

 

MINISTERE DE L’INTERIEUR 

 

EXAMEN PROFESSIONNEL 

DE TECHNICIEN DE CLASSE SUPERIEURE DES SYSTEMES D’INFORMATION ET DE COMMUNICATION 

 

SESSION 2014 

L’épreuve écrite unique d'admission consiste, à partir d'un dossier à caractère technique, en une étude de cas faisant appel à des connaissances relatives à l'environnement et à la technique des systèmes d'information et de communication et permettant de vérifier les capacités d'analyse et de synthèse du candidat ainsi que son aptitude à dégager des solutions appropriées. L'épreuve porte sur l'un des deux thèmes suivants soumis au choix du candidat le jour de l'épreuve écrite : - les réseaux de télécommunications et équipements associés ; - la gestion des systèmes d'information.

LA GESTION DES SYSTĖMES D’INFORMATION

Durée : 3 h 00 

Le dossier documentaire comporte 23 pages 

IMPORTANT 

IL EST RAPPELE AUX CANDIDATS QU’AUCUN SIGNE DISTINCTIF NE DOIT APPARAITRE NI SUR LA COPIE NI SUR LES INTERCALAIRES. 

 

LA CALCULATRICE N’EST PAS AUTORISEE 

 

 

 

 

Page 2: EXAMEN PROFESSIONNEL DE TECHNICIEN DE CLASSE … · en une étude de cas faisant appel à des connaissances relatives à l'environnement et à ... Document 6 Sept bonnes pratiques

SUJET

Dans le cadre de la réorganisation de votre direction, vous êtes affecté(e) en qualité de chef d'équipe dans une section H24 et 7/7 composée de 2 équipes de 10 techniciens chacune. Vos périmètres sont la supervision et l’exploitation de niveau 1. Le parc est constitué d’un mur d’images, de son contrôleur sous Windows 2008 et de 12 postes bureautiques. Le parc des postes bureautiques est composé de : 3 postes en windows XP pour le métier de la supervision ; 3 postes en windows XP pour la connexion aux diverses applications métiers ; 3 postes en linux ubuntu pour l'émulation de terminaux X 11 ; 3 postes en windows XP dédiés à la communication Icasso, Rescom NG.

EVOLUTION PRÉVUE

Dans le cadre d’une démarche d'urbanisation, une solution visant à réduire le TCO du poste de travail est à l’étude. Le schéma directeur du service de gouvernance a retenu la virtualisation.

TRAVAIL DEMANDÉ

Pour la mise en œuvre de la virtualisation des postes de travail proposée par le schéma directeur, votre chef de bureau vous demande de rédiger un rapport enrichi d’un schéma d’architecture. Ce rapport exposera les raisons de votre choix technique et fonctionnel. Vous développerez les avantages et les inconvénients de la solution que vous proposez en vous appuyant sur votre expérience. Votre rapport devra tenir compte de la spécificité des postes de travail. Il portera une attention particulière à l'impact pour les utilisateurs et l'administrateur.

Liste des documents joints :

Document 1 Terminal X (extraits), http://fr.wikipedia.org/wiki/Terminal_X Page 1 Document 2 La virtualisation du poste de travail au cœur des enjeux des DSI

(extraits), Dominique Filippone (18/01/11) pour le journal du net, http://www.journaldunet.com/solutions/systemes-reseaux/virtualisation-poste-de-travail/

Pages 2 à 4

Document 3 Le poste de travail est bien en pleine transformation, par Bertrand Lemaire, CIO-Online.com édition du 13/09/2013.

Page 5

Document 4 Domial simplifie l’administration de ses clients légers avec Res Software, par Valéry Marchive, LeMagIT, 18 mars 2013, http://www.lemagit.fr/etude/Domial-simplifie-ladministration-de-ses-clients-legers-avec-Res-Software

Page 6

Document 5 La virtualisation des postes de travail : réponses aux enjeux informatiques, Philippe Labaste pour le journal du Net du 16 juillet 2013 http://www.journaldunet.com/solutions/expert/54875/la-virtualisation-des-postes-de-travail---reponse-aux-enjeux-informatiques.shtml

Pages 7 et 8

Document 6 Sept bonnes pratiques pour réussir un projet de virtualisation de serveurs (extraits), par Thierry Lévy-Abégnoli, Jeudi 19 Mars 2009,ZDNET, http://www.zdnet.fr/actualites/sept-bonnes-pratiques-pour-reussir-un-projet-de-virtualisation-de-serveurs-39388535.htm

Page 9

Document 7 Microsoft Cloud et serveurs d’entreprise, virtualisation http://www.microsoft.com/france/serveur-cloud/virtualisation/produits-virtualiser.aspx

Page 10

Document 8 VirtualBox (extraits), http://www.framasoft.net/article4996.html Page 11 et 12 Document 9 La virtualisation basée sur le noyau (extraits)

http://fr.wikipedia.org/wiki/Kernel-based_Virtual_Machine Page 13

Document 10 Note technique du 26 septembre 2013 de l’agence nationale de la sécurité des systèmes d’information : Problématiques de sécurité associées à la virtualisation des systèmes d’information (extraits)

Pages 14 à 21

Document 11 Cadre stratégique commun du SI de l’Etat, Direction interministérielle des systèmes d’information et de communication, février 2013 (extraits)

Pages 22 et 23

Page 3: EXAMEN PROFESSIONNEL DE TECHNICIEN DE CLASSE … · en une étude de cas faisant appel à des connaissances relatives à l'environnement et à ... Document 6 Sept bonnes pratiques

 

 

Document 1

Terminal X (extraits)

http://fr.wikipedia.org/wiki/Terminal_X  

En informatique, un terminal X est un dispositif d'affichage et/ou d'entrée pour les applications X clientes connectées à travers un réseau informatique. Un terminal X exécute un serveur X et se connecte à un X display manager (service d'affichage X) tournant sur un ordinateur central, via XDMCP. 

Le terminal X fut populaire dans les années 1990, permettant un coût total de possession bien plus faible qu'une station de travail Unix complète. En général ces équipements ne disposent pas de disque dur et n'ont qu'une configuration minimale. Ils chargent l'image à exécuter et les paramètres à partir du réseau au moment du démarrage. 

Les terminaux X ont été supplantés en popularité par d'autres clients légers ultérieurs qui disposent d'une mémoire flash avec un programme qui permet d'exécuter d'autres protocoles que X, comme Remote Desktop Protocol (RDP) ou Citrix Metaframe. 

 

 

 

 

 

 

 

 

 

 

 

 

 

  1 

Page 4: EXAMEN PROFESSIONNEL DE TECHNICIEN DE CLASSE … · en une étude de cas faisant appel à des connaissances relatives à l'environnement et à ... Document 6 Sept bonnes pratiques

 

Document 2

La virtualisation du poste de travail au coeur des enjeux des DSI (extraits) Dominique Filippone (18/01/11) pour le journal du net  Pour réduire les coûts et rationaliser l'administration de leur parc PC, les DSI se lancent dans la virtualisation […]  La virtualisation du poste de travail fait partie de la grande famille de la virtualisation avec celle dédiée aux serveurs et au stockage. Le grand principe de la virtualisation du poste de travail consiste à afficher sur un, des dizaines, centaines voire des milliers de postes physiques, une image virtuelle du poste utilisateur qui est en fait réellement exécutée sur un serveur distant. Derrière ce grand principe, on trouve cependant plusieurs formes de virtualisation du poste de travail.  La plus ancienne est celle de la virtualisation d'applications centralisée (également dénommée Server-Based-Computing), consistant à virtualiser les applications mais pas l'ensemble du système d'exploitation. Alors que l'utilisateur visualise (et utilise) sur son poste une image des applications réellement exécutées sur un serveur distant, le système d'exploitation, lui, tourne toujours sur le poste client. Une variante existe qui est celle de la virtualisation d'applications par isolation.

[…] 

"Egalement appelée isolation par bulle applicative, ce type de virtualisation qui consiste à installer sur le poste de travail à distance et en streaming une application est la moins répandue mais permet de répondre aux problèmes d'incompatibilité entre une application et un système d'exploitation", fait savoir Christophe Corne, président de Systancia. 

La virtualisation du poste de travail peut également s'apparenter à du streaming de système d'exploitation. Dans cette configuration, le système cible démarre à partir d'un disque installé sur le réseau et charge de façon sélective les contenus et applications souhaitées par l'utilisateur depuis des volumes logiques installés sur un serveur ou un espace de stockage distant. 

Enfin, la dernière forme que revêt la virtualisation du poste de travail est également la plus complète et celle dont les perspectives de déploiement sont les plus importantes. Il s'agit de l'architecture VDI pour Virtual Desktop Initiative, également dénommée Hosted Virtual Desktop (HVD). Cette dernière peut s'apparenter à la virtualisation "totale" du poste de travail, c'est-à-dire tant aux applications qu'au système d'exploitation, permettant de s'affranchir de la nature même du poste client sur lequel sera affiché l'image.[…] 

L'architecture VDI : avec ce type de virtualisation, la DSI n'a plus à se préoccuper de la maintenance et de l'administration de son parc de postes de travail permettant de dégager des économies de ce point de vue là. 

De même, l'utilisateur n'est plus dépendant de son poste de travail physique et peut se connecter à "son" PC depuis différents terminaux physiques, ce qui s'avère très pratique pour la population nomade ayant à se déplacer sur plusieurs sites, sans se soucier des problèmes de connexion réseau, branchements et pannes matérielles/logicielles locales. 

[…] 2 

Page 5: EXAMEN PROFESSIONNEL DE TECHNICIEN DE CLASSE … · en une étude de cas faisant appel à des connaissances relatives à l'environnement et à ... Document 6 Sept bonnes pratiques

 LES FORCES EN PRÉSENCE : VMWARE, CITRIX, MICROSOFT ET CISCO  […] VMware propose avec ThinApp une solution pour accélérer le déploiement et simplifier la migration d'applications. Aucun pilote de périphérique n'est installé sur le poste client et aucune modification de registre n'est effectuée car l'application et son système d'exploitation virtuel sont distribués sous forme d'un seul fichier exécutable. Les applications volumineuses sont chargées depuis un disque réseau partagé, sans avoir à installer de logiciel client ou serveur.  ThinApp 4.5 facilite la migration d'applications existantes vers Windows 7. ThinApp 4.5 facilite la migration d'applications existantes vers la nouvelle version du système d'exploitation de Microsoft (Windows 7) qu'il prend désormais en charge. Issu du rachat de Thinstall, ThinApp permet de créer des packages applicatifs exécutables, par analyse différentielle en prenant en compte tous les paramètres du système cible (dll, registres...).  De son côté, VMware View permet de consolider les postes de travail virtuels sur les serveurs et de gérer indépendamment les systèmes d'exploitation, applications et données. "VMware View 4.5 renforce également la sécurité et le contrôle grâce à l'hébergement central des postes de travail virtuels pour éliminer tout risque de fuite et bénéficier de la protection centralisée de VMware vShield Endpoint contre les virus", a d'ailleurs précisé VMware à l'occasion de son VMworld 2010.  

CITRIX XENAPP ET XENDESKTOP  

Citrix est entré tambours battants dans le marché de la virtualisation du poste de travail en faisant l'acquisition de Xen en 2008. Le rachat de la société Ardence en 2007 lui a également permis de compléter son offre par une brique de provisioning, visant à réduire la charge de gestion des environnements d'exploitation pris en charge.  XenDesktop doit permettre de créer selon Citrix des environnements virtualisés en moins de 10 minutes. La nouvelle version de l'environnement serveur de Citrix pour la virtualisation des postes de travail, XenApp, se caractérise par une intégration améliorée avec la plate-forme Microsoft (App-V, mais aussi Active Directory et Windows Server 2008 R2). XenApp 6 étend son support de la technologie HDX – qui permet aux utilisateurs des applications de bénéficier d'une qualité d'image en haute définition. 

XenApp 

XenApp 6 intègre en outre une console visant à faciliter l'administration des applications. Avec cette nouvelle version, XenApp, historiquement disponible pour PC, étend son support aux Mac, ainsi qu'aux smartphones (iPhone, Google Android et Windows Mobile). Citrix a également lancé la nouvelle version de son émulateur permettant d'accéder à des applications serveur virtualisées avec XenApp. Parmi les améliorations notables de XenDesktop, on retiendra une interface utilisateur entièrement refondue ainsi que la présence d'un nouvel outil d'administration baptisé XenDesktop Studio. 

Principale qualité de l'outil : la possibilité de concevoir des environnements de virtualisation en moins de 10 minutes, pour peu cependant que l'administrateur dispose d'une image Windows opérationnelle.

 

Page 6: EXAMEN PROFESSIONNEL DE TECHNICIEN DE CLASSE … · en une étude de cas faisant appel à des connaissances relatives à l'environnement et à ... Document 6 Sept bonnes pratiques

 XenDesktop 5 dispose d'un nouveau client ICA, baptisé Citrix Receiver, qui permet d'accéder facilement aux environnements de bureaux et applications virtualisés. La tarification de la solution sera située dans une fourchette allant de 95 à 350 dollars selon l'édition.  MICROSOFT ENTERPRISE VIRTUALIZATION DESKTOP 

En 2008, la firme de Redmond a renforcé ses positions dans le domaine de la virtualisation en procédant aux rachats successifs de Calista en janvier, puis de Kidaro quelques dizaines de jours plus tard. Microsoft s'est appuyé sur ces nouvelles briques pour positionner son offre Enterprise Desktop Virtualization face à la concurrence, en particulier VMWare. 

Partenaire de longue date avec Citrix avec lequel il a annoncé récemment un accord autour de son mode d'exécution graphique déportée RemoteFX et de la possibilité de modifier à chaud la mémoire d'un ensemble de machines virtuelles pour son hyperviseur Hyper-V. Cette offre conjointe, baptisée VDI Kick Start, s'articule autour de la technologie de graphisme 3D RemoteFX de Microsoft et de la technologie haute définition HDX de Citrix. 

Par ailleurs, la prochaine version de l'OS de Microsoft, Windows 8 pourrait faire un pas supplémentaire vers la virtualisation d'applications pour éviter les installations locales. La firme de Redmond miserait ainsi sur un environnement de DaaS (Desktop as a Service), à travers lequel les applications et les données seraient gérées de manière centralisée, et distribuées aux terminaux par le biais d'instances virtuelles. 

 

CISCO VIRTUALIZATION EXPERIENCE INFRASTRUCTURE 

Nouvel entrant dans le marché de la virtualisation du poste de travail, l'équipementer Cisco a annoncé le lancement fin novembre dernier de VXI pour Virtualization Experience Infrastructure. Cisco s'appuie notamment pour cette offre sur les technologies Citrix de virtualisation de postes, dont FlexCast et HDX, pour offrir une solution d'hébergement, de sécurisation et d'optimisation de la mise à disposition des applications et postes de travail virtuels. 

La solution supporte bien entendu le client XenDesktop de Citrix mais également les clients View de VMware et celui de Wyse. A noter que Cisco compte pénétrer ce marché en s'appuyant sur les synergies liées à son partenariat signé avec VMware (Virtual Computing Environnement) pour fournir des packages infrastructures clés en mains aux entreprises comprenant équipement serveurs, stockage, réseaux et logiciels. 

[…] 

 

 

 

Page 7: EXAMEN PROFESSIONNEL DE TECHNICIEN DE CLASSE … · en une étude de cas faisant appel à des connaissances relatives à l'environnement et à ... Document 6 Sept bonnes pratiques

 

Document 3

Le Poste de Travail est bien en pleine transformation par Bertrand Lemaire ,CIO-Online.com, édition du 13/09/2013.   

Le cabinet Markess International vient de publier une nouvelle étude sur l'évolution du poste de travail. D'ici 2015, 80 % des décideurs pensent que le poste de travail de leurs collaborateurs aura évolué. 

Les quatre cinquièmes des décideurs interrogés par le cabinet d'études Markess International estiment que le poste de travail des collaborateurs de leurs organisations aura profondément évolué d'ici 2015. La dimension ubiquitaire d'un poste de travail virtualisé et accessible de partout sur tous les types de terminaux est la grande tendance qui ressort de la dernière étude de Markess International sur le sujet. 

La moitié des décideurs ayant répondu à l'enquête du cabinet estime que l'évolution des postes de travail et du système d'information devra permettre d'accéder aux environnements de travail à distance en toute sécurité et sur n'importe quel terminal. Pour un tiers, un tel accès ubiquitaire passera par la virtualisation et un développement des fonctionnalités collaboratives. Un peu moins d'un quart juge qu'il faudrait accéder en mode web aux applications de l'entreprise et autant qu'il faudrait simplifier les paramètres sécuritaires. 

Le multi-équipement deviendra la règle 

D'ici 2015, de plus en plus de collaborateurs devraient être multi-équipés en terminaux divers. De ce fait, la part du PC fixe va plonger de 47% à 36% du parc global tandis que les portables devraient maintenir leur part du gâteau. A l'inverse, smartphone et tablettes devraient connaître une nette progression. 80% des décideurs estiment d'ailleurs que des smartphones ou des tablettes seront déployées chez leurs collaborateurs en 2013. 

Près de 60% des décideurs sont d'ailleurs persuadés que certains de leurs collaborateurs utilisent à des fins professionnelles leurs propres terminaux, 10% de plus le supposant sans en être certains. 

Le taux d'usage du BYOD, il est vrai, devrait passer de 14% en 2013 à 23% en 2015. 

Derrière cette évolution, toute la problématique de la sécurité et de la gestion de parc sera cruciale pour plus de la moitié des décideurs ayant répondu à Markess. La gestion de parc devrait être facilitée par l'émergence des portails libre-service (FAQ, appstores privés, gestion d'incidents en ligne...). 

Stockage et sauvegarde des données ainsi que l'adaptation des applicatifs aux nouveaux terminaux préoccupent quant à eux plus du tiers des décideurs. 

 

 

Page 8: EXAMEN PROFESSIONNEL DE TECHNICIEN DE CLASSE … · en une étude de cas faisant appel à des connaissances relatives à l'environnement et à ... Document 6 Sept bonnes pratiques

Document 4

Domial simplifie l’administration de ses clients légers avec Res Software  

Valéry Marchive, LeMagIT – 18 mars 2013

Cela méritait effectivement un peu d’optimisation. Mathieu Pilarz, DSI de Domial, groupe alsacien spécialisé dans le logement et aménagement urbain, explique administrer un important parc de terminaux légers... avec rien moins que 150 règles GPO (Group Policies - Politiques de groupe) différentes «en raison de 150 applicatifs différents liés à nos nombreux métiers». Une situation que ne manquait pas d’alourdir considérablement l’administration de l’environnement et même les ouvertures de session des utilisateurs : «dès qu’un client se connectait, Windows balayait toutes les règles avant de lui permettre d’accéder à son environnement de travail». Avec près de 300 utilisateurs répartis sur 13 sites distants, c’est simple : Mathieu Pilarz estime que «nous étions arrivés un peu aux limites ». Plus rapide et plus simple : le projet de migration de l’infrastructure TSE sur Windows Server 2008 R2 a été l’occasion d’avancer : «nous avons cherché des solutions pour faire évoluer la situation et simplifier l’administration». Workspace Manager de Res Software a ainsi été retenu : «il fonctionne à l’inverse et n’applique les stratégies qu’à la demande, au lancement des applications, à chaud». L’ouverture de session s’avère dès lors bien plus rapide : «seules des GPO minimalistes sont chargées» à ce moment-là. Mais les bénéfices ne s’arrêtent pas là et touchent aussi, sinon plus, à l’administration du parc. De fait, ses équipes ont pu «affiner les GPO, jusqu’au niveau de l’utilisateur individuel si nécessaire». Alors que des règles doivent être modifiées pour certaines applications, «nous n’avons plus besoin de parcourir toutes les GPO existantes ; il nous suffit de cibler l’application concernée». Une meilleure utilisation des ressources : si le passage à Windows Server 2008 R2 avait déjà permis de gagner en stabilité, Workspace Manager a également contribué à l’amélioration de la disponibilité de l’environnement avec «ses mécanismes d’optimisation de la mémoire et du processeur». Mathieu Pilarz explique ainsi avoir limité la mémoire vive disponible par utilisateur : «si l’on atteint la limite, soit on ferme la session soit... on optimise avec Workspace Manager, en libérant la mémoire utilisée par les applications ouvertes en tâche de fond. Il se passe la même chose avec la charge du processeur. Je pense que cela participe aussi de la stabilité de l’ensemble». En outre, ses équipes peuvent désormais «rafraîchir à chaud l’environnement TSE lorsque l’on fait des mises à jour parce que les règles sont appliquées au lancement de l’application et pas à l’ouverture de session. C’est utile notamment lorsque l’on ajoute une imprimante». De nouvelles perspectives : le projet a été conduit avec un partenaire local, sur la base d’une maquette déployée en parallèle de la ferme TSE existante : «nous avons installé et testé progressivement toutes les applications puis ciblé une dizaine d’utilisateurs clés pour un pilote». Le projet a coûté environ 50 000 euros. Les gains «sont difficiles à chiffrer» mais avec une réduction de 60 % des délais d’ouverture de session, on imagine déjà des bénéfices de productivité. Et surtout, «la ferme est disponible à 99 %. Avant, il y avait au moins un serveur qui plantait toutes les deux ou trois semaines». En tout, ses équipes administrent 12 serveurs TSE sur une base ESX, avec 24 Go de mémoire par machine virtuelle et deux machines virtuelles par serveur physique, pour environ 22 utilisateurs par serveur. Mais la capacité de modifier l’environnement utilisateur à la volée ouvre de nouvelles perspectives : «nous préparons un portail de selfcare automatisé pour certaines opérations à faible valeur ajoutée mais chronophages, comme l’ajout d’une imprimante ou un changement d’état civil». Tout un catalogue de services est ainsi en gestation et devrait être lancé en fin d’année.  

Page 9: EXAMEN PROFESSIONNEL DE TECHNICIEN DE CLASSE … · en une étude de cas faisant appel à des connaissances relatives à l'environnement et à ... Document 6 Sept bonnes pratiques

Document 5

 

La virtualisation des postes de travail : réponse aux enjeux informatiques Chronique de Philippe Labaste pour le journal du Net du 16/07/13 Directeur des ventes Europe du Sud et Afrique du Nord Division Cloud Client Computing, Dell France   

Vous avez certainement virtualisé vos serveurs et systèmes de stockage mais avez-vous également virtualisé vos postes de travail ? Voici quelques bonnes raisons de le faire.  De nombreuses équipes informatiques ont adopté la virtualisation des serveurs et des systèmes de stockage ces dernières années, mais rares sont ceux qui sont massivement allés plus loin tandis que d’autres n’ont pu envisager la virtualisation, faute de moyens financiers ou d’expertise ou par crainte des risques sécuritaires et d’une dégradation des performances. Les avantages durables de la virtualisation des postes de travail devraient les faire changer d’avis : moindres besoins et coûts de maintenance informatique rationalisés, gains de productivité et de flexibilité pour des utilisateurs qui vivent pleinement l’expérience du PC. La virtualisation de postes de travail est différente de la virtualisation de serveurs et de systèmes de stockage. La virtualisation des serveurs implique de répartir la capacité de traitement d’un serveur physique entre différents usages. De même, la virtualisation des systèmes de stockage consiste à regrouper la capacité de stockage physique de plusieurs services de stockage. Le principe de la virtualisation des postes de travail, en revanche, n’est pas de faire cohabiter plusieurs utilisateurs sur un seul poste de travail, mais de transférer les ressources du disque dur d’un PC vers un serveur pour les redistribuer à plusieurs PC, tablettes, smartphones et clients légers, sans contraintes géographiques ou presque, de manière à désolidariser l’utilisateur d’un terminal en particulier. Cette technique transpose ainsi aux postes de travail les avantages de sécurité renforcée et de simplicité de maintenance de la virtualisation de serveurs. Les applications et données sont stockées non plus sur un poste de travail local mais sur un serveur central sécurisé. Il devient alors possible d’accéder partout à son environnement bureautique, depuis n’importe quel terminal. D’un point de vue matériel, il existe toute une gamme de produits répondant aux besoins spécifiques des utilisateurs tels que la virtualisation de stations graphiques pour la conception assistée par ordinateur. Trois types de postes clients se prêtent particulièrement à la virtualisation de postes de travail. Parmi ceux-ci, le client léger traditionnel, à savoir un terminal sans disque et sans mémoire, qui se résume à une petite unité de traitement à laquelle se raccordent un clavier, une souris et un écran. Le client léger exige une connexion fiable et constante au serveur car il affiche à l’écran un environnement informatique résidant sur le serveur. Vient ensuite le Cloud PC, similaire du point de vue matériel à un PC, mais sans disque dur : le système d’exploitation et les applications résidant sur le serveur sont exécutées en local, garantissant ainsi les mêmes performances qu’un PC classique et mobilisant moins d’espace dans le datacenter. C’est la solution idéale pour résoudre les problèmes de performance, de gestion d’image système et de sécurité des filiales locales ou distantes. Enfin, le client zéro, un type de client optimisé pour un environnement dédié qui n’inclut qu’un système ultra réduit en local. Il ne fonctionne qu’avec les environnements Citrix, Microsoft et VMware. Conçus pour un environnement dédié, ils offrent une expérience optimale avec cet environnement et une sécurité inégalée. Les avantages de la virtualisation de postes de travail sont nombreux et permettent de résoudre des problèmes concrets et actuels : 

 

Page 10: EXAMEN PROFESSIONNEL DE TECHNICIEN DE CLASSE … · en une étude de cas faisant appel à des connaissances relatives à l'environnement et à ... Document 6 Sept bonnes pratiques

Migration de Windows Windows XP est resté sur le marché plus d’une décennie, période très longue pour un système d’exploitation. Microsoft a décidé de mettre fin au support de Windows XP. Les organisations doivent donc se résoudre à migrer vers Windows 7 ou Windows 8. Cette opération nécessite d’intervenir sur chaque ordinateur de l’entreprise pour remplacer XP par Windows 7 ou 8, avec les trop longues indisponibilités que cela suppose pour chaque employé, ou alors d’investir pour remplacer les postes de travail. L’alternative serait d’héberger les postes de travail dans le Cloud interne de l’entreprise. Quelques minutes suffiront alors pour y charger l’environnement Windows 7/8 virtuel, au lieu de plusieurs semaines voire des mois pour une migration traditionnelle, selon la taille de l’entreprise. 

Performances optimales Ne vous fiez pas à la petite taille de ces clients. Derrière leur format compact se cachent des technologies dernier cri ; installables partout, ils mobilisent très peu d’espace tout en vous offrant toutes les performances dont vous avez besoin. Ces clients légers consomment par ailleurs moins de 20 Watts (moins de 8 W pour la plupart), contre 100 W minimum pour un ordinateur fixe ou portable classique. 

Portabilité extrême Certains terminaux ne sont pas plus grands qu’une télécommande de voiture ou qu’une grande clé USB et peuvent transformer n’importe quel moniteur ou écran en un client léger ultra fonctionnel.  Sécurité renforcée Ordinateurs portables et clés USB se perdent et se volent facilement. D’où l’importance de sécuriser les données, quel que soit le secteur d’activité. Cela est d’autant plus simple que toutes les données sont réunies dans un même datacenter au lieu d’être disséminées sur de multiples terminaux et espaces de travail. 

Adoption des pratiques « Bring Your Own Device » (BYOD) Les entreprises souhaitent tirer profit de la flexibilité et de la satisfaction utilisateur du BYOD. L’un des problèmes avec le BYOD est que les données sont consultées et stockées sur des terminaux personnels. Dans un environnement de postes de travail virtuels, les applications et données de l’entreprise sont lues sur les ordinateurs portables, les tablettes ou les smartphones des utilisateurs, mais sans jamais y être enregistrées, ni chargées. Lorsque toutes les ressources sont stockées sur un serveur, chaque terminal personnel permet de les utiliser via une connexion haute fiabilité sans qu’il faille les charger en local. 

Transition vers le Cloud Outre les applications et contenus, vous pouvez aussi migrer les technologies d’administration de terminaux et des postes de travail virtuels dans le Cloud. Ainsi, c’est tout l’environnement de travail qui est distribué en mode cloud « as-a-service ».  La virtualisation de postes de travail mérite donc réflexion. Cependant, armé des bons outils et des bonnes informations, vous pourrez déployer un système dont tous les acteurs de l’entreprise pourront bénéficier. Soulagés de nombreuses tâches d’administration répétitives et de bien des préoccupations liées à la sécurité et la maintenance, les techniciens IT pourront se concentrer sur des projets plus stratégiques pour l’entreprise. Les utilisateurs gagneront en productivité et en satisfaction, libres de se connecter au réseau de l’entreprise partout, depuis le terminal de leur choix. Il va sans dire que l’efficacité IT accrue combinée à la plus grande productivité du personnel ne peut qu’être bénéfique pour le chiffre d’affaires. La virtualisation des postes de travail est pour les organisations une stratégie gagnant-gagnant. 

Page 11: EXAMEN PROFESSIONNEL DE TECHNICIEN DE CLASSE … · en une étude de cas faisant appel à des connaissances relatives à l'environnement et à ... Document 6 Sept bonnes pratiques

Document 6

Sept bonnes pratiques pour réussir un projet de virtualisation de serveurs (extraits) par Thierry Lévy-Abégnoli, Jeudi 19 Mars 2009, ZDNET 

Avis d'expert : Un projet de virtualisation poursuit des objectifs économiques et stratégiques, et impacte fortement les infrastructures, l’organisation et le personnel IT. Voici sept bonnes pratiques permettant de mieux gérer ces changements.  1 – Définir les objectifs 

Le principal objectif d’un projet de virtualisation réside dans la consolidation de serveurs, synonyme de réduction des coûts du matériel. D’autres économies sont induites par l’impact sur la salle informatique : encombrement au sol réduit, serveurs plus sobres, climatisation moins puissante. La mise en place d’un plan de reprise d’activité est de plus en plus souvent placée au même niveau de priorité que la consolidation. La virtualisation permet en effet, à moindre coût, de reprendre sur un site distant une production interrompue par un incident ou un sinistre. Troisième objectif : l’accélération du déploiement de nouveaux serveurs de développement, de test ou de production. Enfin, la virtualisation permet de continuer à exploiter des serveurs tournant sous des versions anciennes d’applications et de systèmes d’exploitation.  2 – Réaliser une cartographie et déterminer les machines cibles La cartographie matérielle et logicielle du SI facilite l’identification des serveurs physiques qu’il s’agira de virtualiser. Cette phase peut s’appuyer sur des outils qui mesurent le taux de charge des serveurs. Ceux dont les ressources sont sous-utilisées auront vocation à être virtualisés. En revanche, messagerie, bases de données ou infrastructures de clients légers consommant plus de 80 % des ressources resteront sur des serveurs physiques. «Il faut également tenir compte de la responsabilité des différents éditeurs. Il reste ainsi difficile d’obtenir un engagement de service global pour un gros ERP déployé dans un environnement virtuel», constate Jean-Philippe Cuenot, directeur conseil chez SCC. 

Il est parfois suffisant de répartir les machines virtuelles sur les serveurs physiques, uniquement en fonction de leur consommation mémoire et CPU. Mais on oblitère alors la dimension temporelle. On évitera ainsi de placer sur les mêmes serveurs, des machines virtuelles dont les pics de charge sont simultanés. 

3 – Calculer le ROI mais ne pas se polariser dessus Au crédit du ROI figure la réduction du nombre de serveurs et des coûts d’infrastructure et d’administration. L’impact sur le coût des licences est moins important, car il faut par exemple une licence Windows par machine virtuelle. Mais tout dépend des versions choisies. Ainsi, Windows Server 2008 Data Center inclut un nombre illimité de licences. Certains avantages de la virtualisation sont en outre qualitatifs ou difficiles à évaluer. Quoi qu’il en soit, selon Cédric Bravo, architecte infrastructure chez Neos-SDI : « Il ne faut pas se polariser sur le ROI car l’investissement matériel et logiciel contrebalance peu ou prou les économies. Au final, la virtualisation se justifie davantage en termes d’agilité. Un déploiement plus rapide peut ainsi se traduire par un avantage compétitif ». 

4 – Inscrire la virtualisation dans un projet d’infrastructure plus vaste L’adoption de la virtualisation doit s’inscrire dans un projet d’infrastructure qui inclut typiquement le déploiement d’un SAN et de châssis de serveurs lames. «Le nombre de ports utilisés diminue fortement, ce qui peut amener à revoir également l’architecture réseau», complète Jean-Philippe Suenot.  

Page 12: EXAMEN PROFESSIONNEL DE TECHNICIEN DE CLASSE … · en une étude de cas faisant appel à des connaissances relatives à l'environnement et à ... Document 6 Sept bonnes pratiques

Document 7

Microsoft Cloud et serveurs d’entreprise, virtualisation (extraits) https://www.microsoft.com/france/serveur-cloud/virtualisation/produits-virtualiser.aspx  

Les produits Microsoft pour virtualiser Microsoft vous propose une offre très complète pour vous permettre de virtualiser efficacement et selon votre profil. 

Voici ci-dessous les produits les plus adaptés afin de virtualiser et d’administrer vos infrastructures physiques et virtuelles : 

Hyper-V : l’hyperviseur Microsoft Hyper-V virtualise les ressources système d’un ordinateur physique. Cela crée un environnement virtualisé pour des systèmes d’exploitation et des applications. Utilisé seul, Hyper-V sert généralement à la virtualisation d’un serveur. Utilisé conjointement à VDI, l’infrastructure de poste de travail virtuel, Hyper-V permet la virtualisation des postes clients. 

Hyper-V est compatible avec la plupart des systèmes d’exploitation, et se révèle ainsi une solution très flexible. 

Windows Server 2012, le système d’exploitation par excellence Windows Server 2012 est le système d’exploitation idéal pour virtualiser, parce qu’il intègre nativement et gratuitement l’hyperviseur Microsoft Hyper-V. 

Avec Windows Server 2012, vous disposez d’une console d’administration unifiée pour les bureaux virtuels (VDI), les bureaux de sessions et les Remote Apps. 

Hyper-V Replica permet de répliquer des machines virtuelles, entre sites, de manière planifiée et asynchrone au travers de liens réseaux standards. 

Par ailleurs, grâce à la nouvelle fonctionnalité Live Migration sans stockage partagé, il est désormais possible de migrer à chaud des machines virtuelles entre différents hôtes Hyper-V sur différents Clusters ou serveurs sans stockage partagé, en utilisant une simple connexion Ethernet, et sans interruption de service. 

System Center 2012, pour administrer vos infrastructures System Center 2012 est une solution d’administration complète qui vous aide à gérer vos environnements informatiques qu’ils soient des datacenters traditionnels, des Clouds privés et publics, des ordinateurs clients ou des périphériques. 

System Center 2012 fournit une panoplie unique d’outils pour gérer les applications et services dans votre Cloud privé ou public, rendant possible une infrastructure productive, des applications prévisibles, et un Cloud Computing à vos conditions vous permettant ainsi de délivrer une informatique tel un service à vos métiers. 

 

 

 

 

10 

Page 13: EXAMEN PROFESSIONNEL DE TECHNICIEN DE CLASSE … · en une étude de cas faisant appel à des connaissances relatives à l'environnement et à ... Document 6 Sept bonnes pratiques

Document 8

VirtualBox (extraits)

http://www.framasoft.net/article4996.html sujet Virtualbox 

Le logiciel qui remplace des machines 

VirtualBox permet d’émuler n’importe quel système d’exploitation grand public. Par exemple, VirtualBox permet de démarrer un Windows dans une fenêtre d’un ordinateur sous GNU/Linux (ou inversement). Le principal inconvénient étant qu’il faut avoir une machine puissante tant du point de vue de la mémoire RAM (>1Go), que du processeur (>2GHz) et bien sûr suffisamment de place sur son disque dur pour installer plusieurs systèmes dessus. 

VirtualBox permet de faire fonctionner à peu près n’importe quel système d’exploitation grand public, depuis n’importe quel système d’exploitation grand public : Windows toutes versions, MacOS X, GNU/Linux Debian/Ubuntu ... 

Il est donc utile aux utilisateurs de Windows qui veulent tester un Linux sans redémarrer leur machine, et aux utilisateurs de Linux qui ne peuvent se débarrasser d’un logiciel tournant sous Windows (par exemple le vieux logiciel d’accès aux données d’un ordinateur de plongée, qui n’était disponible que pour Windows 95 avant que le constructeur ne ... coule...). Et il peut encore être utile à un utilisateur de Linux voulant démarrer un live-cd d’une autre version de Linux sans redémarrer toute sa machine (pratique pour déclarer ses impôts depuis un live-cd de KLA avec la bonne version de la machine virtuelle Java qui n’est plus disponible dans les dépôts depuis des années). Comment s’y prendre Avec VirtualBox, des interfaces graphiques vous guident dans la configuration des machines virtuelles, du choix du système installable au nombre de carte réseau à simuler, en passant par la taille du disque dur, les fonctionnalités du micro-processeur, la quantité de mémoire RAM vampirisée à la machine physique et la présence de lecteurs (disquette, CD-ROM). 

La machine se trouve alors décrite dans un fichier XML facilement transportable, accompagné d’un deuxième fichier faisant office de disque dur virtuel. Ces disques peuvent être utilisés par plusieurs machines virtuelles, et ils grossissent en fonction de leur utilisation dans la limite des capacité de votre disque dur réel. 

Pour démarrer une machine virtuelle, il suffit de double-cliquer sur son icône dans la liste des machines virtuelles configurées dans votre VirtualBox. Une fois démarrée, elle se comporte comme un ordinateur à part entière, et si vous positionnez sa fenêtre en plein écran l’illusion sera parfaite. Vous pouvez également en lancer plusieurs en même temps si vous disposez d’une machine suffisamment puissante et vous pourrez alors faire fonctionner un serveur web dans une VM sous Linux, et aller consulter ce dernier avec des navigateursnatifs de différents systèmes d’exploitation : Firefox, Dillo, Camino, chacun depuis sa VM... Par un jeu de NAT, une machine virtuelle accède généralement sans problème à Internet si l’ordinateur hôte y est connecté. De plus il est possible de mettre en place un partage de dossier entre l’ordinateur hôte et la machine émulée. Les deux dossiers fusionnent alors. Si vous aviez partagé votre dossier « bureau », vos fichiers de la machine hôte apparaissent sur le bureau de la machine émulée (et inversement). Pour lancer un live-cd dans une machine virtuelle, nul besoin de le graver, il suffit de préciser que l’image iso du live-cd est à considérer comme chargée dans le lecteur CD-ROM virtuel. Enfin, VirtualBox se complète pour chaque système d’exploitation hôte (Windows, Mac, Linux, Solaris...) par des « suppléments invités ». Il s’agit de greffons qui ajoutent au logiciel une meilleure intégration avec son système hôte (suivi du pointeur de la souris, redimensionnement de la fenêtre...).

11 

Page 14: EXAMEN PROFESSIONNEL DE TECHNICIEN DE CLASSE … · en une étude de cas faisant appel à des connaissances relatives à l'environnement et à ... Document 6 Sept bonnes pratiques

Et les autres ?  Les principaux concurrents de VirtualBox sont VMware et VirtualPC pour les non-libres et Qemu voire Xen et KVM pour les libres, mais ces deux derniers sont dépourvus d’interfaces graphiques.  Tout comme Qemu, VirtualBox n’est disponible librement qu’en version limitée. En effet, sans module noyau propriétaires Qemu est lent [1] et VirtualBox « OpenSource Edition » est dépourvue de gestion des périphériques USB (clé USB, Webcam, SCSI...).  De plus, nous profitons que VirtualBox soit à nouveau libre après son rachat par Sun, pour publier cette notice avant qu’Oracle n’en décide peut-être autrement pour ses futures versions...  Conclusion  En conclusion, pour l’instant VirtualBox est bien libre et compte parmi les plus performants et les plus conviviaux de sa catégorie. Il a souffert d’une instabilité chronique pendant des années, mais ce n’est plus le cas (sous Linux tout du moins) depuis les versions 2.6. Il est développé et supporté par un ténor du monde logiciel et même s’il est du coup difficile d’y contribuer, il remplit sans coup férir ses fonctions. C’est un logiciel puissant qui permet de tester et débloquer bien des situations, mais qui nécessite une machine tout aussi puissante pour fonctionner, et qui manipule un concept évolué et encore relativement novateur.  

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

12 

Page 15: EXAMEN PROFESSIONNEL DE TECHNICIEN DE CLASSE … · en une étude de cas faisant appel à des connaissances relatives à l'environnement et à ... Document 6 Sept bonnes pratiques

Document 9

La virtualisation basée sur le noyau (extraits)  KVM  Kernel-based Virtual Machine (Machine virtuelle basée sur le noyau)  KVM (Kernel-based Virtual Machine) est un hyperviseur libre de type I pour Linux. KVM est intégré dans le noyau Linux depuis la version 2.6.20.  Il fonctionne originellement sur les processeurs à architectures x86 disposant des instructions de Virtualisation Intel VT ou AMD-V. Depuis, KVM a été porté pour les architectures Power PC, IA-64 ainsi que ARM depuis le noyau Linux 3.9.  Histoire 

Le développement de KVM a commencé au sein de la société Qumranet par Avi Kivity. Red Hat a racheté Qumranet le 4 septembre 2008. Depuis KVM est co-maintenu par le développeur Marcelo Tosatti. 

Fonctionnement 

KVM est une instance de QEMU. Les développeurs des deux projets essayent de ne pas trop diverger et le code source des deux projets est fréquemment resynchronisé. La principale modification apportée est la prise en charge du module kvm. Lorsqu'on parle de KVM, on parle généralement de l'ensemble : la version modifiée de QEMU et le module kvm.  QEMU est capable, grâce à son module KQEMU ("K" pour 'Kernel', noyau en anglais), d'exécuter du code machine directement sur le processeur hôte afin d'accélérer l'émulation. Mais cette technologie, bien qu'apportant un gain de performance important, n'est pas parfaite, car des mécanismes pour intercepter et émuler les évènements privilégiés doivent être mis en place ; or le code noyau du système invité, fonctionnant normalement entièrement en mode privilégié et étant émulé de manière classique, est donc fortement pénalisé alors qu'il s'agit de l'élément crucial du système. 

Les processeurs de la famille x86 disposent de 4 niveaux de privilège d'exécution, appelés anneaux de protection. En plus de ces anneaux, les processeurs récents intègrent un nouveau mécanisme d'isolation qui permet à un système invité d'être exécuté directement sur le processeur quels que soient les anneaux de protection qu'il requiert pour fonctionner, tout en assurant la protection contre la lecture et l'écriture dans la mémoire n'appartenant pas à la machine virtuelle. Cela est principalement possible grâce à une MMU dédiée à chaque machine virtuelle sur le processeur et à une redirection des interruptions matérielles vers l'hyperviseur de machines virtuelles (KVM en l'occurrence) afin d'émuler le matériel dont a besoin le système invité. 

Les technologies mises en place par les deux principaux fondeurs que sont AMD et Intel étant différentes, le module kvm se décline en deux sous-modules : kvm-intel et kvm-amd ; le module kvm n'étant là en fait que pour fournir à l'émulateur une abstraction supplémentaire. Dans les versions récentes de kvm (au minimum la version 60) il est possible d'utiliser un mécanisme similaire à la paravirtualisation en utilisant virtio. Les pilotes virtio sont inclus dans le noyau Linux de version 2.6.25 au minimum. Il existe aussi des pilotes virtio pour Windows. Ce mécanisme permet une vitesse d'exécution accrue car il n'est plus nécessaire d'émuler des périphériques matériels. Cependant, ce système sort du cadre de la virtualisation au sens strict car il faut que les pilotes soient informés qu'il s’exécute dans un environnement virtualisé.  

13 

Page 16: EXAMEN PROFESSIONNEL DE TECHNICIEN DE CLASSE … · en une étude de cas faisant appel à des connaissances relatives à l'environnement et à ... Document 6 Sept bonnes pratiques

Document 10

Note technique No DAT-NT-011/ANSSI/SDE/NP du 26 septembre 2013 de l’agence nationale de la sécurité des systèmes d’information : Problématiques de sécurité associées à la virtualisation des systèmes d’information (extraits)  

1 Préambule 

Les technologies dites de «virtualisation» ont connu un essor important ces dernières années, lié notamment au développement de nouveaux usages comme l’informatique en nuage (cloud computing). Virtualiser un ensemble de serveurs est devenu aujourd’hui relativement aisé, et de nombreuses entreprises ont choisi de «virtualiser» leurs serveurs pour faire des économies de place, d’énergie et de budget. Mais les risques associés à l’utilisation de ces nouvelles technologies sont-ils systématiquement pris en compte ? Les conséquences de la virtualisation sont-elles correctement comprises et acceptées ? L’objet de ce document est de présenter ces risques et les principaux points à considérer pour s’en prémunir. Il reste volontairement à un niveau technique intermédiaire afin d’être accessible au plus grand nombre, y compris à des lecteurs ne disposant pas de connaissances poussées en architecture des ordinateurs ou des réseaux. Il n’aborde pas le cas des systèmes traitant des informations classifiées de défense. Le lecteur pressé pourra se rapporter au chapitre 6 qui présente une liste de points de contrôle permettant d’apprécier le niveau de sécurité d’un système d’information virtualisé. 

2 Introduction 

Virtualiser, c’est en essence, et en simplifiant à l’extrême, rendre indépendant du matériel le socle logiciel d’une machine. Virtualiser permet de faire s’exécuter sur une même machine plusieurs systèmes jusqu’alors installés sur des machines physiques distinctes, ou de migrer en quelques instants et de manière transparente un système d’une machine à une autre. Virtualiser nécessite de mettre en œuvre une solution de virtualisation qui assure la gestion des différents systèmes virtualisés et leur exécution. De fait, de plus en plus de responsables informatiques se tournent vers les solutions de virtualisation, en raison des atouts supposés de ces technologies, par exemple : 

– un meilleur taux d’utilisation des ressources informatiques, qui peut apporter en outre, dans certains cas, une économie d’énergie 1 ; – une meilleure disponibilité des systèmes, dans la mesure où les systèmes deviennent facilement «clonables» ou «réplicables» en cas de panne matérielle. Certaines solutions permettent de déplacer automatiquement des systèmes d’une machine à une autre en cas d’incident ou de perte de performances. La facilité de clonage des systèmes est également particulièrement appréciée pour créer des environnements de test représentatifs de la réalité ; – une meilleure répartition de charge, puisque la solution de virtualisation sait généralement répartir la charge entre les différentes machines ; – de potentiels gains financiers ou d’encombrement. 

Cependant, comme nous le verrons tout au long de ce document, la virtualisation introduit aussi de nouveaux risques, aussi bien techniques qu’organisationnels, qui viennent s’ajouter aux risques des systèmes d’information classiques. Ces risques intrinsèques viennent contrebalancer les avantages mis en avant par les éditeurs de solutions, et force est de constater que les mesures de sécurité indispensables pour les couvrir viennent souvent obérer une partie des économies potentielles envisagées initialement. La migration d’un système d’information vers des solutions de virtualisation, potentiellement irréversible, ne doit donc pas être envisagée uniquement dans une perspective de gain financier. Toute organisation qui souhaite héberger certains services et données au sein d’un système utilisant ces technologies doit donc faire ce choix avec discernement et en toute connaissance des risques engendrés sur le plan de la sécurité. 

14 

Page 17: EXAMEN PROFESSIONNEL DE TECHNICIEN DE CLASSE … · en une étude de cas faisant appel à des connaissances relatives à l'environnement et à ... Document 6 Sept bonnes pratiques

[…] 

4 Les risques liés à la virtualisation 

Les risques liés à la virtualisation des systèmes viennent s’ajouter aux risques « classiques » d’un système d’information. Ce sont des risques nouveaux, additionnels. En effet, tous les risques existant déjà pour une solution « sans virtualisation » perdurent a priori : les risques liés aux vulnérabilités des systèmes d’exploitation, les risques d’attaques basées sur le matériel ou les risques liés à une administration à distance non sécurisée. Dans le cas d’un choix d’architecture regroupant plusieurs systèmes sur une même machine, on doit ainsi considérer : – les risques pouvant toucher un système ; – ceux portant sur la couche d’abstraction ; – les risques induits par la combinaison des deux. De plus, le fait de regrouper plusieurs services sur un même matériel augmente les risques portant sur chacun. Il est donc important de connaître l’ensemble des risques pour en maîtriser l’impact en termes de confidentialité, d’intégrité et de disponibilité des données et des applications.  Risque 1 : Risque accru de compromission des systèmes  On entend ici par «compromission» la prise de contrôle par un acteur malveillant d’une brique utilisée dans le système virtualisé. Il peut s’agir d’une compromission d’un système invité depuis un autre système invité, ou du système hôte depuis un système invité. On remarque qu’une compromission du système hôte peut éventuellement entraîner une compromission de l’ensemble des systèmes s’exécutant sur la machine. On note également que plus la compromission touche le système en profondeur, plus elle aura de conséquences sur les capacités de remise en service ultérieure du système. Si une instance est compromise, comment décider si les autres instances qui s’exécutaient sur la machine hôte doivent être considérées comme compromises ? En cas de mise en oeuvre de techniques de migration, comment déterminer précisément le domaine de propagation des instances compromises ? Le principal évènement redouté suite à une compromission est la fuite d’informations sensibles ou, dans certains cas, des perturbations engendrées par une modification du système pouvant aller jusqu’à l’indisponibilité d’un service. Les solutions permettant d’empêcher une compromission sont souvent délicates à mettre en oeuvre. Il s’agira de diminuer au maximum la surface d’attaque. Il conviendra notamment que chaque brique (matériel, système d’exploitation hôte, systèmes d’exploitation invités etc.) soit à jour de tous les correctifs de sécurité. En particulier, l’emploi d’une solution de virtualisation imposant aux systèmes invités de fonctionner dans des configurations obsolescentes n’est pas acceptable. Plus généralement, l’application stricte du principe de défense en profondeur est indispensable. Pour cela, on veillera à utiliser uniquement des systèmes, hôtes et invités, pouvant être nativement sécurisés. Les systèmes invités doivent en effet être durcis pour rendre difficile l’exploitation d’une faille potentielle présente dans la couche d’abstraction ou dans la couche matérielle.   

   

15 

Page 18: EXAMEN PROFESSIONNEL DE TECHNICIEN DE CLASSE … · en une étude de cas faisant appel à des connaissances relatives à l'environnement et à ... Document 6 Sept bonnes pratiques

 

Enfin, il est généralement aisé de « remonter » un système invité défaillant sur une autre machine physique à partir d’une image saine. Néanmoins, seule la mise en oeuvre du principe de défense en profondeur permet de localiser précisément l’origine de la compromission (système invité, système hôte, matériel, données, etc.).  Risque 2 : Accroissement du risque d’indisponibilité  Comme évoqué précédemment, une compromission peut engendrer une indisponibilité d’un service. Cependant, ce risque peut apparaître, même en l’absence de compromission. Ainsi, si d’une part un atout de la virtualisation est l’utilisation plus intensive des ressources informatiques, d’autre part, la panne d’une ressource commune peut engendrer l’indisponibilité simultanée de plusieurs systèmes. De même, une attaque en disponibilité sur un des systèmes (ou plus généralement sur une ressource commune) impactera potentiellement tous les services hébergés sur la même machine. Là encore, les préconisations faites au point précédent s’appliquent. De plus, si des besoins en disponibilité différent sensiblement d’une application à une autre, il peut être préférable de placer sur des machines dédiées celles dont les besoins en disponibilité sont les plus élevés.  Risque 3 : Fuite d’information par manque de cloisonnement  Bien que les solutions de virtualisation mettent généralement en oeuvre des mécanismes de cloisonnement des instances se partageant une même ressource, ces instances ne sont en pratique jamais totalement isolées. Dans certains cas, des flux existent entre les différentes instances (systèmes d’exploitation, applications, systèmes de stockage de données, . . .), et ces flux peuvent engendrer des vulnérabilités. La maîtrise des différents échanges internes à une même machine physique est par ailleurs particulièrement difficile. En effet, il sera généralement délicat de garantir que les ressources bas niveau partagées ne permettent pas des fuites d’information.  Pour illustrer ces propos, prenons l’exemple de l’accès au réseau d’une machine informatique. Dans une architecture sans virtualisation, les machines (au nombre de trois sur la figure 3) communiquent sur des réseaux physiques au moyen, par exemple, d’une carte réseau spécifique. Les flux de données sont ainsi traités, au niveau des machines, par chaque carte réseau et peuvent être identifiés précisément. 

 

 

 

 

 

 

 

 

Figure 3 – Architecture sans virtualisation 

16 

Page 19: EXAMEN PROFESSIONNEL DE TECHNICIEN DE CLASSE … · en une étude de cas faisant appel à des connaissances relatives à l'environnement et à ... Document 6 Sept bonnes pratiques

[…]

Dans une architecture avec virtualisation, les machines virtuelles peuvent par exemple communiquer sur des réseaux physiques par le biais d’une carte unique appartenant à la machine physique qui les héberge. Les flux de données de chaque machine virtuelle sont donc traités par cette unique carte réseau. Dès lors, il n’est pas possible de garantir un cloisonnement des flux au niveau de la ressource partagée. En cas d’erreur ou de compromission de la carte réseau, un accès aux données des différents flux d’information est possible. 

 

 

 

 

 

 

 

 

Figure 4 – Architecture avec virtualisation 

[…]

Dans ce contexte, pour mieux répondre au besoin de cloisonnement, le choix peut être fait d’avoir autant de cartes réseau que de machines virtuelles hébergées sur une machine physique (cf. figure 5). Il conviendrait idéalement de vérifier - mais une telle vérification est en pratique irréaliste - que les composants impliqués dans la chaîne de traitement du flux de données entre une machine virtuelle et la carte réseau attribuée gèrent correctement le cloisonnement des données suivant leur appartenance à une machine virtuelle. Par exemple, pour gérer le cloisonnement des flux d’entrées/sorties passant par la mémoire, un composant IOMMU peut être utilisé (représenté par le quadrillage dans la figure 5) ; mais si un contrôleur d’entrées/sorties non compatible avec le composant IOMMU est utilisé, il fera passer dans une zone mémoire commune tous les flux issus des différentes machines virtuelles, ce qui présente un risque de fuite d’informations, volontaire ou non. 

 

 

 

 

 

 

Figure 5 – Architecture avec virtualisation comprenant une carte réseau physique par système invité 

17 

Page 20: EXAMEN PROFESSIONNEL DE TECHNICIEN DE CLASSE … · en une étude de cas faisant appel à des connaissances relatives à l'environnement et à ... Document 6 Sept bonnes pratiques

Enfin, s’il s’avère que les objectifs de sécurité fixés en matière de cloisonnement ne peuvent être remplis par l’une ou l’autre des techniques évoquées précédemment, certains environnements (réseau parexemple) ne devront pas s’exécuter dans l’environnement virtualisé. Le choix d’un retour partiel à une solution classique (c’est à dire sans virtualisation) pourra alors être plus adapté à un bon cloisonnement des flux. 

 

 

 

 

 

 

 

 

Figure 6 – Architecture mixte, avec et sans virtualisation 

Les risques principaux induits par un défaut d’isolation sont la fuite d’information et l’atteinte à l’intégrité des données. Un moyen de réduire ces risques pourra être aussi, suivant les contextes, de garantir une bonne étanchéité des données par le biais de mécanismes de confidentialité et de contrôle d’intégrité des données de bout en bout (par exemple dans le cas du réseau, par l’utilisation d’IPsec). 

[…] 

Compte tenu de ces différents risques, il convient de tenir compte des 9 recommandations qui suivent.[…]  R1 La politique de sécurité du système faisant l’objet d’une démarche de virtualisation doit être mise à jour pour qu’y soient inclus certains items spécifiques à la technologie de virtualisation employée.  Définition précise des processus d’administration des systèmes hôtes et invités. Il s’agit de décrire de manière précise les règles relatives à l’administration des systèmes. Une règle peut être de ne pas autoriser l’administration distante de certaines machines compte tenu du degré de sensibilité des informations qu’elles hébergent, y compris ponctuellement. Il est par ailleurs recommandé de renforcer certains mécanismes de sécurité dans le cas d’administration distante (mise en oeuvre de mécanismes d’authentification forte, de confidentialité et de contrôle d’intégrité, d’audit). Description détaillée des configurations de système(s) attendues. Il s’agit de décrire de manière précise les configurations de système(s) attendues en identifiant clairement les mécanismes qui peuvent contribuer directement ou indirectement à couvrir les risques induits par la virtualisation. Tout paramètre système visant à améliorer les principes d’étanchéité et de non propagation des compromissions est ainsi à considérer. Procédures de mise à niveau et de suivi des systèmes invités. La mise à niveau des systèmes invités consiste à mettre à jour une machine virtuelle (versions du système et de ses applications, maintien des licences nécessaires, application régulière des correctifs de sécurité, etc.) quel que soit l’état dans lequel elle se trouve (en exécution ou sous sa forme d’image stockée quelque part dans le système d’information).  

18 

Page 21: EXAMEN PROFESSIONNEL DE TECHNICIEN DE CLASSE … · en une étude de cas faisant appel à des connaissances relatives à l'environnement et à ... Document 6 Sept bonnes pratiques

Le suivi des systèmes invités quant à lui consiste à déterminer à tout instant et de manière précise la localisation d’une machine virtuelle. Des procédures claires doivent être référencées dans la politique de sécurité du système ayant fait l’objet d’une virtualisation. Ces dernières prennent en compte les applications s’exécutant sur les machines virtuelles et les contraintes associées (ex : report d’une mise à jour). Établissement des règles de localisation et de migration des systèmes.

[…] 

Il sera nécessaire de définir une politique de localisation des systèmes invités et de migration. Cette politique devra notamment :  – décrire explicitement les types des machines physiques hôtes ; – décrire explicitement les types des systèmes gérés ; – définir les règles de localisation d’une machine virtuelle sur une machine hôte. Une de ces règles pourra être de refuser qu’une même ressource héberge des systèmes ayant des niveaux de sensibilité ou de confiance différents.  R2 Un processus de veille des vulnérabilités propres aux technologies de virtualisation utilisées au sein de l’organisme doit être mis en place. Les alertes diffusées par les éditeurs de solutions de virtualisation doivent être particulièrement surveillées, de même que celles des éditeurs de systèmes d’exploitation et de matériels utilisés dans les architectures de virtualisation (serveurs, cartes réseau, équipements de stockage, etc. . .) et celles des CERT. Ceci est indispensable au maintien en condition de sécurité du système mettant en œuvre ces technologies dès lors que sont appliqués les correctifs couvrant l’apparition de vulnérabilités. En l’absence de correctif, une analyse doit être effectuée afin d’apprécier le risque et prendre les mesures organisationnelles adaptées pour le limiter. On pourra ainsi établir une liste précise des technologies matérielles ou logicielles utilisées par l’entreprise et des vulnérabilités connues sur ces technologies. Lorsque le niveau de vulnérabilité d’une technologique atteindra un niveau jugé non acceptable, on devra envisager son retrait du service. On devra préférer les solutions de virtualisation qualifiées par l’ANSSI, et à défaut certifiées, en s’assurant néanmoins que le niveau de l’évaluation et la cible de sécurité associées prennent bien en compte les problématiques évoquées précédemment (cloisonnement sûr des flux de données, etc.).  R3 Réduire la surface d’attaque de la solution de virtualisation. Certaines solutions de virtualisation comportent des éléments d’authentification par défaut (mots de passe par défaut, certificats par défaut ou générés à la première initialisation de la machine). Il est impératif de changer les éléments d’authentification par défaut avant la mise en service opérationnelle de la solution. Par ailleurs, toutes les fonctions non strictement nécessaires au bon fonctionnement de la solution dans l’environnement opérationnel (exemple : migration à chaud de machines virtuelles entre deux serveurs hôtes) doivent systématiquement être désactivées.  R4 Concevoir une architecture respectant le principe de cloisonnement. Les exigences de cloisonnement (isolation des flux) doivent être prises en compte dans la conception de l’architecture du système. Cela conduit de fait à définir très précisément l’architecture matérielle nécessaire pour répondre au besoin fonctionnel en tenant compte des objectifs de sécurité fixés, et à décrire des règles précises à appliquer lors des évolutions du système. L’exemple suivant concerne le cas du réseau, pour lequel certains problèmes potentiels ont déjà été sommairement présentés précédemment. Suivant les cas et les contextes, l’architecture matérielle pourra ainsi prévoir au choix : – une carte réseau physique distincte pour chaque machine virtuelle hébergée sur une machine physique. Ceci est à moduler si des moyens complémentaires garantissant un bon cloisonnement des flux (chiffrement IPsec) sont prévus par ailleurs ;

19 

Page 22: EXAMEN PROFESSIONNEL DE TECHNICIEN DE CLASSE … · en une étude de cas faisant appel à des connaissances relatives à l'environnement et à ... Document 6 Sept bonnes pratiques

– une carte réseau physique distincte pour chaque groupe de machines virtuelles hébergé sur une machine physique, les machines virtuelles étant regroupées par exemple par niveau de sensibilité des informations manipulées. L’emploi là aussi de moyens complémentaires pour cloisonner correctement les flux peut moduler cette règle ; – qu’une partie du système soit gérée en dehors de la solution de virtualisation. Cette situation pourra se produire si une application particulière a des besoins de sécurité supérieurs à d’autres.  R5 Utiliser des matériels gérant le cloisonnement.  Tout matériel, quel que soit son type (contrôleur disque, carte réseau, processeur, etc.) doit, autant que faire se peut, gérer le cloisonnement rendu nécessaire par la virtualisation (isolation des flux). Si le niveau d’exigences établi par la politique de sécurité ne peut être atteint, la pertinence de l’emploi des technologies de virtualisation devra être réévaluée. Le choix d’un matériel ne supportant pas les mécanismes de cloisonnement devra être justifié et les risques induits assumés. Par exemple, si la solution de virtualisation retenue est à même de gérer une IOMMU, on pourra rendre obligatoire l’utilisation de composants 14 compatibles avec cette IOMMU.  R6 Mettre à jour le plan de reprise ou de continuité d’activité.  Lors de la compromission d’un système, il est difficile d’affirmer que les autres systèmes s’exécutant sur la même machine ne sont pas affectés. Les plans de reprise et de continuité d’activité doivent donc tenir compte des spécificités liées à la virtualisation et être mis à jour en conséquence.  R7 Dédier une équipe d’administration à la solution de virtualisation distincte de celle des systèmes invités.  Dans une logique de séparation des rôles, il est nécessaire de prévoir une équipe d’administration de la solution de virtualisation qui soit indépendante de l’équipe d’administration des systèmes invités. L’équipe d’administration de la solution de virtualisation doit avoir notamment en charge :  – l’administration des machines hôtes ; – l’administration des équipements de stockage physiques (NAS/SAN) ; – l’administration des équipements réseau physiques (et virtuels le cas échéant) ; – l’administration de la solution de virtualisation (dans son ensemble) ; – la gestion de la sécurité associée à la virtualisation et plus particulièrement le maintien d’un cloisonnement des instances hébergées du fait du partage de ressources ; – éventuellement l’audit et la supervision des machines hôtes.  Cette équipe doit disposer du droit d’en connaître sur toutes les données, y compris celles ayant la sensibilité la plus élevée manipulées par les systèmes considérés sauf si elles soient chiffrées de telle sorte que l’équipe d’administration ne puisse techniquement y accéder.  R8 Prévoir une équipe d’administration des machines virtuelles (systèmes invités) indépendante de l’équipe d’administration de la solution de virtualisation.  L’équipe d’administration des machines virtuelles (systèmes invités) a notamment en charge :  – l’administration des systèmes d’exploitation invités ainsi que leurs applications ; – la sécurité propre à ces systèmes et leurs applications ; – éventuellement l’audit et la supervision de ces systèmes et leurs applications.   

20 

Page 23: EXAMEN PROFESSIONNEL DE TECHNICIEN DE CLASSE … · en une étude de cas faisant appel à des connaissances relatives à l'environnement et à ... Document 6 Sept bonnes pratiques

Cette équipe doit disposer du droit d’en connaître sur toutes les données traitées par les systèmes invités dont elle a la responsabilité y compris celles qui ont la sensibilité la plus élevée.  R9 Former les équipes d’administration, d’audit et de supervision aux techniques de virtualisation.  Il s’agit de former spécifiquement les administrateurs, les auditeurs et les superviseurs aux techniques de virtualisation afin qu’ils les maîtrisent et les sécurisent. Ces personnes doivent donc acquérir une bonne connaissance des technologies employées et être familiers des tâches d’administration système et réseau usuelles. Il n’est pas nécessaire de former tous les administrateurs mais confier l’administration et la supervision des couches de virtualisation aux plus intéressés et expérimentés est un bon choix. […]                                         

21 

Page 24: EXAMEN PROFESSIONNEL DE TECHNICIEN DE CLASSE … · en une étude de cas faisant appel à des connaissances relatives à l'environnement et à ... Document 6 Sept bonnes pratiques

Document 11Cadre stratégique commun du SI de l’Etat, Direction interministérielle des systèmes d’information et de communication, février 2013 (extraits) […]  3.2.1 Les services transverses fondamentaux du SI sont rendus de façon efficiente  

a) Un principe : la mutualisation des infrastructures et des services transverses Sauf cas spécifiques (par exemple la protection de secrets de défense), la plupart des besoins d’infrastructures (et des services liés) sont comparables d’un ministère à l’autre, avec des nuances pouvant être traitées par la mise en place de niveaux d’engagements de service différenciés. Les technologies récentes sur les réseaux, les environnements de production, les dispositifs de stockage de données et les postes de travail permettent de gérer facilement un cloisonnement adapté des flux et du stockage des données, et de créer un environnement applicatif dédié à une entité administrative sur une base applicative commune.   Il n’y a aucun obstacle technologique particulier à une démarche de partage ou de mise en commun progressive des infrastructures et des services d’infrastructures. En outre, la participation à un dispositif mutualisé n’est pas synonyme de déresponsabilisation : au contraire, la relation entre le fournisseur de service et son bénéficiaire est clarifié par la mise en place de contrats (ou conventions) de services engageants pour les deux parties.  Ce partage et cette mise en commun des infrastructures et services liés peuvent se traduire, selon l’enjeu et la faisabilité, par une combinaison adaptée des démarches suivantes (parallèles ou successives) : 

une démarche interne à l’échelle de chacun des ministères (première étape utile avant des opérations ultérieures interministérielles, notamment pour les ministères ayant un grand nombre de directions métiers ou d’utilisateurs finals). Cette démarche s’accompagne quasi-systématiquement d’actions de rationalisation et de standardisation ; 

des démarches bilatérales « d’offres croisées », conduisant deux ministères à s’entendre afin de mettre en commun un service donné. Les modalités sont définies conjointement par les deux ministères concernés en fonction de leurs besoins ; 

des démarches multilatérales qui permettent à un ou plusieurs ministères d’offrir des services à d’autres ministères potentiellement intéressés. Ces services doivent satisfaire un cahier des charges précis afin de garantir non seulement la qualité de service, mais également un réel bénéfice à mutualiser un service donné à plus grande échelle. 

enfin, des démarches de « mutualisation interministérielle exclusive » qui consistent à sélectionner pour un service donné un ou plusieurs ministères qui deviendront les fournisseurs exclusifs du service ou à créer une structure nouvelle en charge de sa fourniture. Les détails du service, tels que les modalités, les obligations, les options ou encore le niveau de disponibilité, sont définis et pilotés à un niveau interministériel. 

 Pour les infrastructures (communication, production informatique) et les services communs (messagerie, collaboratifs, bureautique, …), la recherche de l’optimisation tendra progressivement vers un partage des ressources à l’échelle multiministérielle ou interministérielle.  Deux domaines prioritaires justifient d’ores-et-déjà cette approche, du fait des enjeux qu’ils portent en matière de transformation, tant du point de vue de la valeur ajoutée attendue, que des impacts organisationnels et humains à prendre en compte : le réseau interministériel de l’État et la transformation des centres informatiques, détaillés dans les paragraphes suivants. 

    

22  

Page 25: EXAMEN PROFESSIONNEL DE TECHNICIEN DE CLASSE … · en une étude de cas faisant appel à des connaissances relatives à l'environnement et à ... Document 6 Sept bonnes pratiques

b) Le réseau interministériel de l’État  La mise en place du réseau interministériel de l’Etat (RIE), regroupant l’ensemble des réseaux des ministères (décision du Conseil des Ministres du 25 mai 2011) a pour objectifs de : 

faciliter les communications interministérielles, l’ensemble des utilisateurs du SI étant positionnés sur le même réseau avec un unique plan d’adressage ; 

augmenter globalement le niveau de sécurité, iminuer les coûts liés au fonctionnement des réseaux actuels, notamment les coûts liés aux abonnements télécoms existants ; 

disposer d’un réseau à l’état de l’art anticipant les évolutions à venir des besoins (protocoles, débits, services temps réel, …). 

Les services adhérents au réseau relèveront, pour certains, du même niveau de démarche de mutualisation (passerelles de sécurité vers internet, gestion des noms de domaine, …). Ainsi, l’État disposera d’un socle commun solide et à périmètre large sur lequel il pourra développer l’essentiel des services à valeur ajoutée aux métiers.  Objectif [8] : Les réseaux ministériels migrent vers le RIE, qui constitue le socle d’infrastructure de l’État.  c) Les centres informatiques Le programme de « transformation des centres informatiques » (TCI) favorise le partage et la mutualisation des services liés aux infrastructures de production informatique.  

Il s’agit pour l’État, en utilisant à bon escient le levier de la mise en commun des expertises et des solutions, et en introduisant l’usage de l’informatique en nuage (« cloud computing ») au sein des centres informatiques de l’État : 

d’accélérer l’industrialisation des activités menées par les entités de production informatique, pour augmenter la qualité de service rendue ; 

d’optimiser globalement la capacité des infrastructures disponibles par rapport aux besoins, à la fois en termes de volumes et de niveaux de service ; 

d’apporter de nouveaux services applicatifs universels en faisant bénéficier plus rapidement des innovations et des ruptures technologiques. 

Cette démarche intègre aussi bien la dimension technique que les dimensions de gouvernance, services rendus, organisation, processus, budget, compétences. L’objectif visé est que les services d’hébergement et d’exploitation délivrent dans la durée aux utilisateurs métiers le niveau de service souhaité au bon niveau de coût. L’état de l’art et la comparaison avec les meilleures pratiques montrent que cette efficience ne s’obtient qu’à l’issue d’une démarche globale d’optimisation, qui démarre avec la consolidation, la virtualisation, le déploiement de processus standardisés, l’alignement avec un catalogue de service, la gestion de niveaux de service, l’automatisation de la mise à disposition de capacités et d’environnements. Une démarche de type « ITIL » apparaît incontournable. La mise en oeuvre du « cloud computing » dans les centres informatiques de l’État sera l’aboutissement de cette démarche, mais pourra être expérimentée afin de commencer à s’approprier la technologie et à profiter de son potentiel.  Objectifs [9] : 

[9A] Les systèmes d’information de l’Etat s’appuient sur des productions informatiques consolidées, virtualisées et industrialisées. 

SPM[9B] Des offres de services interministérielles de mise à disposition d’infrastructures physiques, d’environnements techniques ou de services d’applicatifs sont disponibles et déployées. 

[9C] Le cadre de mutualisation interministériel est opérationnel et s’appuie sur des contrats de service, des modèles de financement et des cadres techniques. 

[9D] L’utilisation du « cloud computing » est encadrée, accompagnée, et rendue effective dans les cas d’usage pertinents, d’une part sur la mise à disposition d’infrastructures et de plateformes (IaaS, PaaS), d’autre part sur des services applicatifs transverses (SaaS). […] 

23