51
Université de la Réunion UFR Sciences et Technologies Rapport de stage de Master M2 INFORMATIQUE Laboratoire d’Informatique et de Mathématiques Virtualisation du stockage reposant sur la solution QUADStor Auteur : Lorenzo TREMOULU n étudiant : 33003705 Encadrant : Matthieu BANNIER Responsable de stage UFR Sciences et Technologies : Pr. Fred MESNARD Période du stage : Du 15 janvier 2018 au 13 juillet 2018

Virtualisation du stockage reposant sur la solution QUADStor

  • Upload
    others

  • View
    5

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Virtualisation du stockage reposant sur la solution QUADStor

Université de la Réunion

UFR Sciences et Technologies

Rapport de stage de Master M2 INFORMATIQUE

Laboratoire d’Informatique et de Mathématiques

Virtualisation du stockage reposant sur lasolution QUADStor

Auteur :Lorenzo TREMOULUn◦ étudiant : 33003705

Encadrant :Matthieu BANNIER

Responsable de stage UFR Sciences et Technologies :

Pr. Fred MESNARD

Période du stage : Du 15 janvier 2018 au 13 juillet 2018

Page 2: Virtualisation du stockage reposant sur la solution QUADStor

Stage de Master M2 Informatique

1

Page 3: Virtualisation du stockage reposant sur la solution QUADStor

Remerciements

Tout d’abord, je tiens à remercier mon encadrant de stage Matthieu BANNIER pourses bons conseils qui m’ont orienté dans la bonne direction, pour son incroyable patience,sa disponibilité et son aide sur ce projet.

Je remercie également Teddy TRECASSE et Loïc MOUSSELET pour la bonne am-biance de travail, leurs discussions inspirantes et leurs commentaires, et spécialementLaurent PEQUIN pour ses cours intensifs de tennis de table.

Enfin, je remercie ma famille pour leur énorme soutien durant tout le long de ce stage.

2

Page 4: Virtualisation du stockage reposant sur la solution QUADStor

Stage de Master M2 Informatique

3

Page 5: Virtualisation du stockage reposant sur la solution QUADStor

Résumé

Les usages actuels des moyens informatiques impliquent un fort besoin de stockage.Une des réponses les plus efficaces à cette problématique est de passer par des solutionsde virtualisation du stockage. Depuis 2007, l’université dispose de la solution logicielle degestion de stockage (Software-defined storage, SDS) leader du marché : Datacore SanSym-phony. Malheureusement, cette solution coûte cher en licences d’exploitation et ne peutêtre étendue à l’ensemble de leur stockage.

Ce stage consiste donc à étudier et à mettre en place une solution open-source de SDSnommé QUADStor Storage Virtualization incluant différentes technologies de stockagevirtuel tels que la déduplication, la compression, et le mirroring de données. Si les tests semontrent concluant, il sera utilisé pour des services ou laboratoires de l’université disposantde grosses volumétries et qui ont du mal à définir leur évolution en stockage.

Mots-clés : stockage, Software-defined storage, QUADStor, technologies

Abstract

The current uses of computer means imply a strong need for storage. One of the mosteffective answers to this problem is to use storage virtualization solutions. Since 2007, theuniversity is using the market-leading software-defined storage (SDS) software solution :Datacore SanSymphony. Unfortunately, this solution is expensive in operating licenses andcan not be extended to all of their storage.

This internship thus consists of studying and implementing an open-source SDS solu-tion called QUADStor Storage Virtualization including various virtual storage technologiessuch as data deduplication, compression, and mirroring. It will be used for services or la-boratories of the university with large volumetric and who have trouble defining theirevolution in storage.

Keywords : storage, software-defined storage, QUADStor, technologies

4

Page 6: Virtualisation du stockage reposant sur la solution QUADStor

Stage de Master M2 Informatique

5

Page 7: Virtualisation du stockage reposant sur la solution QUADStor

Table des matières

1 Introduction 9

2 Types de virtualisation 112.1 Virtualisation matérielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112.2 Virtualisation logicielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112.3 Virtualisation du réseau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112.4 Virtualisation du bureau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122.5 Virtualisation du stockage . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

3 Technologies de virtualisation du stockage 143.1 Architectures de stockage . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

3.1.1 DAS (Direct Attached Storage) . . . . . . . . . . . . . . . . . . . . . 143.1.2 JBOD (Just a Bunch Of Disks) . . . . . . . . . . . . . . . . . . . . . 153.1.3 NAS (Network Area Storage) . . . . . . . . . . . . . . . . . . . . . . 153.1.4 SAN (Storage Area Network) . . . . . . . . . . . . . . . . . . . . . . 16

3.2 Protocoles de stockage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183.2.1 iSCSI (Internet Small Computer System Interface) . . . . . . . . . . 183.2.2 Fibre Channel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

3.3 RAID (Redundant Array of Independent Disks) . . . . . . . . . . . . . . . . 203.3.1 RAID 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203.3.2 RAID 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213.3.3 RAID 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3.4 Autres technologies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233.4.1 Tiering de données . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233.4.2 Déduplication de données . . . . . . . . . . . . . . . . . . . . . . . . 233.4.3 Compression de données . . . . . . . . . . . . . . . . . . . . . . . . . 243.4.4 LUN (Logical Unit Number) . . . . . . . . . . . . . . . . . . . . . . 253.4.5 Virtual disk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273.4.6 Thin Provisioning . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

4 Déroulement du stage 294.1 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294.2 QUADStor Storage Virtualization Software . . . . . . . . . . . . . . . . . . 294.3 Bénéfices principaux du logiciel QUADStor pour l’université . . . . . . . . . 30

6

Page 8: Virtualisation du stockage reposant sur la solution QUADStor

4.3.1 Thin provisioning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304.3.2 Déduplication . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304.3.3 Compression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

4.4 Mise en œuvre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304.4.1 Propositions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304.4.2 Solution retenue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344.4.3 Choix et commande du matériel . . . . . . . . . . . . . . . . . . . . 344.4.4 Problèmes rencontrés . . . . . . . . . . . . . . . . . . . . . . . . . . . 354.4.5 Solutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354.4.6 Missions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

4.5 Prise en main des outils . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374.5.1 Installation et configuration . . . . . . . . . . . . . . . . . . . . . . . 374.5.2 Configuration du stockage . . . . . . . . . . . . . . . . . . . . . . . . 384.5.3 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394.5.4 Multipath . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394.5.5 Machine test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

4.6 Mise en œuvre de l’architecture cible . . . . . . . . . . . . . . . . . . . . . . 404.6.1 Installation et configuration . . . . . . . . . . . . . . . . . . . . . . . 404.6.2 Problèmes rencontrés . . . . . . . . . . . . . . . . . . . . . . . . . . . 404.6.3 Solutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 404.6.4 Split-brain . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 414.6.5 Fencing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 414.6.6 Présentation du stockage . . . . . . . . . . . . . . . . . . . . . . . . 42

4.7 Matrice de test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424.8 Travaux en cours . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

5 Conclusion 44

A Annexes 48A.1 Présentation de la DSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48A.2 Planning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49A.3 MOOC : Maîtriser le shell Bash . . . . . . . . . . . . . . . . . . . . . . . . . 50

7

Page 9: Virtualisation du stockage reposant sur la solution QUADStor

Table des figures

2.1 Virtualisation du stockage . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

3.1 Fonctionnement du DAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143.2 Fonctionnement JBOD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153.3 Fonctionnement du NAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163.4 Fonctionnement du SAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173.5 Exemple d’accès de deux serveurs à une baie de disque par deux fabrics . . 183.6 Protocole iSCSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193.7 RAID 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203.8 RAID 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213.9 RAID 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223.10 Fonctionnement de l’auto-tiering . . . . . . . . . . . . . . . . . . . . . . . . 233.11 Processus de déduplication . . . . . . . . . . . . . . . . . . . . . . . . . . . 243.12 Processus de compression . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253.13 Exemple de zoning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263.14 Exemple de masking . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273.15 Thin Provisioning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

4.1 Première topologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314.2 Fonctionnement du bonding . . . . . . . . . . . . . . . . . . . . . . . . . . . 314.3 Seconde topologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334.4 Troisième topologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334.5 Supervision du NAS depuis Centreon . . . . . . . . . . . . . . . . . . . . . . 364.6 Etapes de la supervision d’un hôte . . . . . . . . . . . . . . . . . . . . . . . 364.7 Interface Web de QUADStor . . . . . . . . . . . . . . . . . . . . . . . . . . 384.8 Première topologie avec les zones . . . . . . . . . . . . . . . . . . . . . . . . 394.9 Troisième topologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

A.1 Organigramme de la DSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

8

Page 10: Virtualisation du stockage reposant sur la solution QUADStor

Chapitre 1

Introduction

Avec les usages actuels des moyens informatiques, le stockage des données peut poserproblème, le volume de données croît sans cesse, les applications exigent plus de perfor-mances et le nouveau matériel est difficile à intégrer. Les environnements de stockagetypiques utilisent plusieurs périphériques de différents fabricants mais ils ne peuvent com-muniquer entre eux. Il est alors compliqué de les gérer de manière centralisée, ils fonc-tionnent ainsi en silos et deviennent rapidement obsolètes en quelques années.

Une des réponses les plus efficaces à cette problématique consiste à passer par dessolutions de virtualisation du stockage : une couche logicielle de virtualisation vient seplacer entre les serveurs d’applications et le matériel de stockage existants afin que lesapplications n’aient plus besoin de savoir sur quels disques, partitions ou sous-systèmes destockage résident leurs données. Ainsi, les administrateurs peuvent identifier, provisionneret gérer le stockage distribué comme s’il s’agissait d’une seule ressource consolidée ce quipermet de ne plus gaspiller de capacité. Tout le matériel de stockage peut maintenantcohabiter et fonctionner ensemble, la disponibilité augmente également avec la virtuali-sation du stockage car les applications ne sont pas limitées à des ressources de stockagespécifiques et sont donc isolées de la plupart des interruptions.

De plus, la virtualisation du stockage rend possible la création de niveaux de stockageet de migrer automatiquement des données vers le niveau qui assure en permanence lesperformances requises pour les applications. En outre, la virtualisation du stockage permetgénéralement d’automatiser l’extension de la capacité de stockage, réduisant ainsi le besoinde provisionnement manuel. Les ressources de stockage peuvent être mises à jour à la voléesans affecter les performances des applications, réduisant ainsi les temps d’arrêt.

Depuis 2007, l’université dispose de la solution logicielle de gestion de stockage (Software-defined storage, SDS) leader du marché : Datacore SanSymphony. Malheureusement, cettesolution coûte cher en licences d’exploitation et ne peut être étendue à l’ensemble de leurstockage. Ainsi, il existe différents logiciels de virtualisation du stockage dont une open-source de QUADStor, qui sera utilisé pendant tout le long de ce stage.

Dans ce mémoire, nous commencerons par présenter les différents types de virtuali-sation suivi de l’ensemble des technologies qui auront été abordées au cours de ce stage.Ensuite sera explicité le déroulement et les étapes du projet en passant par le matériel quiaura été nécessaire, les multiples topologies possibles à la mise en œuvre de cette solution

9

Page 11: Virtualisation du stockage reposant sur la solution QUADStor

ainsi que les difficultés rencontrées et solutions apportées à ces problèmes.

10

Page 12: Virtualisation du stockage reposant sur la solution QUADStor

Chapitre 2

Types de virtualisation

De nos jours, il existe plusieurs concepts de virtualisation qui permettent d’offrir denombreux avantages telles que la réduction des coûts, une gestion plus efficace des res-sources ainsi qu’une meilleure accessibilité et sécurité. La virtualisation peut prendre denombreuses formes en fonction du type d’utilisation de l’application et du matériel. Lesméthodes de virtualisation les plus communément utilisées dans les entreprises sont listéesci-dessous :

2.1 Virtualisation matérielle

La virtualisation matérielle est le type de virtualisation le plus commun. L’allocationde ressources matérielles est effectuée par l’hyperviseur qui est un gestionnaire de machinevirtuelle (VM). Ce dernier crée des versions virtuelles d’ordinateurs qui sont regroupéssur un seul et même serveur physique, afin que toutes les ressources matérielles peuventêtre utilisées plus efficacement. Il permet également aux utilisateurs d’exécuter différentssystèmes d’exploitation en même temps sur la même machine. Les avantages principauxde cette méthode de virtualisation incluent une puissance de traitement accrue grâce àl’utilisation du matériel optimisée et à la disponibilité de l’application.

2.2 Virtualisation logicielle

La virtualisation logicielle implique la création de plusieurs environnements virtuelssur la machine hôte. Cela permet d’héberger des applications dans chacun de ces environ-nements, distinct du système d’exploitation natif de la machine cliente. Il est alors possibled’exécuter une application compatible uniquement avec des machines Microsoft Windowsdepuis un ordinateur avec Mac OS d’installé à condition qu’une connexion internet soitdisponible.

2.3 Virtualisation du réseau

Il existe aussi la virtualisation du réseau qui consiste à combiner tout l’équipement deréseau physique en une seule ressource. Plusieurs sous-réseaux peuvent alors être créés sur

11

Page 13: Virtualisation du stockage reposant sur la solution QUADStor

le même réseau physique, autorisés ou non à communiquer entre eux. Cette méthode devirtualisation permet de diviser la bande passante en plusieurs canaux indépendants lesuns des autres. Cela rend ainsi possible de restreindre le déplacement des fichiers entreles réseaux et améliore la sécurité offrant une meilleure surveillance et identification desdonnées. L’évolution du réseau est alors simplifiée pour l’administrateur qui s’en occupe.De plus, les réseaux n’étant pas forcément directement reliés entre eux, une perturbationdans un réseau aura un impact mineur sur les autres et le diagnostic sera alors plus facileà réaliser.

2.4 Virtualisation du bureau

La virtualisation du bureau est similaire à la virtualisation logicielle : en effet, celle-cipermet de stocker le bureau d’un utilisateur sur un serveur distant offrant ainsi la possibi-lité à l’utilisateur d’accéder à son bureau et tous ses fichiers depuis n’importe quel appareilou emplacement à condition qu’une connexion internet soit disponible. Cela implique uneréduction des coûts des licences d’installation de logiciels sur d’autres postes de travailet une gestion simplifiée de ces bureaux virtuels puisqu’ils sont tous hébergés au mêmeendroit.

2.5 Virtualisation du stockage

La virtualisation du stockage permet à plusieurs périphériques de stockage physiquequi sont regroupés, d’apparaître comme un seul et unique périphérique de stockage. Cetespace de stockage sera présenté aux hôtes qui les verront comme leur propre disque. Celaoffre divers avantages tels que l’homogénéisation du stockage sur des périphériques destockage de capacité et de vitesses différentes, des temps d’arrêt réduits et une meilleureoptimisation des performances et de la vitesse. Partitionner un disque dur en plusieurs par-titions est un exemple de cette virtualisation. En outre, le regroupement du stockage dansun système centralisé élime les soucis et coûts liées à la gestion de plusieurs périphériquesde stockage.

12

Page 14: Virtualisation du stockage reposant sur la solution QUADStor

Figure 2.1 – Virtualisation du stockage

Ce stage concernant l’étude et la mise en place d’une solution de virtualisation dustockage, j’ai dû procéder à une grosse partie de veille technologique afin d’appréhenderles technologies de stockage virtuel. Ils seront alors présentés dans le chapitre suivant pourune meilleure compréhension du sujet du stage.

13

Page 15: Virtualisation du stockage reposant sur la solution QUADStor

Chapitre 3

Technologies de virtualisation du stockage

Il existe de nombreuses technologies différentes qui composent la virtualisation dustockage. Elles ne sont pas toutes requises ou besoin d’être impérativement utilisées, ce-pendant, une compréhension des technologies suivantes ainsi qu’une combinaison de cesdernières permettent la mise en œuvre de la virtualisation du stockage.

3.1 Architectures de stockage

3.1.1 DAS (Direct Attached Storage)

Direct Attached Storage ou Stockage à connexion directe en français, fait référence à unsystème de stockage informatique qui est directement connecté au serveur ou ordinateurau lieu de transiter par un réseau. Par exemple, un disque dur d’un ordinateur ou d’unserveur est la forme habituelle de stockage à connexion directe, de même pour les groupesde disques externes au serveur, mais ceux-ci directement reliés par une interface SCSI(Small Computer System Interface), SATA (Serial Advanced Technology Attachment) ouSerial Attached SCSI (SAS).

Figure 3.1 – Fonctionnement du DAS

Ce qu’il faut retenir de ce système de stockage est qu’il n’utilise pas un réseau destockage. En effet, sur le schéma précédent, on peut apercevoir que le serveur est connectédirectement avec la baie de stockage par le biais d’un adaptateur de stockage.

14

Page 16: Virtualisation du stockage reposant sur la solution QUADStor

3.1.2 JBOD (Just a Bunch Of Disks)

JBOD est l’abréviation de « juste un paquet de disques ». En d’autres termes, lesdisques sont présentés à un serveur comme s’ils étaient directement attachés afin d’aug-menter la capacité de stockage. Les boîtiers JBOD sont généralement des boîtiers externesrelativement simples à utiliser et connectés à un ou plusieurs serveurs via des connexionsSAS ou eSATA. Il est alors possible de combiner les disques physiques du serveur avecles baies JBOD afin de créer un pool de stockage dans lequel on pourra former un ouplusieurs disques virtuels qui seront par la suite présentés aux hôtes qui verront cet espacede stockage comme leur propre disque.

Figure 3.2 – Fonctionnement JBOD

3.1.3 NAS (Network Area Storage)

Le stockage en réseau (NAS) est un type de périphérique de stockage de fichiers dédiéqui fournit aux nœuds de réseau local (LAN) un stockage partagé basé sur des fichiersvia une connexion Ethernet standard. Un avantage important du NAS est sa capacitéà fournir plusieurs clients sur le réseau l’accès aux mêmes fichiers. Avant l’arrivée duNAS, les entreprises disposaient généralement de centaines, voire de milliers de serveursde fichiers distincts devant être configurés et gérés séparément. Les périphériques NASsont généralement dépourvus de clavier ou d’écran, ils sont configurés et gérés avec unprogramme utilitaire basé sur un navigateur. Chaque NAS réside sur le réseau local en tantque nœud de réseau indépendant et possède sa propre adresse IP. Les périphériques NASintègrent le support de multiples systèmes de fichiers réseau, tels que Common InternetFile System (CIFS) protocole de partage de Microsoft et de Samba, Network File System(NFS) qui est un protocole de partage de fichiers Unix, ou encore AFP (AppleShare FileProtocol) qui est l’équivalent pour la technologie Apple.

15

Page 17: Virtualisation du stockage reposant sur la solution QUADStor

L’accès au NAS se fait alors en mode fichier à travers les systèmes de fichiers enmasquant les dépendances vis-à-vis de l’emplacement où les données sont physiquementstockées.

Figure 3.3 – Fonctionnement du NAS

3.1.4 SAN (Storage Area Network)

Un réseau de stockage (SAN) est un réseau dédié permettant de mutualiser les res-sources de stockage. Il se différencie des autres systèmes de stockage tels que le NAS parun accès aux disques en mode bloc. Dans le cas du SAN, les baies de stockage n’appa-raissent pas comme des volumes partagés sur le réseau : en effet, elles sont directementaccessibles en mode bloc par le système de fichiers des serveurs en introduisant un niveaud’abstraction entre le serveur et le système de stockage, ce qui donne plus de flexibilitéaux administrateurs. En clair, chaque serveur voit l’espace disque d’une baie SAN auquelil a accès comme son propre disque dur. Il faut ainsi définir très précisément les LUNs,le masking et le zoning pour qu’un serveur Windows n’accède pas aux mêmes ressourcesqu’un serveur Unix utilisant un système de fichiers différent.

L’un des avantages du SAN est l’évolutivité de l’espace de stockage. L’espace disquen’est plus limité par les caractéristiques des serveurs, et est évolutif à volonté par l’ajout dedisques ou de baies de stockage sur le SAN. L’espace de stockage physique mutualisé pourles serveurs permet ainsi d’optimiser la gestion des disques. Des protocoles sont utiliséspour le transit des données sur le réseau SAN. Les plus courants étant Fibre Channel,iSCSI et Fibre Channel sur Ethernet (FCoE).

16

Page 18: Virtualisation du stockage reposant sur la solution QUADStor

Figure 3.4 – Fonctionnement du SAN

Les débits sur un réseau SAN en technologie Fibre Channel peuvent atteindre 32Gbit/s(précédemment 1Gbit/s, 2, 4, 8 et 16) par lien en fibre optique, et assure le fait que larequête envoyée par un serveur a bien été reçue et prise en compte par les systèmes destockage.

Un autre avantage du SAN est qu’il peut également assurer la redondance du stockage,

17

Page 19: Virtualisation du stockage reposant sur la solution QUADStor

c’est-à-dire l’accessibilité au système de stockage en cas de panne de l’un de ses éléments,en doublant au minimum chacun des éléments du système (haute disponibilité). De plus,il peut fonctionner dans un environnement complètement hétérogène et donc le systèmed’exploitation des serveurs n’a aucune importance.

Figure 3.5 – Exemple d’accès de deux serveurs à une baie de disque par deux fabrics

3.2 Protocoles de stockage

3.2.1 iSCSI (Internet Small Computer System Interface)

iSCSI est un protocole de stockage en réseau basé sur leprotocole IP destiné à relierles installations de stockage de données. Le protocole iSCSI encapsule des commandesSCSI dans des paquets TCP, puis les transmet sur le réseau Ethernet aux périphériquesde stockage.

Celui-ci permet aux clients (appelés initiateurs) d’envoyer des commandes SCSI (CDB)à des périphériques de stockage SCSI (cibles) sur des serveurs distants. Il s’agit d’un pro-tocole utilisé sur les réseaux SAN qui permet de rassembler les ressources de stockage dansun centre de données tout en donnant l’illusion que le stockage est local. Contrairementau Fibre Channel qui nécessite une infrastructure matérielle dédiée, iSCSI peut s’utiliseren conservant une infrastructure existante.

18

Page 20: Virtualisation du stockage reposant sur la solution QUADStor

Figure 3.6 – Protocole iSCSI

3.2.2 Fibre Channel

Fibre Channel est un autre protocole de stockage correspondant à la couche de trans-port sous-jacente que les SAN utilisent pour transmettre des données. C’est le langageutilisé par les HBA (Host Bus Adapter), les switchs et les contrôleurs d’une baie de sto-ckage à l’intérieur d’un SAN pour communiquer entre eux. Le protocole Fibre Channelest un langage de bas niveau, ce qui signifie qu’il est simplement utilisé comme un langageentre le matériel réel et non les applications qui s’exécutent dessus.

De plus, il peut fonctionner sur de la paire torsadée, du câble coaxial ou de la fibreoptique, l’interconnexion entre les types de support étant réalisée par des modules stan-dardisés dits « GLM » (Global Link Module). Trois topologies différentes sont utiliséespour le Fibre Channel :

— point à point : c’est la topologie la plus simple mais la plus limitée. Les périphériquessont reliés directement entre eux ;

— en boucle (Arbitrated LoopouFC-AL) : Ici, tous les périphériques sont reliés pourformer une boucle, ce qui permet de relier davantage d’objets entre eux, il est égale-ment possible de doubler la boucle voire d’y ajouter un ou plusieurs hub, pour pallierla défaillance d’un périphérique ;

— « switchée » ou « commutée » (fabric) : Dans cette architecture, on utilise un switchFibre Channel, dont le principe de fonctionnement est similaire au switch Ethernet.Le terme Fabric désigne ici l’ensemble des switchs.

19

Page 21: Virtualisation du stockage reposant sur la solution QUADStor

3.3 RAID (Redundant Array of Independent Disks)

RAID signifiant regroupement redondant de disques indépendants est une technologieutilisée pour augmenter les performances et/ou la fiabilité du stockage de données. Unsystème RAID est constitué de deux ou plusieurs disques fonctionnant en parallèle. Cesdisques peuvent être des disques mécaniques (SATA, SAS), ou flash comme les SSD (SolidState Drive) qui offrent des performances de vitesse de lecture et d’écriture accrue maisun cycle de vie inférieur comparé à un disque dur mécanique. Il existe différents niveauxRAID, chacun optimisé pour une situation spécifique.

Le logiciel permettant d’exécuter la fonctionnalité RAID et de contrôler les disquespeut soit tout simplement être un pilote propre au système d’exploitation, ou soit setrouver sur une carte contrôleur séparée (un contrôleur RAID matériel). Les contrôleursRAID matériels coûtent plus cher que les logiciels RAID qui sont généralement gratuitset intégrés aux OS, mais ils offrent également de meilleures performances.

Les systèmes RAID peuvent de plus être utilisés avec un certain nombre d’interfaces,notamment SCSI, SATA ou FC (Fibre Channel). Seront présentés 3 niveaux de RAID lesplus populaires :

3.3.1 RAID 0

Dans un système RAID 0, les données sont divisées en blocs et sont écrites sur tousles disques de la baie. En utilisant plusieurs disques (au minimum 2) en même temps, celaoffre des performances d’écriture et de lecture supérieures. La capacité totale est égaleà celle du disque le plus petit * le nombre de disque, il est donc conseillé d’utiliser desdisques de même capacité.

Figure 3.7 – RAID 0

Les avantages du RAID 0 sont ainsi les meilleures performances à la fois lecture etécriture. Toute la capacité de stockage est utilisée pour obtenir de meilleurs résultats etcette technologie est facile à mettre en œuvre.

20

Page 22: Virtualisation du stockage reposant sur la solution QUADStor

Cependant, le RAID 0 n’est pas tolérant aux pannes. Si un disque tombe en panne,toutes les données des disques en RAID 0 sont perdues. Il ne devrait pas être utilisé pourdes systèmes critiques.

3.3.2 RAID 1

Ce niveau de RAID requiert 2 disques et repose sur un simple système de mirroring. Lesdonnées d’un disque sont recopiées en intégralité sur un second disque qui assure une copiecomplète de ses données en cas de panne du premier disque. Pour que le RAID 1 puisseêtre mis en place, il faut que le second disque ait une capacité au minimum équivalente àcelle du premier disque.

Figure 3.8 – RAID 1

Le RAID 1 offre donc une vitesse de lecture et d’écriture comparable à celle d’un seuldisque. En cas de panne d’un disque, il n’est pas nécessaire de reconstruire les données, ilsuffit de les copier sur le disque de remplacement.

Le principal inconvénient est que la capacité de stockage effective ne représente que lamoitié de la capacité totale du disque car toutes les données sont écrites deux fois.

Les solutions logicielles RAID 1 ne permettent pas toujours un remplacement à chaud(hot swap) d’un disque défectueux. Cela signifie que le disque défectueux ne peut êtreremplacé qu’après la mise hors tension de l’ordinateur auquel il est attaché. Pour lesserveurs utilisés simultanément par de nombreuses personnes, cela peut s’avérer compliqué.C’est pourquoi ces systèmes utilisent généralement des contrôleurs matériels prenant encharge le remplacement à chaud.

3.3.3 RAID 5

RAID 5 est le niveau RAID sécurisé le plus courant. Il requiert au moins 3 disques, maispeut-être utilisé jusqu’à 16. Les blocs de données sont répartis sur les disques et, sur undes disques, une somme de parité de toutes les données du bloc est écrite. Les données deparité ne sont pas écrites sur un disque fixe, mais sont plutôt réparties sur tous les disques,

21

Page 23: Virtualisation du stockage reposant sur la solution QUADStor

comme le montre le schéma ci-dessous. En utilisant les données de parité, il est alorspossible de recalculer les données de l’un des autres blocs de données si elles ne sont plusdisponibles. Cela signifie qu’une configuration en RAID 5 peut supporter une seule pannede disque sans perte de données. Bien qu’il est possible de configurer des disques en RAID5 au niveau logiciel, un contrôleur matériel est recommandé. Souvent, la mémoire cachesupplémentaire est utilisée sur ces contrôleurs pour améliorer les performances d’écriture.

Figure 3.9 – RAID 5

22

Page 24: Virtualisation du stockage reposant sur la solution QUADStor

3.4 Autres technologies

3.4.1 Tiering de données

Le tiering consiste à affecter différentes catégories de données à différents types desupports de stockage afin de réduire le coût total de stockage. Les niveaux de tieringsont déterminés en fonction de la performance et du coût des supports de stockage, et lesdonnées sont classées par leur fréquence d’accès. Le tiering fonctionne de sorte à placerles données les plus fréquemment consultées sur le stockage le plus performant. Quantaux données rarement sollicitées, elles sont stockées sur des supports moins performant etévidemment moins coûteux.

Le tiering de données était auparavant un processus manuel, cependant les entreprisesfournissant des baies de stockage ont décidé de développer des applications pour gérerautomatiquement le processus de transfert des données vers le niveau de tiering appropriépar rapport à une stratégie prédéfinie. Nommé l’auto-tiering, il permet ainsi de réduire letemps nécessaire à la hiérarchisation mais aussi de réduire les coûts.

En principe, les données sensibles et critiques appartiennent au niveau de tiering 1.Elles sont généralement stockées sur des supports relativement coûteux et donc haut degamme avec un système RAID 1 (à double parité). Les données de niveau 2 concernentplus des données financières ou classées. Les SAN sont alors utilisés pour stocker ce genrede données.

Plus sécurisé et rapide que le niveau de tiering 1, le niveau 0 sert à stocker les donnéesfréquemment accédées. Des supports de stockage onéreux tels que les SSD sont alorsutilisées pour stocker celles-ci.

Figure 3.10 – Fonctionnement de l’auto-tiering

3.4.2 Déduplication de données

La déduplication des données est un processus de stockage des données éliminantles séquences redondantes de données afin d’économiser de l’espace de stockage. Cette

23

Page 25: Virtualisation du stockage reposant sur la solution QUADStor

technique permet de garantir qu’une seule instance de données unique est gardée sur lessupports de stockage. Les blocs de données identiques sont remplacés par un pointeur versla copie de données correspondante ayant un identifiant unique.

Cette technologie utilise des tables de hachage pour stocker des informations sur lesdonnées présentes sur le périphérique afin que la redondance puisse être identifiée. Lorsquedes données supplémentaires sont écrites sur le périphérique, des empreintes y sont asso-ciées, puis comparées aux valeurs existantes dans la table de hachage pour voir si cesegment de données a déjà été stocké. S’il s’agit de données uniques, ce qui signifie qu’au-cune empreinte correspondante n’est trouvée, elle est stockée sur l’appareil et la table estmise à jour avec une nouvelle entrée. S’il s’agit de données redondantes, ce qui signifiequ’il y avait une empreinte correspondante, le segment de données n’est pas stocké et unpointeur est créé sur le segment d’origine.

En outre, l’avantage le plus important est la réduction d’espace de stockage utilisé.Cette technologie permet de diviser par 20 voire par 30 les besoins en espace de stockage.Cependant, la déduplication a un inconvénient majeur qui est le risque de perte de donnéespuisque celles-ci ne sont pas en doubles et donc le support de stockage se doit d’être fiableou un système de mirroring doit être mis en place pour garder les tables de déduplicationintactes.

Figure 3.11 – Processus de déduplication

3.4.3 Compression de données

La compression des données est une réduction du nombre de bits nécessaires pourreprésenter les données. Cette technique permet aussi d’économiser de l’espace de stockage,d’accélérer le transfert de fichiers et de réduire les coûts liés au matériel de stockage.

La compression est souvent comparée à la déduplication des données, cependant, cesdeux techniques ne fonctionnent pas de la même manière bien que leur but est pratique-ment le même c’est-à-dire d’économiser l’espace de stockage. La déduplication est un type

24

Page 26: Virtualisation du stockage reposant sur la solution QUADStor

de compression qui recherche des séquences de données identiques puis remplace chaquefragment dupliqué par un pointeur vers l’original. La compression utilise quant à elle uti-lise des algorithmes permettant de réduire la taille des chaînes de bits d’une donnée, ainsique d’autres algorithmes pour décompresser la donnée afin de pouvoir la lire.

Figure 3.12 – Processus de compression

3.4.4 LUN (Logical Unit Number)

Dans un réseau SAN, un LUN est le numéro d’identification d’un espace de stockageprésenté à un ou plusieurs serveurs. Chaque carte HBA (Host Bus Adapter) d’un serveurconnecté possède un WWN (World Wide Name) qui est un identifiant unique et l’admi-nistrateur du SAN peut ainsi définir pour chaque espace de stockage existant le numérosous lequel il doit être présenté à chacun des serveurs. Par ailleurs, un LUN peut trèsbien représenter un disque dur (HDD), une partie de ce disque dur ou même une baie destockage entière.

Utilisés pour restreindre l’accès au stockage, le LUN zoning et masking doivent tous lesdeux être appliqués pour sécuriser le réseau de stockage et réduire le trafic inutile. Le LUNzoning fournit des chemins isolés afin que les données puissent circuler dans une structureSAN FC entre les ports d’extrémité. Un hôte est limité à la zone à laquelle il est affecté.Ainsi, en regardant le schéma ci-dessous, on peut observer que les deux serveurs sur ladroite peuvent accéder à trois des quatre baies de stockage, alors que les deux serveurs àgauche peuvent uniquement accéder à deux des 4 baies. Cette configuration est effectuéesur le switch Fibre Channel. De plus, Il existe deux techniques de zoning : le soft zoninget le hard zoning dur :

— Le soft zoning permet de bloquer un périphérique d’en voir un autre. Toutefois, siles ports sont configurés manuellement, le switch n’empêchera pas les périphériquesde communiquer entre eux.

— Le hard zoning est configuré en fonction du port ou du WWN. Le zoning de portaccorde l’accès d’un port sur un switch à un autre port du switch. Cependant,cela nécessiterait la mise en place d’une sécurité physique supplémentaire autour du

25

Page 27: Virtualisation du stockage reposant sur la solution QUADStor

switch FC, car les zones pourraient être changées simplement en déplaçant les câblesconnectés au switch. Le zoning WWN est configuré en autorisant l’accès entre deuxWWN, ce qui rend la gestion plus simple et sécurisée.

Figure 3.13 – Exemple de zoning

Après avoir effectué le zoning, il est possible de verrouiller l’accès au stockage enconfigurant le LUNmasking sur le support de stockage. Il empêchera certains périphériquesde voir un LUN spécifique qu’il héberge. Cela peut être utilisé en particulier pour empêcherun serveur défaillant d’accéder à un LUN dont il n’a pas besoin.

26

Page 28: Virtualisation du stockage reposant sur la solution QUADStor

Si nous prenons l’exemple ci-dessous, le SAN présente quatre LUNs au serveur à droite(liens rouges) mais il ne présente que deux LUNs au serveur à gauche (liens verts).

Figure 3.14 – Exemple de masking

3.4.5 Virtual disk

Un virtual disk ou vdisk est un périphérique virtuel qui fournit une zone de capacitéde stockage utilisable sur un ou plusieurs disques physiques.

3.4.6 Thin Provisioning

Le Thin Provisioning est une méthode d’optimisation d’utilisation de l’espace de sto-ckage, il fonctionne en allouant de l’espace de stockage sur disque de manière flexible entreplusieurs utilisateurs, en fonction de l’espace minimum requis par chaque utilisateur à unmoment donné.

27

Page 29: Virtualisation du stockage reposant sur la solution QUADStor

À la différence d’une allocation statique où un LUN est affecté à un serveur, le ThinProvisioning regroupe un espace de stockage commun appelé « POOL de stockage » danslequel des vdisks ou LUNs seront créés en n’utilisant que l’espace consommé et non pasalloué. L’espace non utilisé du pool est alors disponible pour les autres serveurs.

Figure 3.15 – Thin Provisioning

28

Page 30: Virtualisation du stockage reposant sur la solution QUADStor

Chapitre 4

Déroulement du stage

4.1 Objectifs

— Procéder à une grosse partie de veille technologique afin d’appréhender les techno-logies de stockage.

— Proposer plusieurs maquettes de la solution de virtualisation open-source QUAD-Stor.

— Sélection et validation d’une topologie par l’équipe technique encadrante.

— Effectuer une série de tests sur un environnement fonctionnel pour s’assurer que lasolution est fiable.

— Mise en œuvre de la solution pour des services (ou laboratoires) de l’université dis-posant de grosses volumétries et qui ont du mal à définir leur évolution en stockage.

— Fournir les procédures techniques (installation, déploiement, configuration de la so-lution) et d’exploitation (comment créer un nouveau disque et le présenter au client,etc.).

— Faire le point sur l’état d’avancement chaque semaine.

L’ensemble des technologies de stockage nécessaire à la compréhension de ce sujet destage a été décrit dans les parties précédentes.

4.2 QUADStor Storage Virtualization Software

Ce stage repose sur l’utilisation d’un logiciel open-source avec des fonctionnalités rela-tivement complètes mais dont certaines sont toujours en développement. D’autres logicielsde virtualisation du stockage plus complets existent tels que Datacore SanSymphony, ce-pendant les licences d’utilisation sont très onéreuses surtout lorsqu’une entreprise doitstocker des centaines de Téra de données.

Cependant, ce que propose leur logiciel est suffisant pour les besoins de certains servicesde l’université : en effet, bon nombre de technologies telles que le Thin Provisioning, lacompression, la déduplication, la prise en charge de protocoles (iSCSI et Fibre Channel), lesynchronous mirroring avec la haute disponibilité, la compatibilité avec les serveurs ESXifont partie intégrante du logiciel QUADStor.

29

Page 31: Virtualisation du stockage reposant sur la solution QUADStor

Le but était alors de combiner et maîtriser ces technologies afin de les intégrer dansun environnement fonctionnel qui sera détaillé dans les prochaines sections.

4.3 Bénéfices principaux du logiciel QUADStor pour l’université

Dans cette partie, je présenterai 3 cas d’utilisation du logiciel QUADStor au profit del’université.

4.3.1 Thin provisioning

Dans le cas où une personne fait une demande d’une grosse quantité d’espace de sto-ckage, très souvent, seulement 30% à 50% de l’espace ne sera utilisée. Cela non seulementgaspille les ressources financières de l’université pour acquérir les disques et les baies destockage, mais implique également des dépenses supplémentaires pour plus de disques etde systèmes pour maintenir l’activité. Le Thin Provisioning résout ces problèmes en amé-liorant l’utilisation du stockage : en effet, il pourra permettre la création d’un LUN de 5To, même si seulement 1 To de stockage physique sont mis de côté. Néanmoins, L’usageagressif des mécanismes de surallocation contraint donc l’administrateur à une plus grandevigilance. Il lui faut ainsi veiller à ce que la capacité physique disponible sur les baies soittoujours supérieure à celle requise par le système d’allocation dynamique.

4.3.2 Déduplication

La déduplication pourra être utile lorsque de multiples VMs possèdant le même OS sontcréées à partir du vdisk générer sur QUADStor. Cela permettra d’économiser énormémentd’espace stockage puisque de nombreux fichiers relatifs à l’OS seront identiques sur chacunedes VMs.

4.3.3 Compression

La compression n’étant pas efficace sur les fichiers binaires, les flux audio ou encoreles vidéos compressées (avi, mpeg), il ne servira pas aux services tels que Pod-data dontles données concernent principalement des podcasts pour les étudiants. Par contre, cettetechnologie s’avèrera très efficace pour des VMs hébergeant de nombreux fichiers de typetexte (css, htm, log, txt).

4.4 Mise en œuvre

4.4.1 Propositions

Après une partie de veille technologique, la seconde étape de ce stage était de réaliserdes maquettes contenant la plupart des informations nécessaires à la mise en place duprojet. Dans cette partie, nous allons donc décrire 3 différentes topologies détaillant lesavantages et inconvénients de chacune.

30

Page 32: Virtualisation du stockage reposant sur la solution QUADStor

Figure 4.1 – Première topologie

Cette première topologie comportera 2 serveurs sur lequel l’OS Debian 9 ainsi quele logiciel de virtualisation du stockage seront installés. Debian étant utilisé par de nom-breuses machines à l’université et faisant preuve de fiabilité, c’est pourquoi mon choix s’estporté vers ce système d’exploitation. 2 disques SSD de 480 Go par serveur sont prévus afind’avoir du mirroring de données aussi nommé Raid de niveau 1. Ainsi, dans le cas où undisque dur d’un des serveurs tombe en panne, le second disque permettra une continuitédes services jusqu’au remplacement du disque défectueux.

Les deux serveurs sont connectés directement entre eux par 2 liens Ethernet 10GB/s(réseau privé) afin de pouvoir effectuer du bonding ou encore appelé agrégation de lienEthernet. Le but est simple, utiliser deux cartes réseau physiques (ou plus) sur la mêmemachine pour n’en avoir qu’une d’un point de vue logique et répartir les différents fluxTCP/IP en fonction de leur disponibilité.

Figure 4.2 – Fonctionnement du bonding

31

Page 33: Virtualisation du stockage reposant sur la solution QUADStor

En prenant le schéma ci-dessus, le serveur aura ainsi l’adresse IP attribué au bonding,eth0 et eth1 n’auront pas d’adresse. Sur Linux, le bonding propose jusqu’à 7 modes defonctionnement. Seuls 2 modes nous intéressent vraiment dans cette configuration quisont le balance-rr ou active-backup. Le premier mode gère la répartition de charge et latolérance de panne, de plus, l’ensemble de la bande passante 10 GB/s*2 = 20 GB/s surchaque serveur peut-être utilisée. Cette vitesse reste malheureusement théorique et le débitréel mesuré grâce à iperf est de l’ordre de 12 GB/s – 17 GB/s en fonction des données quitransitent. Le mode active-backup comme son nom l’indique n’utilise qu’un seul lien à lafois, le second servant de backup en cas de panne. Le débit obtenu avec ce mode est certesmoins élevé que le premier mais est plus constant du fait que les données n’ont pas besoind’être réparties.

Les deux serveurs sont branchés sur 2 fabrics (ensemble de switchs FC) différentesFibre Channel qui utilise son propre protocole de stockage transportant principalementdes commandes SCSI. Ainsi, cela correspond à une configuration en double-fabrics (deuxfabrics indépendantes), permettant d’obtenir une haute disponibilité par redondance deschemins d’accès offrant une tolérance aux pannes, mais aussi la possibilité d’interventionsde maintenance matérielle transparentes pour les applications.

La baie de stockage IBM v3700 est également branchée sur les 2 fabrics Fibre Channelgrâce aux 4 ports qui s’y trouvent (2 par contrôleur) permettant la redondance des cheminsd’accès. Ce type de configuration correspond à un réseau de stockage ou encore SAN c’est-à-dire que les baies de stockage n’apparaissent pas comme des volumes partagés sur leréseau. Elles sont directement accessibles en mode bloc par le système d’exploitation desserveurs. En outre, chaque serveur voit l’espace disque d’une baie SAN auquel il a accèscomme son propre disque dur.

Comme nous pouvons le constater, les deux serveurs auront accès à la même baie destockage. Dans cette configuration, un cluster composé de 2 serveurs sera mis en place.Cela correspond à regrouper plusieurs serveurs indépendants afin de permettre une gestionglobale et de dépasser les limitations d’un seul serveur. La création d’un cluster permettradonc d’augmenter la disponibilité ainsi que la possibilité de répartir les charges. De plus,un cluster peut soit être actif-passif ou actif-actif.

Avec une topologie active-passive, le serveur passif (failover) sert de backup prêt àprendre le relais dès que le serveur actif (primary) est déconnecté ou incapable de ser-vir. Contrairement à l’autre topologie active-active où les 2 serveurs fonctionnement enmême temps et se répartissent les charges, la première topologie (active-passive) est plusefficace et optimisée pour l’accès au même espace de stockage par 2 serveurs. Enfin, si-tués à gauche du schéma, se trouve les serveurs physiques ESXi VMware. À ce jour, 421machines virtuelles (VM) sont réparties sur ces 12 serveurs sur lesquels des Hyperviseurssont installés. Ces derniers correspondent à une plate-forme de virtualisation qui permetà plusieurs systèmes d’exploitation de travailler sur une même machine physique en mêmetemps. L’objectif ici est que certains services (VMs) dont Pod-data (podcasts pour lesétudiants en médecine) principalement passent par les serveurs QUADStor afin d’accéderau stockage. Grâce à cette topologie, 2 opérations agissant sur les données telles que la

32

Page 34: Virtualisation du stockage reposant sur la solution QUADStor

compression et la déduplication feront économiser de l’espace de stockage en fonction dutype de données. D’autant plus que si les tests s’avèrent concluants, les deux serveursQUADStor auront accès à l’ensemble des baies de stockage IBM v3700 qui présentent unevolumétrie totale de 150 To.

Figure 4.3 – Seconde topologie

Contrairement à la première figure, celle-ci comporte qu’un seul serveur offrant ainsiun moindre coût. Cependant, en cas de panne du serveur, plus de données ne serontaccessibles par l’ensemble des VMs connectées au serveur QUADStor.

Figure 4.4 – Troisième topologie

Enfin, cette dernière figure est similaire à la première avec la présence de 2 serveurs.Cette topologie se différencie par le fait qu’un système de mirroring synchrone des donnéesest également en place : en effet, dès qu’un vdisk sera crée depuis le serveur primaire, ilsera automatiquement dupliqué sur le second. Cela implique une redondance complète desinformations (haute disponibilité) et une amélioration des performances en lecture de parl’accès aux mêmes données sur 2 unités de stockage en même temps. L’inconvénient estmalheureusement l’énorme perte de l’espace disque, c’est à dire que la moitié de l’espacetotale de stockage disponible est réservé à la redondance des données.

33

Page 35: Virtualisation du stockage reposant sur la solution QUADStor

4.4.2 Solution retenue

La première maquette a été finalement retenue de par la redondance des serveurs etde l’utilisation quasi-totale de l’espace de stockage disponible.

4.4.3 Choix et commande du matériel

Après validation de la topologie, l’étape suivante était de commander le matériel néces-saire à sa mise en place. J’ai eu accès au BPU concernant les serveurs (Bordereau des PrixUnitaires) qui est utilisé dans les marchés à bons de commande et liste les prix unitairesrelatifs à chaque produit.

Un budget a été fixé par la DSI pour ce projet, et ne devait en aucun cas être dépassé.La liste du matériel choisi avec les spécifications est ainsi la suivante, le prix de chaqueproduit reste confidentiel :

2 serveurs TopSeller x3650 M5 (premier) et ThinkSystem SR650 70X6 (second) com-posés chacun de :— 2 processeurs Xeon 8 cœurs (E5-2620 v4 85W 2,1GHz/2133Mhz/20MB)— 2 alimentations 750W— 128 GB de RAM TruDDR4— 1 IMM (Integrated Management Module)— 2 SSD de 480 GB— 1 carte contrôleur RAID— 2 cartes Fibre Channel 16Gb/s dual port HBA— 1 carte réseaut SFP+ 10 GB/s dual port— 2 cartes Riser PCI-Express

A cela s’ajoute pour chaque serveur :— 2 câbles d’alimentations,— une garantie de 5 ans— 2 câbles DAC SFP+ 10 GB/s

La baie de stockage et les serveurs ESXi faisaient déjà partie de l’infrastructure infor-matique de l’université, il n’y a donc pas eu besoin de les commander. De plus, un desdeux serveurs avait déjà été acheté en décembre 2017 avant la fermeture de l’université.

Après validation auprès de l’équipe encadrante, il fallait tout de même contacter lesupport de QUADStor pour s’assurer que les différentes spécifications de chaque maté-riel étaient suffisantes. La quantité de RAM ainsi que l’espace disque de chaque serveurétaient très importants comme choix, puisque la RAM sera énormément sollicitée par lestechnologies de compression et de déduplication, et les tables de déduplication devaientêtre stockées sur les SSD des serveurs. QUADStor nous a alors expliqué que leur logicielaurait besoin d’environ 150 GB d’espace de stockage sur les SSD pour stocker les tables dedéduplication d’une vingtaine de téra de données uniques. Sur chaque serveur, les disquesseront configurés en RAID 1 (mirroring) ce qui laisserait environ 300 Go pour l’OS et lesystème de fichiers.

34

Page 36: Virtualisation du stockage reposant sur la solution QUADStor

4.4.4 Problèmes rencontrés

La livraison du second serveur avec tous ses câbles et cartes aura malheureusementpris 3 mois pour cause de fabrication et délai de transport, et le premier serveur a étéréceptionné très peu après (2 semaines) la commande du matériel.

4.4.5 Solutions

Avant que le premier serveur ne soit livré, chaque semaine, diverses tâches m’ont étéconfiées. Bien que les travaux listés ci-dessous ne sont pas en direct rapport avec le sujetde stage, ils se sont avérés très enrichissant dans le cadre de ma formation mais aussiimportant pour l’entreprise.

4.4.6 Missions

J’ai participé à la mise en place d’une multitude de serveurs et baies de stockage. J’aiainsi appris à racker des machines, les différentes méthodes de branchement réseaux etconfigurer la partie logicielle de certaines.

Par exemple, la mise en place complète d’un serveur NAS de la marque QNAP m’a étéconfiée, en commençant par le rackage et finissant par la présentation du NAS parfaitementfonctionnelle à la personne concernée.

Une des missions les plus importantes concernait la supervision et monitoring de ma-chines. La supervision permet de vérifier l’état du bon fonctionnement d’un hôte ou d’un deses services. Elle remonte une alerte sur la détection d’un comportement anormal (servicedysfonctionnel, temps de réponse trop long, etc..) diminuant drastiquement les interrup-tions d’applications et de services si une intervention est rapidement effectuée. Si une alerteest reçue, cela implique une action immédiate de la part des techniciens concernés. Le mo-nitoring quant à lui est le fait de superviser des équipements, de contrôler leur progressionet d’analyser les situations.

Il existe une multitude d’outils de supervision que ce soit open-source ou propriétaire.Un outil de supervision open-source nommé Centreon était déjà intégré dans l’infrastruc-ture de l’université et permet donc la supervision des applications, systèmes et réseaux.

J’ai donc dû me familiariser avec ce logiciel et me suis ensuite occupé d’ajouter certainesmachines telles que le serveur NAS dans Centreon rendant ainsi possible la visibilité entemps réel de l’état de santé du système informatique et de ses composants tels que leprocesseur, la RAM, la bande passante utilisée, etc.

35

Page 37: Virtualisation du stockage reposant sur la solution QUADStor

Voici le NAS QNAP qu’on voulait superviser et qui a été ajouté dans Centreon.

Figure 4.5 – Supervision du NAS depuis Centreon

7 services sont seulement configurés ici, mais d’autres peuvent y être ajoutés commepar exemple la bande passante utilisée par l’hôte.

Tout cela est possible grâce à l’activation d’un protocole sur les machines appelé SNMP(Simple Network Management Protocol) qui est un protocole de communication permet-tant de superviser et de diagnostiquer des problèmes réseaux et matériels à distance. Lafigure suivante illustre bien les différentes étapes du fonctionnement de la supervision.

Figure 4.6 – Etapes de la supervision d’un hôte

Cependant, de multiples appareils tels que les baies de stockage de la marque NetAppne peuvent être monitorées en utilisant le protocole SNMP. Le seul moyen est de passer parle Web Services Proxy fourni par la compagnie. Ce proxy fournit un accès à une collectiond’interfaces REST pour accéder aux services définis pour les baies de stockage. J’ai réalisél’installation et la configuration du proxy sur le serveur Centreon. Son fonctionnementa été validé à travers des tests effectués depuis un client REST (plugin Chrome). Ceci

36

Page 38: Virtualisation du stockage reposant sur la solution QUADStor

nous permet d’accéder aux informations des baies NetApp actuellement fonctionnelles.Néanmoins, afin d’effectuer cette surveillance depuis Centreon, la création d’un plugindoit être réalisé. Par manque de temps et s’éloignant beaucoup du sujet original de monstage, cela m’a permis d’apprendre à faire une demande de prestation afin qu’une entrepriselocale spécialisée dans ce domaine puisse l’intégrer dans Centreon.

4.5 Prise en main des outils

4.5.1 Installation et configuration

Dès réception du premier serveur (mi-mars), j’ai pu ainsi procéder à l’installation et laconfiguration de ce dernier afin de pouvoir effectuer quelques tests jusqu’à que le secondserveur arrive. La première étape était donc de racker le serveur ainsi que de faire lesbranchements réseaux. Une fois cela terminé, je devais m’assurer que les disques étaientconfigurés en RAID 1. Une carte contrôleur RAID ayant été livré avec le serveur, lesmanipulations à ce niveau se passent dans le BIOS (Basic Input Output System).

Comme précisé précédemment, une partition doit être créer sur le SSD qui servira àstocker les tables de déduplication. L’OS n’ayant pas besoin de plus de 50 Go, j’ai alorsdécidé de garder environ 390 Go pour QUADStor en utilisant GPARTED qui est uneapplication destinée à créer, réorganiser et supprimer les partitions de disques.

Je pouvais maintenant passer à l’installation de l’OS Debian 9. Dans la suite de cettepartie, je ne décrirai que les packages indispensables au bon fonctionnement du serveur.

SSH

Il permet de se connecter à distance à un ordinateur/serveur afin d’obtenir un shell ouligne de commande. Configuré, je n’ai alors plus besoin de rester à côté du serveur pourcontinuer l’installation.

Puppet

C’est un outil de gestion de la configuration de serveurs, il permet le déploiement deconfigurations sur un ensemble de serveurs en quelques minutes.

Il sera associé à Foreman qui est un outil open source qui peut aider à la gestion desserveurs, en fournissant un moyen facile d’interagir avec Puppet pour l’automatisationde tâches et le déploiement d’applications. L’université possède déjà un environnementfonctionnel reposant sur Foreman. Après l’ajout du serveur QUADStor depuis l’interfaceWeb de Foreman, plusieurs packages tels que snmpd (SNMP) seront installés et configurésautomatiquement et le serveur pourra désormais être monitorer depuis Centreon.

QUADStor Storage Virtualization Software

Une fois apache et le logiciel QUADStor d’installés, on a accès à une interface Websécurisé (https) depuis laquelle 4 onglets sont disponibles.

37

Page 39: Virtualisation du stockage reposant sur la solution QUADStor

Figure 4.7 – Interface Web de QUADStor

— L’onglet «System» contient des informations sur la version du package QUADStor,la possibilité de redémarrer le service ou le serveur, mais aussi de créer des fichierslogs qui aideront le support à trouver et corriger d’éventuels bugs, ou encore toutsimplement de diagnostiquer une machine.

— « Physical Storage », stockage physique en français, est l’onglet où sera listé l’en-semble du stockage physique (LUNs provenant des baies de stockage) auquel leserveur a accès.

— « Storage Pools » pour la création de pool de stockage. Un pool par défaut existe.

— « Virtual Disks » permettra de créer des vdisks à partir des pools de stockageprécédemment formés.

La partition de 390 Go sera visible dans l’onglet «Physical Storage» et sera alors ajoutéau pool par défaut afin de conserver les tables de déduplications des autres pools. Tous lesautres pools dépendront du disque maître (partition de 390 Go) du pool par défaut pourla déduplication.

Néanmoins, il existe une option «Enable Dedupe Metadata» en créant un pool faisanten sorte que les tables de déduplication soient conservées sur le premier disque qui estajouté sur ce pool. Cela peut-être utile dans le cas où on commence à manquer d’espacesur le disque maître.

4.5.2 Configuration du stockage

Afin d’effectuer quelques tests, il ne manquait plus qu’à fournir de l’espace de stockageau serveur QUADStor. Ainsi, 4 To (4 LUNs de 1 To) de stockage non utilisé provenantd’une des baies IBM v3700 m’a été fourni. Cependant, cela n’est pas suffisant pour que leserveur puisse accéder au stockage. En effet, il faut effectuer du zoning qui, je le rappelle,est un service empêchant un hôte non autorisé de se connecter à des ressources de stockagepour lesquels il n’a pas les droits d’accès. Ici c’est du zoning par WWN qui a été mis enplace pour plus de sécurité.

38

Page 40: Virtualisation du stockage reposant sur la solution QUADStor

Figure 4.8 – Première topologie avec les zones

En observant le schéma ci-dessus, on peut apercevoir qu’il faut au total configuré 4zones au niveau (4 couleurs différentes) des 2 switchs Fibre Channel pour que le serveurpuisse accéder au stockage tout en ayant une redondance des chemins d’accès.

4.5.3 Résultats

Après redémarrage du serveur QUADStor, la commande fdisk -l qui permet de listertoutes les partitions et disques connectés, nous indique qu’il y a au total 16 chemins menantà 1 To de stockage. Cela est correct sachant qu’on a créé 4 zones et qu’il y a 4 LUNS de1 To. Cependant, la redondance des chemins n’est pas fonctionnelle par elle-même. C’estici que l’outil multipath s’avère utile.

4.5.4 Multipath

Il permet d’identifier plusieurs chemins pour accéder aux mêmes données. Ceci a pourbut d’augmenter les capacités d’accès aux données si l’équipement de stockage le permetet d’assurer de la redondance en cas de panne d’un équipement. Grâce à cela, l’OS verramaintenant bien 4 LUNs, chacun ayant 4 chemins pour y accéder. Il est de plus possibled’utiliser tous les chemins en même temps pour augmenter les vitesses de lecture, ou ensélectionner qu’un seul par LUN.

4.5.5 Machine test

Une machine virtuelle a été ensuite créée pour que je puisse présenter du stockagedepuis le serveur QUADStor vers la VM. A la base, la connexion entre les serveurs ESXiet les serveurs QUADStor se font par le biais de fibre utilisant le protocole Fibre Channel.En revanche, n’ayant pas encore à ma disposition le second serveur, j’ai décidé de faireles tests en utilisant le protocole iSCSI passant par le réseau Ethernet pour se connecterentre eux.

Ainsi, après la configuration du package open-iscsi sur la VM et autorisation du vdiskcréé de communiquer avec le serveur QUADStor au niveau du serveur lui-même, le vdiskétait bien accessible depuis la VM. Je pouvais ainsi le formater et mettre un système defichiers pour qu’il soit prêt à être utilisé.

39

Page 41: Virtualisation du stockage reposant sur la solution QUADStor

4.6 Mise en œuvre de l’architecture cible

4.6.1 Installation et configuration

Le second serveur a été réceptionné en mi-mai. Il ne correspond malheureusementpas au même modèle (nouvelle version) que le premier mais les spécifications restent lesmêmes. Les différentes étapes d’installation et de configuration sont similaires de celles dupremier serveur à quelques points près.

4.6.2 Problèmes rencontrés

Au niveau de l’installation de l’OS, il s’avère que Debian qu’importe la version, ne faitpas partie de la matrice de compatibilité de ce nouveau serveur. Après plusieurs mises àjour du BIOS et de l’UEFI (Unified Extensible Firmware Interface), d’essais d’installationd’une version custom de Debian, cet OS ne peut définitivement pas être installé sur cematériel.

Arrivé à la configuration du cluster, j’ai décidé de contacter le support de QUADStorpour obtenir plus d’informations. Ils s’avèrent qu’un de leur plugin concernant le clusterde stockage partagé est toujours en développement et devrait être disponible début Juin.Cependant, il n’a été précisé nulle part l’absence de ce plugin lors de nos échanges ouencore dans leur documentation.

4.6.3 Solutions

Le choix de l’OS étant très limité, les seuls OS open-source compatibles étaient Ubuntuet CentOS. Cependant, le logiciel QUADStor ne pouvant être installé sur Ubuntu, notrechoix s’est porté sur CentOS 7. Cela ne posera pas de problème de compatibilité pour lestests qui seront effectués à la fin, mais pour s’assurer qu’il n’y aura pas de soucis dans lefutur, CentOS sera plus tard également sur le premier serveur.

En attendant la finalisation du plugin et avec l’accord de l’équipe encadrante, j’aidécidé de tester la 3ème topologie qui correspond à celle-ci.

40

Page 42: Virtualisation du stockage reposant sur la solution QUADStor

Figure 4.9 – Troisième topologie

Afin de configurer la haute disponibilité et le mirorring synchrone au niveau des vdisks,il fallait commencer par rendre fonctionnel l’IMM (Integrated Module Managment) quiest un module intégré aux cartes mères des serveurs (généralement un port Ethernet),permettant un accès bas niveau à la machine et donnant la possibilité d’accéder à distanceà des informations sur l’état de santé de la machine mais aussi d’éteindre ou d’allumerl’OS du serveur.

En outre, le but est de faire du fencing qui est d’isoler un nœud/serveur ou à protégerdes ressources partagées lorsqu’un nœud semble présenter un dysfonctionnement.

Dans notre situation, le premier serveur appelé master (Debian) sera le serveur primairesur lequel les vdisks seront créés, et le second serveur appelé slave (CentOS) aura commeobjectif de dupliquer tous les vdisks du serveur primaire. Cela nous amène donc à unproblème critique si le fencing n’est pas configuré, le split-brain.

4.6.4 Split-brain

Un split-brain se produit lorsque deux machines connectées entre elles croient quel’une et l’autre ne fonctionnent plus. Cela peut avoir un effet néfaste sur les données quipeuvent être perdues car les deux machines vont commencer à écrire en même temps. Celaconcerne plus les clusters dont les serveurs accèdent au même espace de stockage (1èretopologie), mais peut tout de même impacter la topologie précédente du fait qu’aucun desdeux serveurs ne saura qui est le master et plus de données ne pourront être écrites ouaccédées.

4.6.5 Fencing

Une fois qu’on peut obtenir des informations ou redémarrer les serveurs entre eux,cela prouve que le fencing est opérationnel. On peut alors commencer à effectuer quelquestests.

41

Page 43: Virtualisation du stockage reposant sur la solution QUADStor

4.6.6 Présentation du stockage

Dans l’optique d’effectuer quelques tests, le second serveur CentOS dispose égalementde 4 LUNs de 1 To sur une baie de stockage différente afin d’avoir une redondance complètedes informations. Nous avons commencé par présenter un vdisk mirroré à la machinevirtuelle via le protocole iSCSI. Dans le cas où on met le serveur primaire en état de panic(via une commande linux), peu de temps après, le serveur secondaire devient master etau moment où le serveur primaire redevient fonctionnel, il prend le rôle de slave. Le testinverse n’a pas créé de soucis non plus.

Une partie importante était enfin de tester la présentation de vdisk via le protocoleFibre Channel. La machine virtuelle se trouvant sur un des 5 serveurs ESXi et pouvantaussi changer d’emplacement, il a fallu créer 20 zones au total au niveau des switchs FibreChannel. En effet, 4 zones doivent être crées par serveur ESXi pour garder la redondancedes chemins d’accès.

Quelques manipulations doivent être effectuées au niveau du vCenter qui est une in-terface gérant la totalité des serveurs ESXi, afin que la VM puisse voir le vdisk créé depuisQUADStor. 2 options sont possibles :

— Passer par RDM (Raw Device Mapping) qui va présenter le vdisk directement à lamachine virtuelle.

— Générer un VMDK (virtual disk au format VMWare) depuis un datastore VMFS(format VMWare). Ce dernier aura été créé directement à partir du vdisk provenantde QUADStor.

QUADStor affirme que les deux méthodes fournissent des performances similaires, c’estpourquoi j’ai décidé de faire les tests en essayant chacune des options, et les résultats sesont montrés concluants.

4.7 Matrice de test

Afin de démontrer la robustesse et fiabilité du logiciel QUADStor et des serveurs, etdans le but de déployer cette solution pour des services de l’université, j’ai du procéder àl’élaboration d’une série de tests (sur chaque serveur) :

— (1) Débrancher un câble d’alimentation pour vérifier que le serveur fonctionnementtoujours correctement pendant une utilisation intense.

— (2) Retirer un SSD du serveur pour vérifier que le RAID 1 fonctionne. Faire lamanipulation dans la documentation pour reconstruire les données sur le SSD enlevé.

— (3) Vérifier si le bonding fonctionne en enlevant un des deux câbles DAC dédié pourle réseau privé entre les 2 serveurs.

— (4) Débrancher les fibres une à une en laissant au moins une de branchée afin devérifier que multipath marche, et que les baies de stockage sont toujours accessibles.

— (5) Forcer un «panic» sur un serveur à la fois pour vérifier que le failover est activéet que le basculement depuis le serveur primaire vers le secondaire marche.

42

Page 44: Virtualisation du stockage reposant sur la solution QUADStor

— (6) Vérifier que que le re-basculement du serveur secondaire vers le serveur primairefonctionne et automatique.

— (7) Vérifier que le mirroring de virtual disks fonctionne.

— (8) Copier 1 To de données sur un vdisk et voir le load CPU et mémoire, ainsi quele temps pris pour le mirroring.

— (9) Quand 2 disques (LUNs) sont ajoutés dans le même pool et qu’un vdisk est crééà partir de ce pool, voir si les deux LUNs sont remplis en parallèles, ou un seul à lafois.

— (10) Possibilité de migrer un disque d’un pool vers un nouveau disque ajouté dansce même pool ?

— (11) Faire un reboot des deux serveurs en même temps et ensuite l’un après l’autre.

— (12) Stress test les différents composants du serveur (CPU, RAM, cache, disquesdurs, alimentation) grâce au logiciel burn-in. Cela permettra de détecter d’éventuelscomposants défaillants.

— (13) Effacer la base de données du logiciel QUADStor.

— (14) Débrancher en même temps les deux câbles d’alimentation d’un des serveurs.

4.8 Travaux en cours

Les 7 premiers tests ont déjà été effectués et les résultats se sont montrés positifs, ceuxun peu plus critique le seront dans les jours à venir.

Ensuite, dès que le plugin manquant concernant le cluster de stockage partagé sera misà disposition, cela me permettra d’expérimenter avec la première topologie qui sera sujetaux mêmes tests précèdent et donc d’avoir la possibilité de choisir entre 2 environnementstotalement fonctionnels si aucun problème majeur n’est détecté.

Si les tests se montrent concluants, je m’occuperai ainsi de la migration de certainsservices de l’université vers la solution de virtualisation du stockage QUADStor.

Enfin, les procédures techniques et d’exploitation seront à finaliser et un transfert decompétence aura lieu.

43

Page 45: Virtualisation du stockage reposant sur la solution QUADStor

Chapitre 5

Conclusion

Avec la prolifération des données et un besoin de plus en plus important en stockage,il n’a jamais été plus critique qu’aujourd’hui de mettre en œuvre des techniques de vir-tualisation du stockage appropriées afin de maximiser l’efficacité du stockage. Avec laquantité de données que l’université doit stocker, il est alors normal de se tourner vers dessolutions open source de virtualisation du stockage regroupant bon nombre de ces tech-nologies. Certes, le logiciel QUADStor est toujours en développement et moins completque les solutions onéreuses provenant des leaders du marché. Néanmoins, il peut tout demême servir pour des services de l’université moins critiques qui requiert tout de mêmeune certaine sécurité des données.

Ce stage m’aura ainsi permis de découvrir un domaine de l’informatique très intéressantque je n’ai malheureusement pas eu l’occasion d’étudier en cours. J’ai constaté durant maformation que de nombreux termes et technologies doivent être maitrisés afin de mettre enplace un tel projet, toutes ces connaissances auront été très enrichissantes et me servirontsûrement à l’avenir.

Bien que l’objectif de ce stage final qui est le déploiement de la solution pour différentsservices de l’université n’a pas encore été atteint à l’heure où j’écris ces lignes, pour diffé-rentes causes tels que les retards de livraison des serveurs, ou encore un plugin QUADStortoujours en phase final de développement, je suis convaincu que le mois et demi restantsera suffisant pour finaliser ce projet. De plus, de multiples tests sont effectués en ce mo-ment pour vérifier la fiabilité de l’environnement afin de diminuer les éventuels problèmesqui seront rencontrés dans le futur.

44

Page 46: Virtualisation du stockage reposant sur la solution QUADStor

Bibliographie

[1] Types de virtualisation. URL : http ://www.techadvisory.org/2016/01/5-different-types-of-virtualization/

[2] Virtualisation de stockage. URL : https ://www.computerworld.com/article/2551439/data-center/storage-virtualization.html

[3] Architectures de stockage. URL : https ://ticalternancecesiarras.wordpress.com/2012/11/10/das-nas-san-kesako-par-ludovic-roucou/

[4] Protocoles de stockage. URL : https ://searchstorage.techtarget.com/tip/Choosing-your-storage-networking-protocol

[5] Niveaux de RAID. URL : https ://www.supinfo.com/articles/single/1176-raid-ses-differents-types

[6] Tiering de données. URL : https ://searchstorage.techtarget.com/definition/tiered-storage

[7] Déduplication de données. URL : https ://www.druva.com/blog/a-simple-definition-what-is-data-deduplication/

[8] Compression de données. URL : https ://searchstorage.techtarget.com/definition/compression[9] LUNs. URL : https ://searchstorage.techtarget.com/answer/What-is-a-LUN-and-

why-do-we-need-one[10] Thin Provisioning. URL : https ://www.lemagit.fr/definition/Thin-provisioning[11] QUADStor. URL : https ://www.quadstor.com[12] Centreon. URL : https ://www.centreon.com[13] Cluster Split-brain. URL : https ://fr.wikipedia.org/wiki/Split-brain[14] Types de cluster. URL : https ://www.jscape.com/blog/active-active-vs-active-

passive-high-availability-cluster[15] Datastore et RDMVMWare. URL : http ://vpourchet.com/2010/06/23/les-datastores-

vmware/[16] Bonding. URL : https ://wiki.debian.org/Bonding[17] Multipath. URL : https ://www.flackbox.com/fibre-channel-san-part-3-redundancy-

multipathing[18]Puppet. URL : https ://puppet.com[19] SSH. URL : https ://doc.ubuntu-fr.org/ssh

45

Page 47: Virtualisation du stockage reposant sur la solution QUADStor

Glossaire

SDS : Software-defined storage

VM : Virtual Machine

OS : Operating System

DAS : Direct Attached Storage

SCSI : Small Computer System Interface

SATA : Serial Advanced Technology Attachment

SAS : Serial Attached SCSI

JBOD : Just a Bunch Of Disks

NAS : Network Area Storage

LAN : Local Area Network

CIFS : Common Internet File System

NFS : Network File System

AFP : AppleShare File Protocol

SAN : Storage Area Network

LUN : Logical Unit Number

FCoE : Fibre Channel sur Ethernet

iSCSI : InternetSmall Computer System Interface

FC : Fibre Channel

HBA : Host Bus Adapter

GLM : Global Link Module

46

Page 48: Virtualisation du stockage reposant sur la solution QUADStor

RAID : Redundant Array of Independent Disks

SSD : Solid State Drive

WWN : World Wide Name

HDD : Hard Disk Drive

BPU : Bordereau des Prix Unitaires

DSI : Direction des systèmes d’Information

RAM : Random-access memory

SNMP : Simple Network Management Protocol

UEFI : Unified Extensible Firmware Interface

BIOS : Basic Input Output System

IMM : Integrated Module Managment

RDM : Raw Device Mapping

47

Page 49: Virtualisation du stockage reposant sur la solution QUADStor

Annexe A

Annexes

A.1 Présentation de la DSI

Le stage se déroule au sein de la DSI (Direction des Systèmes d’Information) à l’Uni-versité de la Réunion, dirigée par Vincent CARPIER et est divisée en 3 services :

— Le service Infrastructure de Proximité dirigé par Sébastien KRAMARZ

— Le service Infrastructure Centrale mené par Laurent PEQUIN

— Le service Systèmes d’Information géré par Nicolas DEREEPER

J’effectue mon stage au sein du service Infrastructure Centrale sous la responsabilité deMatthieu BANNIER. En outre, la DSI a pour mission de proposer et mettre en œuvrela politique du système d’information dans le domaine du traitement informatisé ou nu-mérique de l’information relative à l’enseignement, à la recherche, à la documentationet à la gestion. Son périmètre d’action regroupe toutes les composantes et services del’établissement.

48

Page 50: Virtualisation du stockage reposant sur la solution QUADStor

Service Infrastructure de ProximitéChefs de service : Sébastien Kramarz (Sud)

Vacant (Nord)[14 agents]

Service Systèmes d'InformationChef de service : Nicolas Dereeper 

[5 agents]

NordFabien Herrmann

Bruno Leung Yen FondJean Ng Thune

Teddy ThermidorAusmane Mohamed

Véronique NasriMatthias HiriartYannick HoareauOlivier Chane-Kaï

SudThierry Mardemoutou

Fred HoareauMathias PayetPatrick Rivière

Jephté ClainStéphane Calderoni

Etienne GourdonMamy Haja Rakotobe

Service Infrastructure CentraleChef de service :  Laurent Péquin 

[5 agents]

Matthieu BannierTeddy TrecasseLoic MousseletDidier Bouche

Gestion administrative et financière

 Responsable : Judex De Louise

24 Janvier 2018

Organigramme structurel

Direction des Systèmes d’InformationDirecteur : Vincent Carpier 

[26 agents]

Figure A.1 – Organigramme de la DSI

A.2 Planning

Janvier - Février

— Apprentissage des technologies de stockage virtuel

— Missions à effectuer jusqu’à l’arrivée du premier serveur

Mars - Avril

— Réception du premier serveur

— Installation et configuration du serveur

— Quelques tests effectués et préparation de l’arrivée du second serveur

Mai

— Réception du second serveur

— Installation et configuration par rapport à la topologie cible

— Quelques tests effectués

Juin-Juillet

— Finir tous les tests de performance et de stabilité

49

Page 51: Virtualisation du stockage reposant sur la solution QUADStor

— Migration des services

— Finalisation des procédures

— Transfert de compétence

A.3 MOOC : Maîtriser le shell Bash

Au cours de ce stage, il nous a été demandé de suivre un MOOC dont le thème doitavoir un rapport direct avec le sujet du stage. J’ai ainsi suivi le MOOC intitulé «Maîtriserle shell Bash» disponible sur le site fun-mooc.fr. Mon choix s’est porté sur ce cours card’une part, mon stage reposait énormément sur l’utilisation d’un shell Bash, et d’autrepart, je voulais renforcer mes compétences dans ce domaine. Ce MOOC est divisé en 4séquences d’enseignement réparties sur 6 semaines avec des devoirs et challenges à la finde chaque séquence.

Séquence 1

Durant cette séquence, est présenté le terminal et comment interagir avec le systèmed’exploitation à l’aide de la ligne de commande. On apprend à chercher dans la documen-tation quant à l’utilisation des commandes, mais aussi de naviguer dans l’arborescence desfichiers et à gérer les fichiers et les répertoires. Cette séquence inclut également la gestiondes utilisateurs et la manipulation de fichiers texte.

Séquence 2

La séquence 2 nous familiarise à l’interaction avec un clavier et nous fait découvrir lesaides proposées. On aborde les bases du langage ainsi que les constructions syntaxiques,mais aussi les notions d’entrée et de sortie des processus.

Séquence 3

Au cours de cette séquence, on découvre de nombreux outils dont certains nous per-mettant de modifier notre environnement en fonction de nos besoins. D’autres serviront àfiltrer ou encore d’archiver et de compresser des données.

Séquence 4

La dernière séquence conclue le MOOC en nous apprenant comment écrire des expres-sions et conditions. Sont également introduites, les structures conditionnelles et itératives,et enfin comment optimiser l’organisation de nos scripts en définissant des fonctions.

Ce cours a été très enrichissant et m’a permis d’optimiser mon temps passé sur leshell Bash au cours de ce stage. Bien qu’ayant déjà des bases dans ce domaine, les deuxdernières séquences m’ont fait découvrir de nouvelles notions qui s’avèreront très utilesdans le futur.

50