65
1 Sommaire Partie 1 : Synthèse des connaissances acquises ............................ 3 1. Problématique informatique ............................................................................... 3 2. Quelques chiffres marquants.............................................................................. 4 3. PUE ................................................................................................................... 6 4. Implantation et architecture ................................................................................ 9 5. Distribution d’air ................................................................................................10 6. Allée chaude / allée froide .................................................................................12 7. Point chaud .......................................................................................................14 8. Confinement......................................................................................................16 9. Confinement de l’allée froide .............................................................................17 10. Confinement de l’allée chaude ......................................................................18 11. Température intérieure ..................................................................................19 12. Virtualisation..................................................................................................20 13. Surdimensionnement ....................................................................................26 14. Apports frigorifiques gratuits ..........................................................................31 Partie 2 : Méthode de calcul détaillée .............................................. 39 1. Armoires de climatisation ..................................................................................39 2. Groupes froids et aéroréfrigérants .....................................................................40 3. Pompes.............................................................................................................47 4. Centrales de traitement d’air neuf .....................................................................50 5. Ventilation d’extraction ......................................................................................53 Partie 3 : Projets annexes ................................................................ 56 1. Réseau de chaleur biomasse à Graulhet ..........................................................56 2. Grand théâtre d’Albi ..........................................................................................60 3. Université de Rangueil ......................................................................................61 4. Cité municipale de Bordeaux.............................................................................62 5. Hôpital de Rangueil ...........................................................................................64

Partie 2 : Méthode de calcul détaillée 39 Partie 3 ...eprints2.insa-strasbourg.fr/873/2/05_ANNEXES.pdf · Le terme de nuage informatique ... (poste de contrôle, sanitaires

Embed Size (px)

Citation preview

1

Sommaire

Partie 1 : Synthèse des connaissances acquises ............................ 3

1. Problématique informatique ............................................................................... 3 2. Quelques chiffres marquants.............................................................................. 4 3. PUE ................................................................................................................... 6 4. Implantation et architecture ................................................................................ 9 5. Distribution d’air ................................................................................................10 6. Allée chaude / allée froide .................................................................................12 7. Point chaud .......................................................................................................14 8. Confinement ......................................................................................................16 9. Confinement de l’allée froide .............................................................................17 10. Confinement de l’allée chaude ......................................................................18 11. Température intérieure ..................................................................................19 12. Virtualisation ..................................................................................................20 13. Surdimensionnement ....................................................................................26 14. Apports frigorifiques gratuits ..........................................................................31

Partie 2 : Méthode de calcul détaillée .............................................. 39

1. Armoires de climatisation ..................................................................................39 2. Groupes froids et aéroréfrigérants .....................................................................40 3. Pompes .............................................................................................................47 4. Centrales de traitement d’air neuf .....................................................................50 5. Ventilation d’extraction ......................................................................................53

Partie 3 : Projets annexes ................................................................ 56

1. Réseau de chaleur biomasse à Graulhet ..........................................................56 2. Grand théâtre d’Albi ..........................................................................................60 3. Université de Rangueil ......................................................................................61 4. Cité municipale de Bordeaux.............................................................................62 5. Hôpital de Rangueil ...........................................................................................64

2

3

Partie 1 : Synthèse des connaissances acquises

1. Problématique informatique

Encore inconnu de nos dictionnaires, un data center est une salle informatique hébergeant des serveurs. Ces serveurs sont composés essentiellement de disques durs pour stocker l’information et de micro processeurs pour rechercher l’information. - L’association de ces composants forme un hub. - Plusieurs hubs empilés constituent un rack. Un rack possède une taille normalisée : 19 pouces de large (48,26 cm) et 17 pouces de profondeur (43,18 cm). - Les racks sont rangés dans une armoire de protection : une baie informatique. - Plusieurs baies informatiques forment une salle serveur : un data center.

fig 1 : hub

source : www.apple.com/in/xserve/design.html

fig 2 : baie informatique

source : www.directindustry.fr/prod/panduit/armoires-rack-pour-reseaux-12722-42893.html

4

Toute entreprise qui stocke des données informatiques possèdent un ou plusieurs serveurs. Lorsque le nombre de serveurs est important, il devient utile de les disposer dans une salle dédiée afin d’optimiser la rapidité de recherche de l’information. Selon l’activité du propriétaire de la salle informatique, les équipements informatiques de ces salles peuvent fonctionner en continu toute l’année. C’est le cas de la majorité des data centers. Les propriétaires de tels data centers fonctionnant en continu sont des banques, des assurances, des sociétés commerciales, des moteurs de recherches internet, des réseaux sociaux internet, etc. Toutes ces utilisations lucratives renferment des informations confidentielles. C’est pourquoi un data center doit être fiable. Aucune panne n’est acceptable. La chaleur générée par le stockage et la recherche d’information est un risque majeur. Une hausse significative de la température du data center peut être la cause d’une défaillance grave voire irrémédiable : perte temporaire des informations (arrêt due à la surchauffe), perte partielle ou totale des informations (hub grillé). Un data center n’est donc pas qu’une simple salle de stockage informatique, il possède tout un environnement associé : système de refroidissement, système électrique d’alimentation sans interruption, surveillance et protection incendie. Tous ces équipements qui assurent le maintien de l’information consomment énormément d’énergie car ils fonctionnent aussi souvent que fonctionnent le stockage et la recherche, c’est-à-dire en continuellement.

2. Quelques chiffres marquants

L’énergie consommée par l’ensemble des data centers à travers le monde représente près de 1% de la consommation mondiale d’électricité, soit 450 milliards de kWh : - Cette consommation représente 92% de la consommation totale de la France (tous secteurs d’activité confondus). - Cette consommation représente la consommation de 81,4 millions d’Européens, soit la population de la France et de la Belgique réunies. - Les data centers émettent actuellement autant de CO2 que la France. Greenpeace prédit que l’énergie consommée par les data centers va être multipliée par 4 d’ici 2020, soit autant que la France, l’Allemagne, le Brésil et le Canada réunis.

5

fig 3 : équivalence de la consommation en 2010 (réelle) et en 2020 (estimée)

source : www.hebergeur-web.net/testimonials.html Les plus grands data centers du monde nécessitent à eux seuls l’énergie produite par 14 centrales électriques. Des géants de la consommation internet sont pointés du doigt : Apple et Facebook possèdent des data centers alimentés par des centrales à charbon. Des efforts sont possibles dans cette consommation abusive, à l’image de Yahoo! qui alimente son centre par une centrale hydroélectrique. Concernant le jeu virtuel Second Life qui possède plus de 20 millions d’utilisateurs : un personnage virtuel de ce jeu consomme chaque année autant d’électricité qu’un Brésilien et 10 fois plus qu’un Camerounais. Une recherche Google équivaut à l’énergie consommée pendant une heure par une ampoule à économie d’énergie. Télécharger la version électronique d’un quotidien consomme autant d’électricité que de faire une lessive. Le terme de nuage informatique (cloud computing) signifie l’accès à l’information de data centers éloignés de l’ordinateur de l’utilisateur. L’expansion et la surconsommation des data centers présagent un réel orage informatique.

92%

2010

2020

6

fig 4 : « nuage informatique »

source : www.astrosurf.com/luxorion/nucleaire-liste-incident-accident-delits.html Les enjeux de réduction de consommation de ces salles informatiques sont énormes. Actuellement, quasi aucun effort n’est réalisé pour remédier à ce problème. Aucune réglementation ne limite les consommations. Les data centers présentent cependant une caractéristique importante dans la mesure de leur efficacité par rapport aux autres infrastructures tertiaires : le PUE.

3. PUE

Le PUE, Power Usage Effectiveness, est une notion proposée par l’association de professionnels de l’informatique The Green Grid. Il est un indicateur synthétique, efficace et reconnu internationalement permettant une évaluation rapide de l’efficacité énergétique d’un data center. Il permet également de comparer les centres informatiques entre eux et de déterminer si des améliorations d’efficacité énergétique sont nécessaires. Le PUE se calcule par la relation suivante : PUE = puissance totale du site / puissance informatique

fig 5 : logo du Green Grid

source : www.thegreengrid.org Théoriquement un data center parfait présente un PUE égal à 1. Dans ce cas, toute la puissance consommée par l’enceinte est destinée au fonctionnement des équipements informatiques. Mais la théorie est bien loin de la réalité et un data center « moyen » présente un PUE compris entre 2 et 2,5. C’est à dire qu’un data center moyen consomme autant en refroidissement qu’en stockage informatique. Et rare sont ceux qui peuvent se vanter d’un PUE inférieur à 1,5. On peut citer Google qui possède, d’après lui-même, le meilleur data

7

center affichant un PUE de 1,21. Yahoo! et Cap Gemini visent un PUE de 1,08 pour leur futurs data centers.

fig 6 : Google : 36 data centers en 2008

source : www.royal.pingdom.com/2008/04/11/map-of-all-google-data-center-locations/ Il faut préciser que cette course au plus faible PUE n’a pas de règles strictes. Le calcul du PUE n’est pas standardisé. Beaucoup d’entreprises se vantent d’un PUE très faible mais aucune ne précise les éléments pris en compte pour le calcul du numérateur : la puissance totale du site. Schneider Electric établit dans son livre blanc n°158 « Méthode de calcul de l’efficacité énergétique dans les data centers » une liste de tous les équipements électriques susceptibles d’être présents dans l’enceinte d’un data center. Chaque élément est classé dans l’une des 3 catégories suivantes : charge informatique, infrastructure physique, non inclus. C’est seulement à des niveaux de calcul égaux qu’il est possible de comparer énergétiquement les data centers.

8

fig 7 : PUE : absence de calcul standardisé source : Schneider Electric, livre blanc n°158

« Méthode de calcul de l’efficacité énergétique dans les data centers » Schneider Electric établit par ce livre blanc le début d’une normalisation dans le calcul du PUE. Le Green Grid a reconnu les problèmes soulevés dans ce livre blanc et tente actuellement de trouver des solutions sous forme de directives et de normes. Ce livre blanc ne prend pas en compte : - Le nombre de tranches informatiques ouvertes. - Le taux de remplissage des racks. - Le taux de disponibilité des serveurs. Un data center dont les systèmes de refroidissement ou d’alimentation sont souvent en panne consomme moins qu’un data center fiable. Le PUE d’un data center peu fiable est donc plus faible. Avec des telles pannes les données informatiques risquent d’être indisponible momentanément à cause des surchauffes ou des coupures de courant. Des data centers renfermant des données confidentielles peuvent admettre des taux de disponibilité supérieurs à 99,99%. La notion de disponibilité n’étant pas considérée dans le PUE, on comprend très aisément son impact sur la consommation annuelle.

9

Cette consommation annuelle est largement augmentée par le système de refroidissement très gourmand en énergie. Cette consommation doit être considérée dès les premières phases de conception ; des phases comme que le choix du terrain d’implantation ou encore l’architecture. Que la raison soit écologique ou financière, l’économie d’énergie est à prendre en compte dès la phase de conception du data center.

4. Implantation et architecture

Au niveau de l’implantation, les petits data centers peuvent être intégrés dans l’enceinte même d’un bâtiment, au centre selon l’axe Est-Ouest (axe Y), au plus bas selon l’axe vertical (axe Z), au centre ou au Nord selon l’axe Nord-Sud (axe X) (pour l’hémisphère nord bien évidemment). Ainsi l’échange avec l’extérieur et les apports solaires sont limités. Nous ne développerons pas plus l’implantation et l’architecture des petits centres informatiques.

fig 8 : implantation d’un petit data center

source : production personnelle Pour les data centers plus importants nécessitant une enceinte dédiée, un modèle compact est le mieux approprié : un volume intérieur maximal pour une surface d’échange extérieure minimale.

fig 9 : compacité

source : www.logisylva.com/menu-2/maisons-basse-consomation/pour-une-conception-reussie/

10

Les apports de chaleur sont à éviter. On peut noter que certaines entreprises américaines ont implanté leurs data centers en Alaska. Google songent à construire son prochain data center dans la cale d’un bateau afin de profiter d’un échange avec un extérieur frais et peu variable dans le temps. L’environnement du terrain constructible joue aussi un rôle important : on privilégie les zones en dehors des villes afin d’éviter la chaleur urbaine, les régions froides du pays concerné, les zones ombragées (proche d’une forêt), les zones à albédo faible (loin des plans d’eau), les zones non caniculaires (éviter les climats continentaux).

fig 10 : îlot de chaleur urbain à Paris : 09-08-2009

source : www.actualite.lachainemeteo.com/actualite-meteo/2009-09-28/paris-banlieue---9--d-ecart_-2638.php

L’architecture intérieure est elle aussi très importante. Les apports solaires devant eux aussi être limités, les rares ouvrants prévus sont uniquement opaques : il n’y a donc aucune fenêtre, uniquement des portes opaques. Dans un bâtiment dédié, il est judicieux d’encadrer les salles serveurs par une circulation périphérique ou des salles à refroidissement moindre (poste de contrôle, sanitaires…). Cette véritable enceinte périphérique joue le rôle de zone tampon pour stocker la chaleur et limite les apports solaires dans la salle contenant les serveurs informatiques. La salle hébergeant les serveurs informatiques nécessite une conception élaborée pour une efficacité maximale. La compacité est encore primordiale. Les flux d’air chauds et froids ne doivent pas stagner. La salle doit donc présenter le moins d’angles possible.

5. Distribution d’air

Concernant les flux d’air, un data center bien refroidit est un data center où l’air circule correctement. Il ne doit pas y avoir de mélange entre l’air extrait et l’air soufflé. Il existe plusieurs configurations, chacune présente des avantages et des inconvénients. Les data centers étant relativement récents, il est encore difficile d’avoir un regard critique et de prendre du recul sur les différents modèles de circulation d’air. Avant toute réflexion sur la méthode d’extraction et de soufflage, le premier choix à faire est une distribution par allée chaude / allée froide. Cette méthode permet d’extraire un maximum

11

d’air chaud, et très peu d’air mélangé à température moyenne. Le mélange amène le système de refroidissement à fonctionner de façon moins efficace : une plus petite différence de température entre l’air chaud extrait et les températures du serpentin de refroidissement induit une dégradation du rendement de l’installation.

fig 11 : principe de l’allée chaude / allée froide avec faux-plancher

source : www.conteg.fr/confinement-d-allee-froide

12

6. Allée chaude / allée froide

fig 12 : les 9 schémas de distribution en allée chaude / allée froide

source : Schneider Electric, livre blanc n°55 « Options d’architecture pour la distribution d’air dans les installations critiques »

13

fig 13 : modélisation de l’allée chaude / allée froide avec faux-plancher

source : www.conteg.fr/allee-chaude-froide/ Le faux-plancher est devenu en peu de temps une habitude constructive. Cependant il a quasiment perdu sa raison d’être et n’offre plus que des inconvénients importants : frais d’étude et de construction, temps d’installation, réduction de la hauteur de plafond, fragilité sismique, risques pour la sécurité des personnes et la sûreté de l’information, charge limitée et rampes d’accès, etc. Lorsque les câblages électriques sont eux aussi en faux-plancher, leur présence perturbe l’écoulement de l’air en augmentant la perte de charge et en modifiant la répartition des pressions et des débits. De plus, la nécessité de modifier fréquemment le câblage oblige le personnel à ouvrir certaines dalles pour accéder aux câbles, ce qui perturbe encore plus l’alimentation en air des équipements critiques. Il est préférable d’acheminer ces câbles par le plafond afin d’éviter tout risque de lié au traitement d’air.

fig 14 : faux plancher encombré par les câbles électriques

source : Schneider Electric, livre blanc n°135 « Confinement de l’allée chaude / Confinement de l’allée froide »

source : http://www.lemagit.fr/article/greenit-data center-bouygues-centre-calcul-prosodie/3423/1/prosodie-emmene-bouygues-vers-green-mais-peine-etendre-mouvement/

Si le cheminement des câbles électriques n’est possible qu’en faux-plancher, l’alimentation en haut glacée peut s’effectuer par le plafond afin de minimiser l’encombrement du faux-plancher.

14

fig 15 : alimentation en eau glacée par faux-plancher et en plafond apparent

source : Schneider Electric, livre blanc n°131 « Systèmes avancés de distribution d'aeu réfrigérée pour centres de données »

7. Point chaud

La stagnation ou le ralentissement du flux d’air peut avoir de lourdes conséquences dans certains cas. Les racks sont utilisés à charge inégale les uns par rapport aux autres. Lorsque la charge informatique est importante, la baie surchauffe localement, créant ainsi un point chaud par rapport aux baies voisines dont la température est modérée. Cette surchauffe localisée nécessite un traitement en refroidissement plus important. Si cette surchauffe survient en un point éloigné du départ de l’air soufflé en faux-plancher et que différents obstacles perturbent son écoulement, alors le traitement du point chaud sera insuffisant voire inexistant. Si le point chaud n’est pas traité, les hubs risquent de griller, entraînant une panne partielle de l’installation et une perte probable des données de ces hubs.

fig 16 : points chauds

source : Schneider Electric, livre blanc n°118 « La virtualisation : une alimentation et un refroidissement optimisés pour des bénéfices accrus »

15

Traditionnellement, la perspective d’avoir à refroidir des points chauds dans les salles informatiques à faux-plancher a conduit à surdimensionner le système de distribution d’air, avec des investissements et des frais d’exploitation inutilement élevés, sans toujours atteindre le résultat désiré le moment venu. Pour éviter les coûts d’une surcapacité de refroidissement, il est préférable de desservir les zones à forte dissipation par des gaines individuelles de soufflage et / ou d’extraction. En général, les circuits de soufflage canalisée et / ou d’extraction canalisée ne sont nécessaires que pour des niveaux de puissance de 5 à 15 kW par rack.

fig 17 : extraction canalisée

source : www.conteg.fr/alimentation-en-salle-avec-retour-par-plenum/ Si cela est le cas, le maître d’ouvrage et le bureau d’étude ont plusieurs choix : Le maître d’ouvrage connaît l’emplacement des baies à forte charge et le bureau d’étude conçoit les gaines individuelles en conséquence. La plupart du temps, le maître d’ouvrage ne connaît pas l’emplacement des baies à forte charge : - Une solution onéreuse consiste à traiter toute la salle de façon régulière par des gaines individuelles. Cette solution paraît peu réalisable du point de vue purement financier. - Une solution plus performante consiste à imposer au maître d’ouvrage le nombre et l’emplacement des baies à forte charge. Mais cette solution n’est pas évolutive. Le matériel informatique évolue sans cesse et très rapidement. Les hubs sont de plus en plus petits et performants, et chauffant aussi de plus en plus. Le changement de matériel informatique peut induire la création de points chauds supplémentaires par rapport à la configuration avec le matériel ancien. La salle n’a donc plus assez de gaines individuelles et les nouveaux points chauds ne sont pas traités. - La solution optimale est une solution intermédiaire : imposer le nombre et l’emplacement des racks à forte charge et prévoir quelques gaines individuelles supplémentaires. La notion de point chaud n’est pas exclusive aux salles avec faux-plancher. Les salles sans faux-plancher, à même le sol, sont aussi des salles à risque. L’architecture de la salle (compacité) peut induire des ralentissements du flux d’air vers les ou baies éloignés du ventilateur de soufflage et / ou d’extraction. Dans la plupart des nouvelles constructions, la salle est à même le sol. Contrairement à des croyances bien établies, l’absence de faux-plancher permet d’utiliser des méthodes de refroidissement aussi efficaces, sinon plus, que celles qui font circuler l’air sous faux-plancher.

16

NB : Nous reviendrons sur la notion de point chaud dans le paragraphe sur la virtualisation.

8. Confinement

Le coût de l’énergie n’est pas négligeable, surtout pour des installations comme un data center qui fonctionne en permanence. La configuration en allée chaude / allée froide est une avancée dans le dimensionnement des systèmes de refroidissement. Cependant un problème de pression de distribution peut laisser l’air froid stagner en bas et une mauvaise extraction laisse l’air chaud stagner en haut. Le mélange de ces deux airs implique une ambiance où la température est ni chaude, ni froide, mais modérée et où le refroidissement des ou baies est inefficace à une altimétrie moyenne et haute. Afin d’améliorer les performances de la configuration en allée chaude / allée froide, il est possible de confiner les rangées. Le confinement consiste en l’installation de séparation physique entre les extrémités de chaque rangée. Le confinement permet de résoudre les problèmes de mélange d’air. Sans confinement, le mélange est mauvais lorsqu’il existe une différence entre le débit brassé par les armoires de climatisation et le débit soufflé par le faux-plancher. - Si le débit des armoires de climatisation est supérieur à celui du faux-plancher, alors il y a risque de points chauds : il y a une mauvaise reprise, l’air mélangé en principe modéré devient chaud. - Si le débit des armoires de climatisation est inférieur à celui du faux-plancher, alors il y a une perte d’air frais : c’est de l’air frais qui est repris et non de l’air modéré.

fig 18 : débit armoires > débit faux-plancher = points chauds

source : www.atos-racks.com/fiche,allee_froide,109.html

17

fig 19 : débit armoires < débit faux-plancher = perte de capacité de refroidissement

source : www.atos-racks.com/fiche,allee_froide,109.html

9. Confinement de l’allée froide

L’allée froide peut être confinée. Pour cela une séparation aux extrémités de chaque rangée par de simples rideaux en plastiques est possible. Le coût de mis en place de ce confinement est négligeable, et les gains énergétiques sont eux significatifs.

fig 20 : confinement de l’allée froide avec un rideau en plastique

source : www.gridata center.org/data center/ Enfermer l’allée froide d’un bout à l’autre permet de minimiser l’espace à refroidir et ainsi le refroidissement volumétrique devient meilleur pour un même débit d’air sans confinement. Toutes les allées froides dans la totalité du data center doivent être confinées afin d’en tirer des bénéfices. Le confinement de quelques-unes seulement n’apporte que peu de bénéfices car tout le reste de l’air froid se mélange à l’air chaud et réduit les économies escomptées. Mais le confinement de l’allée froide présente plusieurs défauts : - En cas d’une perte d’alimentation (ventilateurs) ou de refroidissement (groupes froids) : la diminution du volume disponible réduit le laps de temps suffisant aux serveurs pour atteindre une surchauffe. Avec le confinement de l’allée froide, la panne informatique

18

peut survenir quelques secondes après la panne technique (panne du lot CVC), au lieu de quelques minutes sans confinement. - Il n’élimine pas la variable du faux-plancher. L’encombrement du passage disponible par les câblages reste un frein au refroidissement des baies, et le risque de surchauffe est plus important du fait du volume de passage réduit du le faux-plancher.

10. Confinement de l’allée chaude

Bien que le système de confinement de l’allée froide soit un scénario préférable, si l’on compare à l’approche traditionnelle, le meilleur scénario est celui du système de confinement de l’allée chaude. Le confinement de l’allée chaude nécessite l’installation d’un plafond en plus des séparations latérales (panneaux préférables aux rideaux en plastiques). L’installation est plus onéreuse.

fig 21 : confinement de l’allée chaude avec des panneaux rigides

source : Schneider Electric, livre blanc n°135 « Confinement de l’allée chaude / Confinement de l’allée froide »

source : www.schroff.fr/internet/html_f/service/pressreleases/sro1003.html Comparons la température ambiante de la salle : - Dans le cas d’une salle sans confinement, l’air ambiant est un mélange d’air chaud à extraire et d’air froid insufflé.

19

- Dans le cas d’une salle avec confinement de l’allée froide, l’air ambiant est plus élevé, car il est un mélange d’air chaud à extraire et d’une faible part d’air froid qui s’est dissipé sous les rideaux en plastique. La température ambiante peut augmenter jusqu’à plus de 10°C au dessus de la température sans confinement. - Dans le cas d’une salle avec confinement de l’allée chaude, l’air ambiant est plus frais car il est un mélange d’air froid insufflé et d’une faible part d’air chaud à extraire qui s’est dissipé sous les panneaux et par le plafond du confinement. Ainsi, dans le cas d’une défaillance technique (panne du lot CVC), les serveurs restent dans une ambiance moins chaude que sans confinement et prélèvent l’air dans un grand réservoir frais à l’inverse du confinement par l’allée froide où ce réservoir est à son minimum. Le laps de temps suffisant aux serveurs pour atteindre une surchauffe est donc à son maximum (mais ne reste toujours que de quelques minutes). Dans les deux cas de confinements, une détection et / ou protection incendie adaptée doit être prévue à chaque espace de confinement. Cet investissement conséquent est à considérer en parallèle aux économies d’énergie réalisées. A l’heure actuelle il est difficile de quantifier l’économie réalisée par le confinement car les normes sur les températures intérieures admissibles dans les data centers sont en cours d’élaboration. L’échauffement de la température ambiante par le confinement de l’allée froide et l’échauffement de la zone de confinement de l’allée chaude sont en dehors des limites admises. Il est donc encore rare de voir des applications du confinement.

11. Température intérieure

Pour le moment l’Union Européenne, par le biais de l’ETSI (European Telecommunications Standards Institute), travaille sur une norme environnementale pour les data centers. Il s’agit de la norme, encore non finalisée, ETSI EN 300 019-1-3. Les data centers sont répertoriés dans la classe environnementale 3.1. Le « code de conduite européen sur les Datacentres ». Le respect de cette norme est prévue pour 2012. Pour l’instant le « code de conduite européen sur les Datacentres » se base sur les recommandations de l’ASHRAE (American Society of Heating, Refrigerating and Air-Conditioning Engineers) décrit dans le document « 2008 ASHRAE Environnemental Guidelines for Datacom Equipment ». Ce document préconise des températures ambiantes de 18°C à 27°C et accepte des températures de 15°C à 32°C.

fig 22 : logos de l’ETSI et de l’ASHRAE

source : www.etsi.org source : www.ashrae.org

Certaines études empiriques montrent que les conditions optimales d’utilisation d’un data center est aux alentours de 27°C. Malheureusement l’habitude au sur-refroidissement est déjà acquise : certains data centers sont refroidis jusqu’à 12°C, et la moyenne internationale est à 22°C. Malgré les études prouvant la valeur optimale de 27°C, seul Yahoo! (une fois de plus) pousse les limites exercées à ce jour en refroidissant son centre à 23,8°C et en déclenchant des ventilateurs supplémentaires lorsque la température varie de 25,5 à 26,6°C. Les enjeux financiers que renferment les données informatiques des serveurs sont si importants que l’erreur n’est pas permise. L’évolution vers une température ambiante élevée,

20

sécurisée et certifiée par les organismes agrées est pour demain mais pour le moment tout est à faire. Le processus de production de normes et de directives est long. Le système de refroidissement d’un data center est intimement lié aux équipements informatiques se trouvant dans la salle. L’évolution informatique est très rapide, même si cette dernière ne suit plus le loi de Moore depuis plus de 20 ans (rappel de la loi de Moore : la capacité informatique double tous les 18 mois), et que son évolution exponentielle s’est ralentie, il n’en reste pas moins que l’évolution continue. Et à moins que les futures technologies ne contredisent les faits suivants, l’évolution des serveurs correspond avec les augmentations de leur consommation en alimentation et de leur chaleur dissipée : plus petits, plus puissants, plus chauds.

fig 23 : croissance de la capacité informatique source : fr.wikipedia.org/wiki/Loi_de_Moore

Dans un souci de performance informatique, les hubs sont destinés à être changés régulièrement. Le système de refroidissement évolue beaucoup moins rapidement et doit être capable de supporter les charges des futurs serveurs plus gourmands en énergie. Ces futures augmentations de charges dissipées ne peuvent être admises uniquement par un système de refroidissement surdimensionné ; ce qui est contradictoire à l’économie d’énergie. Mais l’économie d’énergie intéresse les utilisateurs de data centers car celle-ci est coûteuse. La location de racks l’est encore plus. En France, le prix moyen de location mensuel d’un rack est de 1 029 €. De nouvelles méthodes informatiques ont été développées pour contrer ces prix exorbitants. Les propriétaires et les loueurs de racks peuvent choisir de virtualiser certains de leurs racks afin d’optimiser leur utilisation et ainsi réduire les coûts de consommation et de matériels informatiques. La virtualisation consiste à simuler plusieurs machines sur une seule.

12. Virtualisation

Les racks ne sont jamais pleinement utilisés. La plupart du temps ils sont chargés de 20 à 30% de leur capacité.

21

Il est possible de transférer les données et le système d’exploitation associé d’un hub sur un autre. L’hub qui a reçu les nouvelles données peut gérer les deux systèmes d’exploitation et gérer des actions simultanées sur les données existantes et sur les nouvelles données : le rack contenant ce hub a été virtualisé. Il est possible de virtualiser plusieurs hubs sur un seul hub, et plusieurs racks sur un seul rack.

fig 24 : principe de fonctionnement de la virtualisation

source : www.alunys.com/page/53/virtualisation Après la virtualisation, il est possible de retirer définitivement les racks vidés virtuellement. Cette solution est profitable aux personnes louant les racks pouvant ainsi réduire le nombre de racks présents dans leur data center. Cependant la capacité de stockage du data center est fortement diminuée. Ou alors, il est possible de conserver les racks vidés virtuellement. Virtualiser et conserver les racks est profitable aux personnes propriétaires des racks. Les données virtualisées sont présentes sur deux racks : celui d’origine et celui virtualisé. Cela permet d’avoir une redondance dans les données et de les conserver en cas de panne avec perte partielle ou totale. Ou bien, les racks vidés virtuellement peuvent être réellement vidés : il n’y pas de redondance de données mais cela permet d’augmenter la capacité de stockage du data center sans investissement de matériels informatiques. Après virtualisation il y a donc trois possibilités : - Retirer le rack vidé - Conserver le rack vidé - Vider réellement et conserver le rack vidé. La consommation électrique informatique est différente selon ces trois cas. Un rack consomme quasiment autant d’énergie qu’il fonctionne à faible ou à pleine charge. Sa consommation est quasiment fixe, et peu variable, peu proportionnelle selon la charge.

22

fig 25 : rendement d’un rack en fonction de sa charge

source : h41112.www4.hp.com/qualifiedoptions/fr/fr/rack/index.html A de 25% de charge, le rendement est de 80%. Ainsi, avec deux racks chargés à 25%, virtualiser un des racks sur l’autre permet de réduire la consommation informatique de 37%. Le rack virtualisé atteint une charge de 50%. Evaluation de la consommation électrique informatique selon les trois cas : - Retirer le rack vidé : économie d’énergie, économie de location, capacité de stockage diminuée. - Conserver le rack vidé : faible augmentation de la consommation, redondance de l’information assurée. - Vider réellement et réutiliser le rack vidé : faible augmentation de la consommation, capacité de stockage augmentée. L’inconvénient majeur de la virtualisation survient lorsque tous les serveurs présents dans le rack virtualisé atteignent leur charge de pointe au même instant. Le rack virtualisé atteint 90 à 100% de sa charge et dissipe énormément de chaleur, créant un point chaud. Les points chauds liés à la virtualisation sont difficiles à traiter car ils sont mobiles : les charges informatiques sont en déplacement du fait du fonctionnement simultané de serveurs sur une seule machine. Le taux de charge du rack virtualisé varie sans cesse d’une charge quasi nulle à une charge totale.

fig 26 : déplacement des points chauds après virtualisation

source : Schneider Electric, livre blanc n°118 « La virtualisation : une alimentation et un refroidissement optimisés pour des bénéfices accrus »

23

Une mauvaise trajectoire du flux d’air, un problème d’écoulement d’air, un mauvais dimensionnement du confinement accentue ce phénomène : un rack virtualisé atteignant seulement 50% ou 60% de sa capacité peut créer un point chaud. Un taux de 50% est atteint fréquemment par un rack virtualisé. Pour atteindre la demi-charge il ne suffit pas que tous les serveurs présents soient en charge de pointe (ce qui est rare), mais seulement quelques uns. La virtualisation est donc à utiliser avec précaution. La meilleure solution est de regrouper des serveurs ayant des utilisations complémentaires non simultanées ; mais cette situation reste rare et difficile à identifier. La virtualisation à demi-charge (50%) est à étudier, mais la virtualisation jusqu’à la pleine charge (90 à 100%) présente des risques trop importants pour la disponibilité (arrêt due à la surchauffe) et le maintien de l’information (perte partielle due à la surchauffe). Autre problème, dans un data center en sous-charge à cause du surdimensionnement du système de refroidissement, la diminution de la dissipation de chaleur grâce à la virtualisation peut amener ce dernier en sous-charge extrême. Les effets négatifs d’une sous-charge extrême sont développés dans le paragraphe sur le surdimensionnement. Le rendement et la charge ne sont pas liés linéairement. A partir de 30% de charge, le rendement est acceptable. Le principal but de la virtualisation n’est pas d’atteindre des niveaux de rendement supérieurs à ceux atteint à 30% de charge, mais d’atteindre un niveau de charge minimum, assurant ainsi la non-dégradation du rendement. La virtualisation augmente sensiblement le rendement informatique : il y a plus d’activité informatique par Watt d’électricité consommé par le data center. Le rendement du data center DCIE, Data Center Infrastructure Efficiency, correspond à l’inverse du PUE, soit : DCIE = consommation informatique / consommation totale du site Comment varie le DCIE avec la virtualisation ? Par la virtualisation, la puissance informatique diminue. Les puissances informatique, du système de refroidissement et du système d’alimentation forment à elles trois 90% de la puissance totale du site. Dans le cas où le rack vidé est retiré : - Le système de refroidissement est un peu moins sollicité. - L’alimentation informatique retirée ne représente qu’une faible part de l’alimentation totale. De ce fait, la puissance totale du site augment : le DCIE diminue, le PUE augmente. Dans le cas où le rack vidé est conservé : - Le système de refroidissement est plus sollicité. - L’alimentation informatique augmente. De ce fait, la puissance totale du site augmente de significativement : le DCIE diminue, le PUE augmente fortement. Le DCIE ne mesure pas le quantité d’énergie utilisée mais indique la part de l’énergie gaspillée par rapport à l’énergie utilisée.

24

fig 27 : diminution du DCIE après virtualisation source : Schneider Electric, livre blanc n°118

« La virtualisation : une alimentation et un refroidissement optimisés pour des bénéfices accrus »

Lorsque le rendement informatique augmente sans modification du système de refroidissement, le système de refroidissement devient surdimensionné. En effet la chaleur dissipée par un rack n’est pas linéairement proportionnelle à sa charge : un rack à faible charge informatique dissipe une certaine quantité de chaleur non négligeable. Ainsi la chaleur dissipée par le matériel informatique d’un data center virtualisé est inférieure à la chaleur dissipée par un data center non virtualisé lorsque la charge informatique est la même dans les deux cas, c’est-à-dire lorsque les racks sont retirés. La conservation et la réutilisation des racks vidés ne permet pas de réaliser des économies d’énergie, ils ne permettent que d’augmenter la capacité informatique du data center. Si la volonté est aux économies d’énergies, la part majeure est à récupérer sur le dimensionnement du système de refroidissement et l’alimentation électrique. Les économies réalisées par la virtualisation sont notables, mais faibles par rapport à ceux réalisables sur la consommation électrique non informatique. Consommation électrique non informatique associée à la virtualisation La consommation d’énergie non informatiques, ou pertes, sont les suivantes : - Les pertes électriques internes du système d'alimentation (périphériques du circuit d'alimentation, notamment les onduleurs, les bandeaux de prises, le câblage, etc.), qui se dispersent sous forme de chaleur. - L'ensemble de la puissance consommée par le système de refroidissement. - L'ensemble de la puissance consommée par d'autres sous-systèmes de l'infrastructure physique du data center (réduite par rapport aux précédentes). Sur l'ensemble de la puissance consommée par les systèmes d'alimentation et de refroidissement, une partie reste identique quelle que soit la charge informatique, et une partie varie en proportion de la charge informatique. Ces deux composants de puissance consommée sont appelés perte fixe et perte proportionnelle. La perte fixe est la puissance consommée que le système fonctionne ou non, quelle que soit la charge. La réduction de la charge ne modifie pas la quantité de perte fixe. Les transformateurs et les ventilateurs à vitesse fixe possèdent des pertes fixes importantes. La perte proportionnelle est directement proportionnelle à la charge. Le doublement de la charge doublera la perte proportionnelle. Les ventilateurs à vitesse variable et les pompes à débit variable possèdent des pertes proportionnelles.

25

Les pertes fixes représentent une part non négligeable lorsque le matériel concerné fonctionne à bas régime. En d’autres termes, plus un data center est grand et plus ces pertes représentent une part importante de la consommation électrique non informatique. Pour la même capacité informatique, la virtualisation permet de diminuer le nombre de racks. Diminuer le nombre de racks permet de : - Diminuer les longueurs d’alimentation électrique. - Diminuer les longueurs des réseaux aéraulique et hydraulique. - Réduire le système de refroidissement ; par exemple, en retirant quelques armoires de climatisation au niveau des racks retirés. Modifier la taille du groupe froid et des aéroréfrigérants est un investissement trop lourd. Ainsi, les pompes et les ventilateurs ont moins de pertes de charge à combattre. Avec des ventilateurs et des pompes à vitesse variable, les économies d’énergie sont notables car les pertes proportionnelles diminuent. Dans ce cas il est considéré que le système de refroidissement est déjà muni de tels variateurs. Si ce n’est pas le cas, l’investissement pour des matériels avec variateurs est conséquent mais le retour sur investissement est rapide (quelques années). La meilleure solution est de prévoir des ventilateurs et des pompes à vitesse variables dès la conception : avec la virtualisation, les économies d’énergie réalisées sont immédiates et sans investissement. Il en est de même pour l’investissement d’onduleurs plus performants et moins puissants (moins de racks à alimenter) : l’investissement est lourd mais le retour sur investissement est rapide (quelques années). En optimisant le système de refroidissement et le système d’alimentation, la puissance totale du site est fortement diminuée. le DCIE virtualisé reste proche du DCIE non virtualisé, il peut être supérieur ou inférieur de quelques points. Les rendements sont proches, mais la facture énergétique est plus faible.

fig 28 : DCIE et PUE initiaux atteints après virtualisation et optimisation

du système de refroidissement et d’alimentation source : Schneider Electric, livre blanc n°118

« La virtualisation : une alimentation et un refroidissement optimisés pour des bénéfices accrus »

La réduction des pertes fixes, via un meilleur rendement des périphériques et / ou une meilleure configuration du système (variateurs de vitesse), est la méthode la plus efficace pour accroître le rendement. En partant d’un data center défavorable, il est possible de faire près de 65% d’économies grâce au confinement, à la virtualisation, à l’optimisation de refroidissement et d’alimentation et d’obtenir un retour sur investissement inférieur à 4 ans. Mais le surdimensionnement n’apparaît pas uniquement lors de la virtualisation. Il est vite devenu une habitude de conception.

26

13. Surdimensionnement

APC de Schneider Electric a recueilli dans son livre blanc n°37 « Comment éviter les coûts liés au surdimensionnement d’infrastructure de centres de données et de salles réseaux » des données auprès de nombreux utilisateurs et a réalisé l’étude suivante :

fig 29 : capacité, charge, gaspillage en fonction du temps

source : Schneider Electric, livre blanc n°37 « Comment éviter les coûts liés au surdimensionnement d’infrastructure de centres de

données et de salles réseaux » En phase de conception. La capacité théorique en alimentation et en refroidissement de la salle correspond au seuil 100%. La capacité à installer est égale à la capacité théorique de la salle. Il est prévu que la salle démarre à 30% de ses capacités informatiques : il s’agit de la charge prévue. Cette charge prévue augmente avec le temps jusqu’à un certain seuil poche de 85%. La limite haute de la charge prévue n’excède pas 85% afin de laisser 15% de marge en capacité de refroidissement dans le cas de conditions climatiques extrêmes (canicule) ou la panne d’une (voire deux) armoire de climatisation. L’énergie gaspillée correspond à la différence entre la courbe de capacité à installer et celle de la charge prévue. La marge de sécurité de 15% n’est pas justifiée car la conception est établie pour les conditions extrêmes et non pour les valeurs réglementaires d’été. De plus, les pannes sont gérées par la redondance du matériel. Afin de maintenir une disponibilité maximale du data center, pour une quantité N de matériel installé, il est choisi d’installer N+1 fois ou 2N fois le matériel nécessaire pour pallier aux éventuelles pannes. Tous les data centers sont au moins en redondance N+1, aucun n’est uniquement en installation N. La charge finale prévue doit être de 100% et non de 85%. Ainsi la charge initiale doit être de 45% et non de 30%.

27

fig 30 : capacité, charge, gaspillage en fonction du temps

source : Schneider Electric, livre blanc n°37 « Comment éviter les coûts liés au surdimensionnement d’infrastructure de centres de

données et de salles réseaux » En phase de commande. La puissance des équipements est contractuelle et figure dans le CCTP. L’entreprise d’exécution n’est pas censée rehausser la puissance prescrite. Si elle décide de surdimensionner, acheter des équipements plus puissants est plus coûteux et génère moins de bénéfices. De plus un système de refroidissement atteint son rendement maximum lorsqu’il fonctionne à plein régime. Il n’y a donc aucun intérêt à surdimensionner les puissances prescrites. En phase d’utilisation. La charge réellement installée est de 10% au lieu des 30% prévus. La charge installée augmente avec le temps jusqu’à environ 30% de la capacité installée. Ces 30% installées correspondent pour l’utilisateur à la pleine utilisation de son centre. Ces mêmes 30% correspondent pour le concepteur à la charge initiale. Le gaspillage réel est largement supérieur au gaspillage théorique. Ci dessous un récapitulatif des consommations et du gaspillage sur 10 ans :

Consommation Gaspillage Capacité installée (référence) : 100% 0% Charge prévue (sans sécurité) : 86,4% 13,6% Charge prévue (avec sécurité) : 70,8% 29,2% Charge réelle : 26,0% 74,0% En terme de puissance finale installée, les installations de refroidissement et d’alimentation sont 3 fois trop puissantes : capacité 100%, charge réelle 30%. Selon le type d’installation, simple ou complexe (régulation, technologie des aéroréfrigérants, groupes froids, récupération d’énergie, etc.), cela représente un surcoût d’environ 2 fois le prix nécessaire. Un groupe froid fonctionnant à 30% de sa charge maximale voit son rendement fortement dégradé. Certaines technologies ne permettent pas de descendre à aussi bas régime : certains groupes à vis ne peuvent pas être régulés en dessous de 50%.

28

Lorsque la charge installée est inférieure à 20% de la capacité installée il y a risque de sous-charge est extrême. Sur le refroidissement cela peut impliquer : - Un arrêt sécurisé en raison de la pression de refoulement trop basse sur les compresseurs. - Des cycles courts des compresseurs en raison des arrêts fréquents et une réduction de la durée de vie des compresseurs. - L’invalidité possible de la garantie en cas de fonctionnement sous limites minimales de charge. Grâce à son enquête auprès des utilisateurs de data centers, APC a établi le graphique suivant :

fig 31 : part de la capacité installée réellement utilisée

source : Schneider Electric, livre blanc n°37 « Comment éviter les coûts liés au surdimensionnement d’infrastructure de centres de

données et de salles réseaux » On voit que près de 20% des utilisateurs sont en dessous de la limite de sous-charge extrême. On remarque aussi que seulement 3% des utilisateurs atteignent ou dépasse le seuil des 85% de charge prévue à la conception. Pourquoi le surdimensionnement est-il devenu une habitude ? Pour l’utilisateur le coût de création d’un data center est élevé. Planifiant son évolution dans les années à venir, l’utilisateur demande un certain surdimensionnement de peur que son nouveau centre soit déjà obsolète quelques années après sa mis en service. Cette anticipation certes logique est bien souvent démesurée. La conception d’un centre capable de s’adapter à un future demande imprévisible est la solution, mais ce n’est pas aussi simple. Il est possible de réaliser un data center selon plusieurs tranches. Pour simplifier l’étude, nous nous limiterons à une première tranche réalisée, et à une deuxième tranche conditionnelle. Le nombre de tranches n’est pas limité à deux. Une première tranche concerne l’ouvrage de l’infrastructure (gros œuvre), l’installation de baies alimentées et refroidies : transformateurs, onduleurs, armoires de climatisation, groupes froids, aéroréfrigérants… Une deuxième tranche permet l’installation de baies supplémentaires : il s’agit d’un développement de l’utilisateur. L’ampleur de cette deuxième tranche est variable.

29

Cette tranche impose les installations suivantes : - Des armoires climatisation : dans le cas où les systèmes d’alimentation et de refroidissement ont été conçus pour supporter les deux tranches. - Un transformateur, un ou plusieurs groupes froids et aéroréfrigérants, des armoires de climatisation, un système de détection et de protection incendie ; dans le cas où les systèmes d’alimentation et de refroidissement n’ont été conçus pour ne supporter que la première tanche. Cette deuxième tranche, si elle est conditionnelle, permet à l’utilisateur de planifier son développement, de l’effectuer uniquement si son activité informatique en exprime le besoin. Le coût des travaux d’une deuxième tranche différée est plus élevé que ceux de deux tranches effectuées à la suite. Avec un tranche future, l’infrastructure est déjà active, les travaux de manutentions, de coupure de courant, de passage de câbles (entre autres) sont plus délicats et donc plus coûteux. Dans le premier cas, la deuxième tranche concerne uniquement l’installation de nouvelles baies et armoires de climatisation supportées par les systèmes d’alimentation et de refroidissement existants. Il n’y a pas d’adaptabilité de l’infrastructure. La puissance des systèmes d’alimentation et de refroidissement est donc beaucoup trop élevée durant la période qui sépare la première et la deuxième tranche. La data center est donc surdimensionné pendant cette période. Il y a des risques d’indisponibilité liés à la sous-charge. Dans le second cas, la deuxième tranche concerne l’installation de nouvelles baies associées à un nouveau système d’alimentation et de refroidissement. L’infrastructure s’adapte selon la nouvelle demande informatique. De plus, le temps séparant les deux tranches permet à l’utilisateur de prendre conscience de la différence notable entre la charge prévue à la conception et la charge réellement installée. Le dimensionnement de la deuxième tranche peut alors être revu à la baisse. Ci dessus un graphique schématisant l’adaptabilité dans le second cas d’étude :

fig 32 : adaptabilité et gaspillage en fonction du temps

source : Schneider Electric, livre blanc n°37 « Comment éviter les coûts liés au surdimensionnement d’infrastructure de centres de données et de salles réseaux »

30

Consommation Gaspillage Charge réelle selon capacité non adaptée 92,8% 7,2% Charge réelle selon capacité adaptée 96,3% 3,7% Il est intéressant pour l’utilisateur d’évaluer la perte engendrée par la réalisation de deux tranches distinctes et de la comparer à la perte engendrée par la surconsommation (dues aux pertes fixes) d’une installation surdimensionnée réalisée en une tranche ou en deux tranches (premier cas). Mais dans la majorité des cas, le surdimensionnement de la production de froid n’est pas justifiable. Le surdimensionnement de la production de froid est inutile, coûteux et parfois dangereux, cependant le surdimensionnement des armoires de climatisation est nécessaire. Le moteur d’une armoire de climatisation ne présente pas un comportant linéaire dans le rapport puissance fournie ~ puissance absorbée. La relation de la puissance absorbée en fonction de la puissance fournie est du type parabolique :

fig 33 : puissance absorbée en fonction de l’utilisation (ou puissance fournie)

source : production personnelle A 30% de la capacité frigorifique de l’armoire, l’énergie électrique consommée est de l’ordre de 15% de l’énergie totale absorbée. Et à 50% de la capacité, l’énergie consommée est de l’ordre de 30%. Pour évaluer la part de la capacité frigorifique utilisée on parle de taux de charge. Le taux de charge se calcule par la relation suivante : Taux de charge = puissance frigorifique demandée / puissance frigorifique disponible Le taux de charge est donc inférieur à 1. Dans le cas d’une production de froid, on cherche à atteindre la valeur théorique maximale de 1. Mais au vue de l’évolution de l’énergie électrique consommée en fonction de la puissance fournie, et donc en fonction du taux de charge, on voit qu’il est judicieux de surdimensionner l’armoire de climatisation afin de

31

consommer moins. Il ne faut pas non plus tomber dans l’extrême et trop surdimensionner l’armoire. Une armoire de climatisation trop puissante présente les risques suivants :

- Une valeur d’achat plus élevée. - Un encombrement plus important. - Le ventilateur ne démarre qu’à partir d’un taux de charge compris entre 12% et 17%. Lors d’une utilisation partielle du data center ou lors de déperditions importantes par les parois (hiver rigoureux, salle informatique donnant sur l’extérieur), le taux de charge d’une armoire surdimensionnée peut être inférieur à son seuil limite d’utilisation. Le non-fonctionnement de l’armoire crée une surchauffe dans la salle, nécessitant ainsi un plus grand besoin en refroidissement, ainsi le taux de charge augmente, l’armoire s’enclenche et refroidit la salle jusqu’à la température de consigne, puis l’armoire s’arrête, etc. : il y a un risque de courts-cycles. Les aéroréfrigérants à moteur EC se comportent de la même façon : la relation entre l’utilisation et la puissance électrique consommée est parabolique. Cependant le surdimensionnement des aéroréfrigérants induit un surcoût à l’achat et une place nécessaire en toiture non négligeable et donc infructueux en terme d’économie pour le client. La consommation des armoires de climatisation et des aéroréfrigérants est 4 à 8 fois plus faible que celle de la production de froid : le système de refroidissement représente la part la plus importante dans la consommation totale du data center. Son surdimensionnement accentue sa consommation en abaissant son rendement. Il existe plusieurs moyens de diminuer la consommation en refroidissement : la technologie du groupe froid, la possibilité de régulation plus large en scroll plutôt qu’en vis, la température du régime d’eau plus élevée, la récupération d’énergie, les apports de froid gratuits, etc. Nous allons nous intéresser à l’économie la plus grande qui est celle des apports de froid gratuits. Pour profiter d’un froid gratuit et disponible tout au long de l’année il existe plusieurs méthodes. Il est possible de récupérer de l’énergie frigorifique gratuite sur l’eau ou sur l’air.

14. Apports frigorifiques gratuits

1. Sur l’eau

Les puits sont parfois utilisés pour le système de refroidissement des data centers : les puits canadiens, sur nappe, sur rivière, sur eau profonde de lac ou de mer permettent d’assurer un refroidissement constant tout au long de l’année. L’eau à refroidir circule soit directement dans le puit, soit dans un échangeur de chaleur connecté à l’eau du puit. Avec les puits sur eau profonde, la température de l’eau à refroidir peut diminuer jusqu’à 6°C. Mais la réalisation des puits est limitée. La surface dédiée à un puit canadien pour un data center est considérable et les puits sur nappe, rivière, lac ou mer ne sont pas réalisables partout. Le coût d’investissement est élevé mais l’économie réalisée est très importante. Le retour sur investissement est rapide. Selon la configuration du site et la difficulté des travaux, le retour sur investissement peut être de quelques années seulement (3 à 4 ans). L’avantage des puits sur l’eau est leur prise en compte dans le dimensionnement de la puissance frigorifique à installer dans le data center. La puissance frigorifique à fournir est établie selon le cas le plus défavorable l’été. Or aux conditions extrêmes d’été, les puits

32

restent une source froide sûre. Ainsi, cet apport de froid gratuit au moment le plus défavorable permet de diminuer la puissance des équipements frigorifiques. Il existe une autre méthode d’apport de froid gratuit, moins constante mais plus facile à mettre en place : le free cooling, qui permet un refroidissement sur l’air ou sur l’eau. Le free cooling sur l’eau est possible dans une configuration de production de froid avec des aéroréfrigérants.

fig 34 : schéma de free cooling sur l’eau

source : production personnelle Classiquement, le groupe froid délivre par l’évaporateur de l’eau glacée et par le condenseur de l’eau chaude. L’eau chaude circule dans des tuyaux jusqu’en toiture, puis dans le serpentin de l’aéroréfrigérant. Les ventilateurs de l’aéroréfrigérant soufflent l’air extérieur sur le serpentin. Ce système est un véritable échangeur de chaleur statique air brassé / eau. Par échange thermique l’eau se refroidit d’un delta de température identique à celui de l’eau glacée. Cette égalité de delta de température est une habitude de conception, le delta de température du condenseur peut être plus important que celui de l’évaporateur. Par exemple, l’eau chaude se refroidit de 52°C à 47°C et le groupe froid fournit de l’eau à 8°C pour un retour à 13°C. L’eau froide à 8°C circule dans le serpentin de l’armoire de climatisation. Les ventilateurs de l’armoire permettent un brassage de l’air ambiant sur le serpentin froid : il y a échange thermique (air brassé / eau). L’air se refroidit et l’eau se réchauffe jusque 13°C. A cette température l’eau circule jusqu’au groupe froid où elle est à nouveau refroidit à 8°C, etc. Le free cooling sur aéroréfrigérant consiste en l’installation d’un circuit d’eau direct entre l’aéroréfrigérant et l’armoire de climatisation quoi by-passe le groupe froid. Dans le cas d’une température extérieure inférieure à 3°C, il est possible de faire circuler l’eau glacée à 13°C dans un échangeur à plaque. Cet échangeur de chaleur est alimenté d’un côté par l’eau glacée à 13°C et de l’autre par le circuit by-pass de l’aéroréfrigérant. Le but est de refroidir l’eau glacée de 13°C à 8°C, il faut donc de l’eau dans le circuit by-pass à moins de 8°C en sortie d’échangeur. La température à l’entrée de l’échangeur du circuit by-pass doit être de 8°C moins le delta de température de l’eau glacée : l’eau en entrée d’échangeur doit être à moins de 3°C. Cette eau de by-pass circule dans le serpentin de l’aéroréfrigérant où elle se refroidit de 8°C à 3°C par brassage avec l’air extérieur. Ainsi l’air extérieur doit être inférieur à 3°C. L’installation d’un échangeur entre les circuits d’eau glacée et de by-pass est fortement recommandée : on parle de free cooling indirect. Le free cooling direct ne nécessite pas d’échangeur. Le problème majeure du fonctionnement direct réside dans le fait que l’eau glacée circule en partie à l’extérieur (au passage dans les aéroréfrigérants) et de ce fait l’injection de glycol est obligatoire pour la

33

sûreté du système. Une eau glycolée nécessite des pompes et des armoires de climatisation spécifiques. De plus, l’échange thermique au niveau de l’échangeur de l’armoire de climatisation est dégradé : l’eau glycolée un fluide ayant une capacité calorifique inférieure à celle de l’eau « normale ».

fig 35 : principe du free cooling indirect par eau source : www.eco-info.org/spip.php?article140

fig 36 : principe du free cooling direct par eau

source : www.eco-info.org/spip.php?article140 Le free cooling par eau, direct ou indirect, a des limites : - La période d’une température extérieure à 3°C est faible, voire quasi nulle selon les régions. - L’installation coûteuse d’un réseau by-pass : tuyauterie calorifugée, pompe, échangeur statique.

34

- La valeur de 3°C extérieur est théorique, elle est évaluée rapidement sans prise en compte des rendements des deux échanges (serpentin aéroréfrigérant & échangeur à plaques), sans prise en compte de réchauffement par circulation à l’intérieur du bâtiment. En réalité il faut une température encore plus basse, proche de 0°C. - A 3°C théorique, il y a un risque de condensation dans l’échangeur à plaques et ainsi une dégradation du rendement de l’échange est dégradé. Le free cooling sur l’eau permet de ne pas utiliser les groupes froids et les pompes associées. Mais les aéroréfrigérants et les pompes réseaux fonctionnent toujours. La pompe du circuit by-pass fonctionne aussi lors du free cooling sur l’eau.

2. Sur l’air

Il est possible de refroidir un data center non pas en allant refroidir de l’eau et injecter cette dernière dans les groupes froids ou directement dans les armoires de climatisation, mais en allant chercher de l’air frais et de le souffler directement dans la salle informatique sans passer par le système de refroidissement. Il existe plusieurs moyens d’apporter de l’air frais dans le data center : - Les souterrains : ils sont très rares mais ils représentent un réservoir d’air à température constante toute l’année ; ils sont à prendre en compte dans le dimensionnement de la puissance frigorifique à installer, de la même façon que les puits. Au vue de la rareté des souterrains, nous ne développerons pas leur utilisation. - L’air extérieur : lorsque sa température est inférieure à celle de la consigne d’air soufflé. Sauf quelques exceptions, le free cooling sur l’air extérieur est le mode de refroidissement gratuit le plus disponible sur Terre. Les exceptions sont les pays très chauds où l’air extérieur est supérieur à la consigne de soufflage toute l’année. Le free cooling sur air extérieur est justifié quelque soit l’implantation géographique du site : - Dans un climat chaud, le free cooling permet l’arrêt du système de refroidissement l’hiver et pendant les nuits d’été. - Dans un climat plus frais, la période disponible de free cooling est étendue. Habituellement dans un data center, la température de l’air soufflé par les armoires de climatisation est de l’ordre de 15°C. Le free cooling s’effectue jusqu’à 14°C extérieur ; il est compté 1°C de réchauffement par le ventilateur de la centrale de traitement d’air.

35

fig 37 : moyenne des températures diurnes en mars (2001-2010)

source : neo.sci.gsfc.nasa.gov/Search.html?datasetId=MOD11C1_M_LSTDA Free cooling diurne en mars : l’Europe, les Etats-Unis, le Canada, la Russie et le Japon sont des régions où le free cooling sur l’air est possible une majeure partie de la journée (moyenne journalière inférieure à 14°C).

fig 38 : moyenne des températures nocturnes en mai (2001-2010)

source : neo.sci.gsfc.nasa.gov/Search.html?datasetId=MOD11C1_M_LSTDA Free cooling nocturne en mai : l’Australie, l’Afrique du Sud, le Chili et les pays Caucasiens s’ajoutent à la liste pour un free cooling nocturne.

36

fig 39 : moyenne des températures diurnes en mai (2001-2010)

source : neo.sci.gsfc.nasa.gov/Search.html?datasetId=MOD11C1_M_LSTDA Free cooling diurne en mai : possible uniquement dans le nord du Canada, de l’Europe et de la Russie, le sud de l’Argentine et du Chili. Par exemple à Bordeaux, durant 57,2% de l’année la température extérieure est inférieure ou égale à 14°C. En heures cumulées cela représente 209 jours par an, dont 142 jours (= 4,75 mois) entre novembre et mars (= 5 mois). Pour déterminer le débit d’air soufflé par free cooling dans la salle informatique il faut se référer aux armoires de climatisation. La puissance frigorifique des armoires de climatisation est surdimensionnée afin de consommer moins. Lorsque les besoins en froid sont faibles, le taux de charge diminue et ainsi la puissance frigorifique de l’armoire diminue. Mais le débit soufflé reste stable afin de maintenir une pression statique disponible maximale. En effet, si le débit soufflé diminue, la pression statique disponible diminue et le flux d’air circule mal, voire pas du tout s’il y a de nombreux obstacles (cas du faux plancher). Donc le débit d’air soufflé par les armoires de climatisation n’est pas surdimensionné, seule la puissance frigorifique l’est. Le débit d’air soufflé par free cooling est égal au débit total disponible dans la salle informatique. Le débit soufflé par free cooling est donc très important. Dans un data center, le volume d’amenée d’air neuf est faible : les besoins en renouvellement d’air son faibles car il n’y a aucun dégagement d’humidité ou de composés organiques volatiles par le matériel informatique. Le réseau de la centrale de traitement d’air neuf est trop petit pour le free cooling, il faut installer de nouvelles centrales dédiées. Ces centrales sont constituées de : - Un caisson de mélange afin d’obtenir par mélange entre air repris et air neuf un air soufflé à 15°C. - Un séparateur de gouttelettes dans le cas d’un air extérieur très humide. - Un humidificateur dans le cas d’un air extérieur très sec. - Un ventilateur avec variateur de vitesse. - Des filtres G4 (les filtres F7 sont intégrés aux armoires de climatisation).

37

Il faut aussi : - Un réseau de soufflage et de reprise, avec registres de soufflage, diffuseurs et grilles, clapets coupe-feu. - Des sondes de température dans la salle informatique pour le retour de l’information sur la centrale. - Un échangeur de chaleur dans le cas où l’air extérieur est impropre : trop humide ou trop pollué (chargé en particules), dans ce cas on parle de free cooling indirect.

fig 40 : principe du free cooling direct par air

source : www.eco-info.org/spip.php?article140

fig 41 : principe du free cooling indirect par air source : www.eco-info.org/spip.php?article140

38

Le free cooling sur l’air permet de ne pas utiliser le système complet de refroidissement : groupes froids, aéroréfrigérants, pompes évaporateur, pompes condenseur, pompes réseaux. Seules les centrales dédiées au free cooling fonctionnent. Leur consommation est très faible par rapport à la consommation du système de refroidissement complet. Les coûts d’investissement sont très importants. Selon la zone géographique, le retour sur investissement est très rapide (seulement 1 à 2 ans).

39

Partie 2 : Méthode de calcul détaillée La méthode de calcul présentée ne prend en compte que le pôle A.

1. Armoires de climatisation

- Ingerop m’indique le nombre et les puissances frigorifiques théoriques des armoires de climatisation des différentes salles pour chaque tranche du projet. Ci après le tableau récapitulatif pour le pôle A :

salle : Telecom 1 & 2 Bandothèque Onduleurs Info

puissance frigo théorique (kW) : 6 24 45 76

quantité installée:

tranche ferme 4 2 4 6

tranche A2 0 0 0 6

tranche future 0 0 4 24

quantité utilisée:

tranche ferme 4 2 4 6

tranche A2 4 2 4 12

tranche future 4 2 8 24

- Par la consultation des fournisseurs, j’obtiens des puissances frigorifiques réelles souvent différentes des théoriques. J‘obtiens aussi pour chaque armoire la puissance électrique absorbée au débit nominal. - Ingerop me fournit un calcul de besoins frigorifiques par salle et par tranche :

Telecom 1 & 2 Bandothèque Onduleurs Info

besoins frigorifiques

(kW) :

tranche ferme 11,671 23,690 26,776 229,948

tranche A2 11,564 23,690 44,136 456,100

tranche future 11,564 23,690 78,856 904,100

- Les étapes de calcul suivantes sont réalisée par tranche et par salle. Je calcule le coefficient d’utilisation des armoires de climatisation pour chaque salle : Coefficient d’utilisation de la salle considérée (décimal) = Besoin frigorifique de la salle (kW) / (Puissance frigorifique fournie par 1 armoire de la salle (kW) x Nombre d’armoires dans la salle) J’obtiens un coefficient d’utilisation toujours inférieur à 0,50, permettant ainsi d’assurer une redondance des équipements en cas de panne. - Les moteurs de ventilateurs des armoires de climatisation sont à commutation électronique (type EC). J’ai réalisé sur excel la courbe représentative de la part de la puissance électrique absorbée en fonction du coefficient d’utilisation. Cette courbe est établie de manière empirique à l’aide de documents techniques de fournisseurs sur les moteurs EC. Une courbe de tendance sur cette courbe empirique permet d’obtenir une expression mathématique du 2nd ordre : Part de la puissance absorbée (Ø) = a x (Coefficient d’utilisation (Ø))² + b x (Coefficient d’utilisation) + c Avec : a = 0,8478 b = 0,1332 c = 0,0182

40

- La courbe d’utilisation me permet de calculer la puissance réellement absorbée au taux d’utilisation calculé précédemment : Puissance réellement absorbée par 1 armoire de la salle considérée (kW) = (a x (Coefficient d’utilisation (Ø))² + b x (Coefficient d’utilisation) + c) x Puissance absorbée au débit nominal (kW) - Je calcule ensuite la puissance électrique absorbée par l’ensemble des armoires de la salle considérée : Puissance totale absorbée dans la salle considérée (kW) = Puissance réellement absorbée par 1 armoire de la salle (kW) x Nombre d’armoires dans la salle - Je viens de calculer la puissance électrique totale absorbée de chaque salle. Pour calculer une consommation il me faut un temps de fonctionnement des armoires de climatisation par salle. Les armoires de climatisation fonctionnent en continue : 7j / 7 et 24h/24 : Temps de fonctionnement mensuel (h) = Nb jours dans le mois x 24h Par exemple, le temps de fonctionnement en janvier vaut = 31j x 24h = 744 heures. - La consommation totale mensuelle d’une salle vaut : Consommation mensuelle de la salle considérée (kWh) = Puissance totale absorbée dans la salle considérée (kW) x Nombre d’heures de fonctionnement mensuel (h) - La somme des consommations mensuelles est égale à la consommation annuelle : Consommation annuelle de la salle considérée (kWh) = Σ (Consommations mensuelles de la salle considérée (kWh)) - La somme des consommations annuelles de chaque salle est égale à la consommation annuelle totale des armoires de climatisation : Consommation annuelle des armoires de climatisation (kWh) = Σ (Consommations annuelles de chaque salle (kWh))

2. Groupes froids et aéroréfrigérants

1. calcul des performances des groupes froids

- Je souhaite effectuer un calcul de consommation précis. Cegelec me fournit un fichier météo de Bordeaux. Ce fichier météo est une moyenne sur 10 ans (de 2001 à 2010) du nombre d’heures à une température extérieure donnée (de Ŕ10 à 40°C). Le tableau est décomposé en 12 mois :

Temp ext Janvier (h) Février (h) … Novembre (h) Décembre (h)

-10 Nb d’heures

-9 …

… …

39 …

40 Nb d’heures

41

- Je cherche à calculer la puissance frigorifique fournie et la puissance électrique absorbée pour différents taux de charges (100%, 75%, 50% et 25%) et selon une température extérieure variant de Ŕ10°C à 40°C :

Puissance frigorifique fournie (kW) Puissance électrique absorbée (kW)

Temp extérieure

100% 75% 50% 25% 100% 75% 50% 25%

-10

?

-9

39

40

- J’ai évalué la température de l’eau glacée en sortie de condenseur (en sortie de l’aéroréfrigérant) selon la température extérieure. J’ai pris comme référence une température de sortie de 47°C pour une température extérieure de 41°C. La température en sortie de condenseur diminue de la même manière que la température extérieure jusqu’à atteindre 15°C à 21°C extérieur. Pour maintenir les performances frigorifique des groupes froids, de 15°C à Ŕ10°C extérieur, l’eau en sortie de condenseur n’est pas refroidie en dessous de 24°C.

Temp extérieure Temp sortie condenseur

-10 21

… …

13 21

14 21

15 21

16 22

17 23

… …

40 46

41 47

A noter que le fichier météo n’indique pas les températures supérieures à 40°C. La ligne de calcul sur 41°C est inutile. - Je cherche maintenant à obtenir les puissances frigorifiques fournies et électriques absorbées pour 4 taux de charge et pour une température extérieure variant de Ŕ10 à 40°C, soit au total : 51 températures x 4 taux de charge x 2 puissances = 408 valeurs Il m’est impossible de demander autant de valeurs à un constructeur. - Je décide donc de contacter quelques constructeurs et je leur demande 48 valeurs parmi les 408 nécessaires. Les 48 valeurs demandées correspondent aux puissances frigorifique fournie et électrique absorbée pour les 4 taux de charge et pour une température extérieure de 15, 20, 25, 30, 35 et 40°C, respectivement équivalent à une température de condenseur à 21, 26, 31, 36, 41 et 46°C : 6 températures x 4 taux de charge x 2 puissances = 48 valeurs.

42

- Pour un constructeur, fournir ces 48 valeurs nécessite un long calcul. Après consultation de Trane, Ciat, MTA et Swegon, je choisis de demander les 48 valeurs aux deux fournisseurs dont le groupe présente le meilleur EER : il s’agit de Trane et de Ciat. Pour les cas de MTA, et de SWEGON, je préfère extrapoler ces valeurs à partir des performances théoriques d’un groupe froid Carrier fournies par le bureau d’études Ingerop. Pour extrapoler les 48 valeurs, je demande uniquement à MTA et à SWEGON les puissances frigorifiques fournies et électriques absorbées de leur groupe en pleine charge à 41°C extérieur. - Ces valeurs sont très utiles. Elles montrent que le groupe froid est de plus en pus performant lorsque la température extérieure diminue. A 41°C, pour fournir 400 kW le groupe Trane fonctionne à pleine charge (100%) et absorbe 129,7 kW : l’EER est de 3,08. A 30°C, pour fournir 400 kW, il fonctionne à 88% et absorbe 84,7 kW : EER = 4,72 A 15°C, pour fournir 400 kW il fonctionne à 75% et absorbe 59,8 kW :EER = 6,69 - J’ai donc en valeurs fournies ou extrapolées le tableau suivant :

T ext 15 … 40

T cond 21 … 46

Charge (%) 25 50 75 100 … 25 50 75 100

P frigo (kW) 48 valeurs fournies ou extrapolées

P élec (kW)

- A partir de ces 48 valeurs, je trace sur excel deux courbes de puissances (frigorifique et électrique) en fonction de la température de condenseur et selon un taux de charge fixé. J’obtiens au total : 1 courbe (puissance absorbée) fonction (temp condenseur) x 4 taux de charge = 4 courbes - De ces 4 courbes, j’extrais avec excel des courbes de tendance afin d’obtenir une équation mathématique pour chaque courbe, soit 4 expressions mathématiques au total. Selon la correspondance de la courbe de tendance par rapport à la courbe empirique, j’obtiens des expressions mathématiques du 2nd ou du 3ème ordre : Puissance frigorifique (kW) = a x (Temp condenseur)2 + b x (Temp condenseur) + c Puissance frigorifique (kW) = a x (Temp condenseur)3 + b x (Temp condenseur)² + c x (temp condenseur) + d - A partir des expressions mathématiques, je complète le tableau suivant :

Puissance frigorifique fournie (kW)

Puissance électrique absorbée (kW)

Temp extérieure

Temp sortie condenseur

100% 75% 50% 25% 100% 75% 50% 25%

-10 21 408 valeurs calculées à partir des 48 valeurs

fournies ou extrapolées et des courbes de tendance associées

… …

39 45

40 46

- A partir de ce tableau, je créé une courbe par température extérieure : la puissance électrique absorbée en fonction de la puissance frigorifique fournie. Par température, j’ai 4 valeurs puissance absorbée et 4 valeurs de puissance frigorifique.

43

Sur chaque courbe j’extrais une courbe de tendance avec son expression mathématique du 3ème ordre. J’obtiens au final, 51 expressions de ce type : Pour une température extérieure donnée, Puissance électrique absorbée (kW)= a x (Puissance frigorifique fournie (kW))3 + b x (Puissance frigorifique fournie)2 + c x (Puissance frigorifique fournie) + d

2. calcul de la puissance totale absorbée à une température donnée

- Je réalise ensuite un autre tableau à 51 lignes correspondant à la variation de la température extérieure de Ŕ10 à 40°C. - A chaque température extérieure, j’associe une certaine déperdition ou apport extérieur. Ingerop m’indique de faire varier linéairement les apports extérieurs. Les 2 points de référence sont les suivants : 0 kW d’apport à 20°C, 40 kW à 40°C. Il y a donc 2 kW échangés avec l’extérieur par degré : par exemple le bâtiment déperd 60 kW à Ŕ10°C. La puissance échangée avec l’extérieur est une puissance chaude à combattre au dessus de 20°C, c’est un apport de chaleur pour le datacenter ; et elle est un gain en puissance frigorifique en dessous de 20°c, c’est une perte de chaleur pour le datacenter.

Température extérieure

Puissance échangée avec l’extérieur (kW)

-10 -60

-9 -58

… …

19 -2

20 0

21 2

… …

39 38

40 40

- L’air extérieur nécessite une déshumidification, donc un refroidissement. Je considère que la batterie à eau glacée de la centrale de traitement d’air fonctionne à partir de 12°C extérieur. Ingerop me fournit la valeur du débit de soufflage de la CTA : 2 800 m3/h. Je calcule la puissance frigorifique à fournir à la batterie froide de la CTA. En dessous de 12°C, la puissance est nulle. A partir de 12°C, la puissance vaut : Puissance frigorifique à fournir à la CTA (kW) = débit de soufflage (m3/h) x 0,34 (J/(m3.K)) x (température de calcul Ŕ 12°C) x / 1000.

44

J’obtiens le tableau suivant :

Température extérieure

Puissance échangée avec l’extérieur (kW)

Puissance frigorifique à fournir à la batterie froide de la CTA (kW)

-10 -60 0

… … …

11 -18 0

12 -16 2800 x 0,34 x (12-12) x / 1000 = 0

13 -14 2800 x 0,34 x (12-13) x / 1000

… … …

40 40 2800 x 0,34 x (12-40) x / 1000

- Ingerop me donne la valeur de la puissance frigorifique totale à fournir à l’ensemble du datacenter à 40°C extérieur : 366,427 kW. Cette puissance produite varie selon la température extérieure. La puissance à produire intègre la puissance échangée avec l’extérieur et la puissance frigorifique à fournir à la CTA : Puissance frigorifique à produire = Puissance échangée avec l’extérieur + Puissance frigorifique à fournir à la CTA + Puissance frigorifique fixe (inconnue) A 40°C, 3 des 4 termes de l’équation sont connus, il est donc possible de calculer le 4ème terme : la puissance frigorifique fixe. A 40°C : Puissance frigorifique fixe (inconnue) = Puissance frigorifique à produire - Puissance échangée avec l’extérieur - Puissance frigorifique à fournir à la CTA = 366,427 Ŕ 40 Ŕ (2800 x 0,34 x (12-40) x / 1000) = 281,112 kW D’où le tableau suivant :

Temp ext

Puiss échangée avec l’ext (kW)

Puiss frigo à fournir à la CTA (kW)

Puiss frigo à produire (kW)

-10 -60 0 281,112 + (-60) + 0

… … … …

11 -18 0 281,112 + (-18) + 0

12 -16 2800 x 0,34 x (12-12) x 1,7 / 1000

= 0 281,112 + (-16) + 0

13 -14 2800 x 0,34 x (12-13) x 1,7 / 1000 281,112 + (-14) +

2800 x 0,34 x (12-13) x / 1000

… … … …

40 40 2800 x 0,34 x (12-40) x 1,7 / 1000 281,112 + 40 +

2800 x 0,34 x (12-40) x / 1000 = 366,427

- Je calcule ensuite le taux de charge des groupes froids : Taux de charge (Ø) = Puissance frigorifique à produire (kW) / (Puissance frigorifique produit à 100% de charge (kW) x Nombre de groupes froids utilisés) La puissance frigorifique produit à 100% de charge est relevé dans le tableau de la 1ère étape.

45

Le nombre de groupes froids varie selon la tranche du marché.

Tranche ferme Tranche A2 Tranche future

quantité installée : 2 3 4

quantité utilisée : 1 2 3

- Tous les groupes froids ne sont pas utilisés. Ainsi, la puissance totale installée par tranche permet d’assurer en cas de panne la couverture des besoins frigorifiques : c’est la redondance. Pour une certaine puissance installée N, il est choisi d’installer 2N fois ou N+1 fois la puissance requise.

Tranche ferme Tranche A2 Tranche future

quantité installée : 2 3 4

quantité utilisée : 1 2 3

redondance 2N N+1 N+1

Lors d’une redondance d’armoires de climatisation, toutes les armoires sont utilisées à un taux de charge très faible, permettant ainsi des économies d’énergie. Contrairement aux armoires de climatisation, les groupes froids fonctionnent au meilleur de leur rendement à pleine charge. Les groupes sont régulés en cascade, ce qui permet de faire fonctionner le moins de groupes possible. Le ou les premiers groupes froids de la cascade fonctionnent à plein régime. - Je souhaite calculer la puissance électrique absorbée par les groupes froids. Pour cela, j’utilise les 51 expressions de la puissance électrique absorbée en fonction de la puissance frigorifique fournie. Pour rappel, ces 51 expressions ont été extraites à partir des courbes de tendance du tableau de 408 valeurs de l’étape 1 : Pour une température extérieure donnée, Puissance électrique absorbée par 1 groupe froid (kW)= a x (Puissance frigorifique à produire (kW)) / (Nb de groupes froids utilisés)3 + b x (Puissance frigorifique à produire / Nb de groupes froids utilisés)2 + c x (Puissance frigorifique à produire / Nb de groupes froids utilisés) + d - Ensuite, je souhaite calculer la puissance électrique absorbée par les aéroréfrigérants du même fournisseur que les groupes froids. Les moteurs des ventilateurs des aéroréfrigérants sont à commutation électronique, c’est-à-dire de type EC. Je peux donc utiliser la courbe d’utilisation qui a servi aux calculs de consommation des armoires de climatisation. La puissance électrique absorbée par un aéroréfrigérant vaut : Puissance électrique absorbée par 1 aéroréfrigérant (kW) = (a x (Taux de charge d’un groupe froid (décimal))² + b x (Taux de charge d’un groupe froid (décimal)) + c) x Puissance absorbée par un ventilateur à débit 100% (kW) x Nombre de ventilateurs - La puissance électrique totale absorbée à une température extérieure donnée vaut : Puissance électrique totale absorbée (kW) = Puissance électrique absorbée par un groupe froid (kW) x Nombre de groupes froids utilisés + Puissance électrique absorbée par un aéroréfrigérant (kW) x Nombre d’aéroréfrigérants

46

Il y a un aéroréfrigérant par groupe froid installé, d’où : Puissance électrique totale absorbée (kW) = (Puissance électrique absorbée par 1 groupe froid (kW) + Puissance électrique absorbée par 1 aéroréfrigérant (kW)) x Nombre de groupes froids utilisés J’obtiens le tableau suivant :

Temp ext

Puiss élec absorbée par 1 groupe froid (kW)

Puiss élec absorbée par 1 aéroréfrigérant (kW)

Puiss élec TOTALE absorbée (kW)

-10

fonction croissance à partir de la courbe

d’utilisation somme des deux termes précédents

x quantité par tranche …

40

3. calcul de la consommation totale

- Mon but est de calculer la consommation des groupes froids et des aéroréfrigérants. A partir du tableau réalisé à la fin de l’étape 2 et à partir du fichier météo de Bordeaux, je crée un tableau de consommation selon un calcul matriciel. Le tableau ainsi obtenu à donc autant de valeurs que le fichier météo. Il s’agit d’un tableau de consommation pour chaque température extérieure de Ŕ10 à 40°C, mois par mois. Il suffit pour cela de multiplier la puissance électrique totale absorbée avec le nombre d’heures à une température extérieure donnée, pour un mois fixé.

Temp

ext Janvier

(h) …

Décembre (h)

-10 Nb d’h à Ŕ10°C

en janvier

… …

40 Nb d’h à 40°C en décembre

Temp ext

Puiss élec TOTALE absorbée (kW)

Temp

ext Janvier (kWh)

… Décembre

(kWh)

-10 Puiss totale à Ŕ10°C -10

Nb d’h à Ŕ10°C en janvier

x Puiss totale à Ŕ10°C

… … … ...

40 Puiss totale à 40°C 40 Nb d’h à 40°C en

décembre x Puiss totale à 40°C

47

- La somme de toutes les valeurs du dernier tableau (en bas à droite) correspond à la consommation annuelle (kWh) des groupes froids et des aéroréfrigérants :

Temp ext

Janvier (kWh)

… Décembre

(kWh)

-10 Consommation à Ŕ10°C en janvier

… ...

40 Consommation à

40°C en décembre

Somme =

Consommation en janvier (kWh)

… Somme =

Consommation en décembre (kWh)

Somme mensuelle =

Consommation annuelle (kWh)

3. Pompes

- Cegelec a choisi de sous-traiter la réalisation des plans d’exécution au bureau d’études roumain Clima Project. Après des études plus approfondies que la phase PRO, Clima Project me fournit les débits et les hauteurs manométriques des différentes pompes. Ci après le tableau récapitulatif pour le pôle A :

pompe : Condenseur Evaporateur Réseau 1 Réseau 2

débit fourni par Clima Project (m3/h) :

95 69 69 69

type : constante constante variable variable

quantité installée :

tranche ferme 2 2 2 2

tranche A2 1 1 0 0

tranche future 1 1 1 1

quantité utilisée :

tranche ferme 1 1 1 1

tranche A2 2 2 1 1

tranche future 3 3 2 2

- Par la consultation des fournisseurs, j’obtiens la puissance électrique absorbée de chaque pompe au débit nominal.

1. cas des pompes à débit constant

- Les groupes froids et les aéroréfrigérants fonctionnent en continu toute l’année. Les pompes associées (condenseur et évaporateur) fonctionnent aussi en continu : 7j/7, 24h/24. - La consommation mensuelle des pompes à débit constant vaut : Consommation mensuelle des pompes à débit constant (kWh) = Puissance électrique absorbée au débit nominal (kW) x Nombre de pompes utilisées x Temps de fonctionnement mensuel (h)

48

- La consommation annuelle des pompes à débit constant vaut : Consommation annuelle des pompes à débit constant (kWh) = Σ (Consommations mensuelles des pompes à débit constant (kWh))

2. cas des pompes à débit variable

- Par les consultations fournisseur, je connais la puissance électrique absorbée au point de fonctionnement des deux types de pompe à débit variable. Le point de fonctionnement correspond au débit maximal atteint lors de la demande maximale en froid, c’est-à-dire à 40°C extérieur. - Je considère que le débit varie de manière proportionnelle avec la puissance frigorifique fournie par les groupes froids. Pour exprimer la relation de proportionnalité, je crée un tableau en fonction de la température extérieure : de Ŕ10°C à 40°C. 2.1. Hypothèses de proportionnalité sur la tranche future - Les besoins frigorifiques maximaux sont atteints à 40°C extérieur : 1 093 kW froid à produire par les groupes froids, à transporter hydrauliquement par les pompes réseaux, et à fournir aux armoires de climatisation - La redondance est en N+1 ; cela signifie que sur les 3 pompes installées sur chaque réseau, 2 pompes fonctionnent et la 3ème restante est un secours. La pompe en secours est à l’arrêt lorsque les 2 autres pompes fonctionnent. 2 pompes réseau-1 et 2 pompes réseau-2 fonctionnent pour fournir le débit nécessaire. - A 40°C extérieur, les besoins frigorifiques sont de 1 093 kW. Ces besoins sont couverts hydrauliquement par 4 pompes réseau. Chaque pompe couvre les besoins frigorifiques suivant la relation suivante : Besoins frigorifiques couverts par 1 pompe réseau (kW) = Besoins frigorifiques maximaux (kW) / Nombre de pompes réseau utilisées Besoins frigorifiques couverts par 1 pompe réseau (kW) = 1 093 / 4 = 273,25 kW 1 pompe réseau fonctionnant à 100% de son débit permet le « transport » de 273,25 kW froid. 2.2 Pour la tranche étudiée - J’ajoute une nouvelle colonne : la puissance frigorifique à fournir pour la tranche étudiée. Cette puissance est reprise du calcul de consommation des groupes froids. - Pour chaque tranche étudiée, je prends en compte le nombre total de pompes réseau utilisées. Les besoins frigorifiques sont couverts hydrauliquement par l’ensemble des pompes réseau utilisées. Chaque pompe couvre donc les besoins frigorifiques suivant la relation suivante : Sur la tranche étudiée, à une température extérieure T, Besoins frigorifiques couverts par 1 pompe réseau à T (kW) = Besoins frigorifiques à T (kW) / Nombre de pompes réseau utilisées - L’hypothèse principale est de considérer qu’une pompe réseau à 100% de son débit permet le « transport » de 273,25 kW froid.

49

La puissance frigorifique à fournir diminue avec la température extérieure : la puissance à « transporter » varie : Sur la Tranche étudiée, à une température extérieure T, Coefficient d’utilisation d’1 pompe réseau (%) = Coefficient d’utilisation maximal d’1 pompe réseau (%) x Besoins frigorifiques couverts par 1 pompe réseau à T (kW) / Besoins frigorifiques couverts par 1 pompe réseau à son utilisation maximale (kW) Coefficient d’utilisation d’1 pompe réseau (%) = 100 (%) x Besoins frigorifiques couverts par 1 pompe réseau à T (kW) / 273,25 (kW) Il faut noter que pour les pompes à débit variable, le coefficient d’utilisation ne peut être inférieur à 25%. Si cela est le cas, la pompe en sous charge ne fonctionne pas. J’obtiens le tableau suivant :

Tranche étudiée : Nb de pompes réseau utilisées

Temp ext

Puiss frigo à fournir (kW)

Puiss frigo à fournir par 1 pompe réseau (kW)

Coeff d’utilisation d’1 pompe réseau (%)

-10 cf. « consommation des groupes froids »

= Puiss frigo à fournir / Nb de pompes utilisées

= 100 x Puiss frigo à frounir à T / 273,25

40

Tous les coefficients d’utilisation sont supérieurs à 25%. - Je pose une hypothèse de calcul : la puissance électrique absorbée est affine. En réalité la courbe est semblable à une courbe puissance dont l’ordonnée à l’origine est supérieure à zéro. Mais l’approximation d’une variation affine reste très précise. A partir des données fournisseurs, j’exprime la puissance électrique absorbée en fonction du coefficient d’utilisation de la pompe : Puissance électrique absorbée par 1 pompe réseau (kW) = a x Coefficient d’utilisation (%) + b J’obtiens le tableau suivant :

Temp ext

Coeff d’utilisation d’1 pompe réseau (%) = U

Puissance électrique absorbée par 1 pompe réseau 1 (kW)

Puissance électrique absorbée par 1 pompe réseau 2 (kW)

-10 = 100 x Puiss frigo à fournir à T / 273,25

= a1 x Coefficient d’utilisation + b1 = a2 x Coefficient d’utilisation + b2 …

40

- La puissance électrique absorbée varie selon la charge d’utilisation : Puissance électrique absorbée par les pompes réseau (kW) = Puissance électrique absorbée par 1 pompe réseau 1 (kW) x Nombre de pompes réseau 1 utilisées + Puissance électrique absorbée par 1 pompe réseau 2 (kW) x Nombre de pompes réseau 2 utilisées D’où le tableau suivant :

Temp ext

Coeff d’utilisation d’1 pompe réseau (%) = U

Puissance électrique absorbée par les pompes réseau 1 et 2 (kW)

-10 = 100 x Puiss frigo à fournir à T / 273,25

= Puiss élec absorb par 1 pompe réseau 1 x Nb de pompes réseau 1 utilisées + Puiss élec absorb par 1 pompe réseau 2 x Nb de pompes réseau 2 utilisées

40

50

- De la même manière que le calcul de consommation des groupes froids, je réalise un calcul matriciel à partir du fichier météo :

Temp

ext Janvier

(h) …

Décembre (h)

-10 Nb d’h à Ŕ10°C

en janvier

… ...

40 Nb d’h à 40°C en décembre

Temp ext

Puiss élec absorbée par les pompes réseau 1 et 2 (kW)

Temp

ext Janvier (kWh)

… Décembre

(kWh)

-10 Puiss élec absorbée

à Ŕ10°C -10

Nb d’h à Ŕ10°C en janvier x Puiss élec absorbée à Ŕ10°C

… … … ...

40 Puiss élec absorbée

à 40°C 40

Nb d’h à 40°C en décembre x Puiss élec absorbée à 40°C

- La somme de toutes les valeurs du dernier tableau (en bas à droite) correspond à la consommation annuelle (kWh) des pompes réseau 1 et 2 :

Temp ext

Janvier (kWh)

… Décembre

(kWh)

-10 Consommation à Ŕ10°C en janvier

… ...

40 Consommation à

40°C en décembre

Somme =

Consommation en janvier (kWh)

… Somme =

Consommation en décembre (kWh)

Somme mensuelle =

Consommation annuelle (kWh)

4. Centrales de traitement d’air neuf

- Je souhaite effectuer un calcul de consommation mensuel des centrales de traitement d’air fonctionnant en tout air neuf. Je calcule séparément la consommation du ventilateur, de la batterie électrique de chauffage, de la batterie électrique de refroidissement, de l’humidificateur.

1. consommation du ventilateur

- Le ventilateur fonctionne en continu : 7j/7, 24h/24.

51

- Ingerop me fournit le débit de soufflage des centrales de traitement d’air de chaque pôle :

Pôle A Pôle B

Débit (m3/h) 2 800 1 755

- Après consultation des fournisseurs, j’obtiens la puissance électrique absorbée du moteur du ventilateur. - La consommation mensuelle du ventilateur vaut : Consommation mensuelle du ventilateur (kWh) = Puissance électrique absorbée par le ventilateur x Temps de fonctionnement mensuel (h) - La consommation annuelle du ventilateur vaut : Consommation annuelle du ventilateur (kWh) = Σ (Consommations mensuelles (kWh)) = Σ (Puissance électrique absorbée par le ventilateur (KW) x Temps de fonctionnement mensuel (h))

2. consommation de la batterie de chauffage

- La batterie électrique de chauffage fonctionne uniquement si la température extérieure est inférieure à 18°C. A partir du fichier météo, je calcule les degrés heures mensuels inférieurs à 18°C : Degrés heures (h°C) = Température extérieure inférieure à 18°C (°C) x Nombre d’heures où cette température est effective (h) - Après consultation des fournisseurs, j’obtiens la puissance électrique absorbée de la batterie de pré-chauffage et de la batterie terminale. La puissance électrique totale absorbée par degré vaut : Puissance électrique totale absorbée par degré (kW/°C) = Puissance batterie de pré-chauffage (kW) / (Température en sortie de batterie de pré-chauffage Ŕ Température extérieure minimale (-15°C)) + Puissance batterie terminale (kW) / (Température en sortie de batterie terminale Ŕ Température en entrée de batterie terminale) - La consommation annuelle de la batterie électrique de chauffage vaut : Consommation annuelle de la batterie électrique de chauffage (kWh) = Σ (Consommations mensuelles (kWh)) = Σ (Puissance électrique totale absorbée par degré (kW/°C) x Degré heures mensuels (h°C))

3. consommation de la batterie de refroidissement

- La batterie électrique de chauffage fonctionne uniquement si la température extérieure est supérieure à 21°C. A partir du fichier météo, je calcule les degrés heures mensuels supérieurs à 21°C : Degrés heures (h°C) = Température extérieure supérieure à 21°C (°C) x Nombre d’heures où cette température est effective (h) - Après consultation des fournisseurs, j’obtiens la puissance électrique absorbée de la batterie de refroidissement. La puissance électrique totale absorbée vaut : Puissance électrique totale absorbée par degré (kW/°C) = Puissance batterie de refroidissement (kW) / (Température extérieure maximale (41°C) Ŕ Température en sortie de la batterie de refroidissement)

52

- La consommation annuelle de la batterie électrique de refroidissement vaut : Consommation annuelle de la batterie électrique de refroidissement (kWh) = Σ (Consommations mensuelles (kWh)) = Σ (Puissance électrique totale absorbée par degré (kW/°C) x Degré heures mensuels (h°C))

4. consommation de l’humidificateur

- L’humidificateur est le dernier élément d’une centrale de traitement d’air, il se situe après la batterie terminale et avant le plénum de soufflage. L’hiver, les conditions de soufflage sont les suivantes :

Conditions de soufflage = Conditions en sortie d’humidificateur

Température T (°C) 18

Humidité relative φ (%) 50

Humidité spécifique rs (kg/kg as) rs s = 0,0064

- Les batteries de pré-chauffage et terminale permettent d’augmenter la température de l’air sans modification de son humidité spécifique : la chaleur apportée à l’air est uniquement sensible. L’air réchauffé devient sec du point de vue de son humidité relative. Dans notre cas, la centrale de traitement d’air fonctionne en tout air neuf : l’humidification s’effectue sur un air chauffé à 18°C dont l’humidité spécifique est égale à celle de l’air extérieur. Le dimensionnement de l’humidificateur s’effectue aux conditions extrêmes, donc à des conditions où l’humidité spécifique est minimale : pour le data center, il est considéré que l’humidité spécifique minimale est atteinte à Ŕ15°C :

T (°C) -15

φ (%) 95

rs (kg/kg as) 0,0010

- Après consultation des fournisseurs, j’obtiens les données suivantes :

Entrée de l’humidificateur Sortie de l’humidificateur

Température (°C) T e fourn T s fourn

φ fournisseur (%) φ e fourn φ s fourn

rs fournisseur (kg/kg as) rs e fourn rs s fourn

Δ rs fournisseur (kg/kg as) Δ rs fourn = rs s fourn - rs e fourn

- Je calcule ensuite le besoin d’humidification à différentes températures extérieures qui constituent des paliers

T (°C) -15 0 4 8 12 16 18

φ (%) 95 90 90 80 70 60 58

rs (kg/kg as) rs e = 0,0010 0,0034 0,0045 0,0053 0,0061 0,0064 0,0075

Δ rs (kg/kg as)

Δ rs = rs s - r

s e Δ rs Δ rs Δ rs Δ rs Δ rs Δ rs

0,0064-0,0010

= 0,0054 0,0030 0,0019 0,0011 0,0003 0

-0,0011

Humidification oui oui oui oui oui non non

53

Un calcul par degré n’est pas justifié pour l’humidificateur car il est un poste peu énergivore ne nécessitant pas une grande précision dans les calculs (contrairement aux groupes froids). - Le coefficient d’utilisation par palier vaut : Utilisation (%) = Δ rs / Δ rs fourn

T (°C) -15 0 4 8 12 16 18

Coefficient d’utilisation (%)

U = Δ rs / Δ rs fourn = 100%

U U U U 0 0

- Les fournisseurs me communiquent le débit de vapeur en kg/h. Je pars sur le ratio de consommation du site internet http://www.energieplus-lesite.be/energieplus/page_11170.htm afin de calculer la puissance électrique absorbée à plaine utilisation : Puissance électrique absorbée maximale (kW) = 0,750 (kW/(kg/h)) x Débit de vapeur (kg/h) D’où la puissance utilisée par palier : Puissance électrique absorbée (kW) = Puissance électrique absorbée maximale (kW) x Utilisation (%) Puissance électrique absorbée (kW) = 15 x Utilisation (%)

T (°C) -15 0 4 8 12 16 18

Coefficient d’utilisation (%)

U = 100% U U U U 0 0

Puiss élec absorbée (kW)

P abs maxi x U 0 0

- A partir du fichier météo, j’extrais les valeurs suivantes par palier :

Janvier Février … Novembre Décembre Année

Nombre d'heures < 0°C (h) somme (h)

0°C ≤ Nb d'h < 4°C … somme (h)

4°C ≤ Nb d'h < 8°C … somme (h)

8°C ≤ Nb d'h < 12°C … somme (h)

12°C ≤ Nb d'h < 16°C (h) somme (h)

- La consommation annuelle de l’humidificateur vaut : Consommation annuelle de l’humidificateur (kWh) = Σ (Nombre d’heures annuelle à l’intervalle de température du palier (h) x Puissance électrique absorbée à ce même palier (kW))

5. consommation de la centrale de traitement d’air

- La consommation de la centrale de traitement d’air vaut : Consommation de la centrale de traitement d’air (kWh) = Σ Consommations (ventilateur + batterie de chauffage + batterie de refroidissement + humidificateur) (kWh)

5. Ventilation d’extraction

- Ma période de stage ne correspond pas avec la période de consultation des ventilateurs d’extraction. Je n’ai donc pas consulté les fournisseurs.

54

Pour calculer la consommation des ventilateurs d’extraction, j’ai effectué un calcul théorique sans données concrètes. - Ingerop me fournit les caractéristiques théoriques suivantes :

Local : Batteries Transformateurs Production de froid

Quantité installée par

tranche :

Ferme 2 0 2 (remplacement)

A2 2 0 2 (remplacement)

Future 1 0 1 (remplacement)

Fonctionnement : continu variable variable

Puissance absorbée nominale (théorique) (kW)

0,08 0,30 0,27

Les ventilateurs sont dimensionnés pour combattre la dissipation calorifique des équipements installés en tranche A2. En tranche future, les ventilateurs deviennent sous-dimensionnés et nécessitent d’être remplacés.

1. consommation du ventilateur local batterie

- Les ventilateurs du local batteries fonctionnent à débit constant en continu toute l’année : 7j/7, 24h/24. - La consommation des ventilateurs du local batteries vaut : Consommation local batteries (kWh) = Puissance électrique absorbée par 1 ventilateur (kW) x Nombre de ventilateurs x Temps de fonctionnement (h)

2. consommation du ventilateur local transformateurs

- Je souhaite calculer un coefficient d’utilisation mensuel des ventilateurs du local transformateurs. - Les ventilateurs du local transformateurs fonctionnent à débit variable en continu toute l’année : 7j/7, 24h/24. - Je calcule la température extérieure mensuelle moyenne grâce au fichier météo. Plus l’air extérieur est chaud, moins l’extraction est bonne, et plus l’utilisation des ventilateurs est importante. C’est donc au mois le plus chaud de l’année que l’utilisation est maximale. 2.1. Tranche A2 Les ventilateurs sont dimensionnés pour répondre aux besoins de la tranche A2 : le coefficient d’utilisation maximal de la tranche A2 est proche de 1 pour le mois le plus chaud. C’est en août que la température extérieure moyenne est la plus élevée : c’est donc au mois d’août que le coefficient d’utilisation est proche de 1. Je prends comme hypothèse que la température intérieure du local transformateurs vaut 30°C toute l’année. Le coefficient d’utilisation est calculé de la manière suivante : Coefficient d’utilisation (%) = Constante à déterminer (°C) / (Température ambiante Ŕ Température extérieure mensuelle moyenne) x Nombre de ventilateurs utilisés

55

Au mois d’août : Coefficient d’utilisation ≈ 100 % Température ambiante = 30 °C Température extérieure mensuelle moyenne = 20,74 °C D’où la valeur de la constante : Constante = 4,6 °C Avec une constante égale à 4,6°C, la coefficient d’utilisation vaut 99%. En tranche A2, j’obtiens le tableau suivant :

Tranche future Janvier … Août … Décembre

Puiss abs nominale (kW) 0,30

Temp ext moyenne (°C) 6,15

Coefficient d’utilisation (%) Constante (4,6°C) / (30°C Ŕ Temp ext moy) x 2 Ventilateurs

39 39 39

2.2. Tranche ferme - Par rapport à la tranche A2, les transformateurs de la tranche ferme fonctionnent à mi-régime. Ils dégagent donc 2 fois moins de chaleur qu’en tranche A2. Les ventilateurs sont 2 fois moins sollicités : le coefficient d’utilisation est divisé par 2.

Tranche future Janvier … Août … Décembre

Puiss abs nominale (kW) 0,30

Coefficient d’utilisation (%) Coefficient d’utilisation en tranche A2 / 2

19,5 19,5 19,5 19,5 19,5

2.3. Tranche future - L’utilisation des transformateurs en tranche future est 1,5 fois plus importante qu’en tranche A2. Ils dégagent donc 1,5 fois plus de chaleur qu’en tranche A2. Les ventilateurs sont 1,5 fois plus sollicités : ils sont donc sous-dimensionnés. Les ventilateurs sont re-dimensionnés afin de dégager la puissance calorifique de la tranche future. L’hypothèse d’une utilisation maximale lors du mois le plus chaud est conservée. La nouvelle puissance électrique absorbée des ventilateurs en tranche future vaut : Puissance absorbée en tranche future (kW) = 1,5 x Puissance absorbée en tranche A2 (kW) = 1,5 x 0,30 = 0,45 kW

Tranche future Janvier … Août … Décembre

Temp ext moyenne (°C) 6,15 … 20,74 … 6,03

Puiss abs nominale (kW) 1,5 x 0,30 = 0,45

Coefficient d’utilisation (%) Constante (4,6°C) / (30°C Ŕ Temp ext moy) x 2 Ventilateurs

39 … 99 … 38

2.4. Consommation - La consommation par tranche vaut : Consommation (kWh) = Puissance absorbée nominale (kW) x Σ (Coefficient d’utilisation (%) x Temps de fonctionnement mensuel)

3. consommation du ventilateur local production froid

- La consommation du ventilateur du local production froid est calculée de la même manière que la consommation des ventilateurs du local transformateurs.

56

Partie 3 : Projets annexes En parallèle de mon projet de fin d’études, j’ai été amené à travailler sur différentes affaires de Cegelec GPI.

1. Réseau de chaleur biomasse à Graulhet

1. Présentation du projet

En mars 2011, l’agence GPI a répondu en conception-réalisation à un projet de réseau de chaleur biomasse. Ce réseau concerne la commune de Graulhet dans le Tarn (81). Le marché est public. Le maître d’ouvrage, Trifyl, est un syndicat mixte départemental de valorisation des déchets ménagers. Mandataire de ce projet, Cegelec s’est associé avec l’architecte Benoit Cabrol, le bureau d’études Berim représenté par Jean-Pierre Lombard et le constructeur de chaudière bois Reka représenté par Jean-Pierre Groff. Le projet consiste en deux réseaux de chaleur : un réseau rive droite et un réseau rive gauche.

fig 42 : logos de Trifyl, Benoît Cabrol, Berim, Reka source : site internet des différentes entreprises

Le réseau rive droite est alimenté par une chaudière bois de 1,8 MW et deux chaudières gaz d’appoint de 3,5 MW et 1,2 MW. Ce réseau mesure 4,4 km (aller-retour) et alimente 16 sous-stations : une crèche, une école maternelle et primaire, une piscine, un centre social, deux foyers de logements, un office du tourisme et une poste, un gymnase, une discothèque, deux HLM et un lycée. La chaufferie du réseau rive droite est à créer.

fig 43 : insertion paysagère : chaufferie bois & gaz rive droite à créer

source : Benoît Carol :

57

Le réseau rive gauche est alimenté par une chaudière bois Köb existante et un chauffe-eau Guillot existant. Ce réseau mesure 700 mètres (aller-retour) et alimente 3 sous-stations : une médiathèque, un cinéma et un EHPAD. La chaufferie existante du réseau rive gauche nécessite une mise en conformité : nouvelle cheminée, dépoussiéreur et décendreur. La fourniture en énergie biomasse doit couvrir 80% des besoins. Ce taux de couverture est contractuel, il doit être atteint à chaque saison de chauffe sous peine de pénalités. Le maître d’ouvrage nous a fourni les besoins en chauffage et en ECS de chaque sous-station. Le bureau d’études a dimensionné la chaudière bois afin d’atteindre le taux de couverture souhaité et les deux chaudières gaz d’appoint en cas d’indisponibilité de la chaudière bois. La puissance en gaz a été volontairement divisée en deux. La chaudière de 1,2 MW représente la part nécessaire à l’ECS en dehors de la saison de chauffe, période pendant laquelle la chaudière bois cesse de fonctionner.

fig 44 : schéma d’alimentation de la chaudière bois Reka

ordre de combustion : silo avec racleur à échelle, chaudière, filtre électrostatique source : Reka

Le maître d’ouvrage nous a fourni un tracé du réseau de chaleur. Le bureau d’études en a établi un autre, tout aussi long, mais optimisé du point de vue du terrassement. Ci après un extrait du réseau rive droite, en rouge le réseau initial et en vert le réseau optimisé avec les points de conflit repérés en violet :

fig 45 : tracé optimisé : vue partielle du réseau rive droite source : Bérim

58

2. Travail personnel

Connaissant le tracé, les puissances des chaufferies et des sous-stations, j’ai dimensionné le réseau de chaleur à l’aide d’abaques. J’ai ensuite consulté des fournisseurs de tuyaux pré-isolés, des entreprises de génie civil spécialisées dans le terrassement et des entreprises de pose de réseau. Le marché étant public le prix représente 30% de la notation. J’ai donc choisi les entreprises dont l’offre était la moins onéreuse tout en restant techniquement viable. A partir de la documentation technique de l’entreprise choisie pour les tuyaux pré-isolés, j’ai déterminé les pertes de charge du réseau de chaleur. En parallèle j’ai consulté des fournisseurs d’échangeurs à plaques. De la même manière, j’ai choisi le fournisseur le moins-disant. J’ai pu ensuite dimensionner et consulter les fournisseurs de pompes primaires, secondaires et de circulation de chaudières. J’ai aussi consulté des entreprises pour les cheminées des deux chaufferies, pour cela j’ai du me familiariser avec la réglementation en vigueur. J’ai aussi consulté les vases d’expansion, le ballon tampon, le décendreur et le nettoyeur de la chaufferie existante, les chaudières et brûleurs gaz. Au total j’ai réalisé et comparé une vingtaine de consultations.

3. Travail en équipe

Ce projet a été réalisé en deux semaines. Le temps nous manquant, le projet fut un réel travail d’équipe : - Lionel Aprahamian, chef de projet senior Cegelec et chef de ce projet, a rédigé toutes les pièces contractuelles et la réponse à l’offre. - Charles Christin a établi des ratios pour évaluer rapide ment les besoins en robinetterie (vannes, thermomètres, soupapes…), les compteurs de calories, la régulation, le désenfumage. - Eric Rumeau, chef de projet Cegelec, a réalisé le chiffrage et la rédaction du contrat de maintenance. - Nicolas Dassé, chef de projet électricité Cegelec, a réalisé le chiffrage de la partie électricité. Pour établir le chiffrage en puissance des armoires électriques, Nicolas Dassé avait besoin de la puissance des différents organes propres à la partie CVC : pompes, régulation, décendreur, nettoyeur, chauffe-eau… L’échéance finale à l’appel d’offre était de deux semaines et une partie de mon travail était le point de départ du chiffrage des armoires électriques. J’ai eu donc très peu de temps pour réaliser la consultation des pompes et de tout ce qui en était en amont : tuyaux pré-isolés, pertes de charge réseau, échangeurs. - Aurélie Becchio, assistante de l’agence GPI, s’est chargé de la mise en forme de l’offre finale et a effectué l’inventaire des pièces contractuelles à fournir. Tout le chiffrage fut donc effectué par Cegelec au sein des mêmes locaux, la communication était ainsi très facilitée. La communication ne fut pas aussi aisée avec les autres membres du groupement. En effet, il est difficile de travailler à distance. Certains membres du groupement sont difficilement joignables, et donner des explications techniques à un problème précis se montre périlleux par téléphone. L’échange d’informations par email est très efficace mais quelque peu différé. Nous avons plusieurs fois communiqué tous ensemble en conférence téléphonique ; mais ce mode de communication présente ses faiblesses, il est fréquent de couper involontairement la parole des différents interlocuteurs, et vis-versa.

59

La réponse à l’offre fut une période très intense. A quelques heures de l’échéance, certaines pièces contractuelles nous manquaient encore. Le dossier fut rendu à l’heure. Le temps nous a énormément fait défaut. Deux semaines plus tard nous avons reçu de la part du maître d’ouvrage une dizaine de questions concernant notre offre. Il nous était demandé de répondre à l’ensemble des points relevés en moins de trois jours. Les questions étaient variées : elles portaient sur le tracé du réseau, sur le système de récupération de cendres, sur les hypothèses de calculs, sur la régulation, etc. Je me suis donc penché sur la question qui me concernait : la fourniture des documentations techniques sur les équipements installés pour la mise en conformité de la chaufferie existante.

4. Audition

La notation pour ce projet est la suivante : 30% pour le prix des travaux, 35% pour le prix global (travaux + maintenance), 35% pour la technicité. Nous avons appris quelques jours après notre réponse au dossier que notre prix pour les travaux nous plaçait à la troisième place vis-à-vis de nos concurrents. Le maître d’ouvrage a quand même voulu entendre notre offre lors de l’audition qui se tenait deux semaines après le rendu du projet. L’audition est très cadrée. A chaque partie est alloué un temps précis, au total l’oral ne doit durer que 25 minutes. Malheureusement je n’ai pas pu assister à l’audition. A ce moment là j’étais très occupé par un nouveau projet : la cité municipale de la mairie de Bordeaux. Tous les membres de notre groupement avaient rendez-vous dans nos locaux pour partir tous ensemble à l’audition. Je fus très heureux de mettre des noms sur des visages et d’enfin rencontrer toutes ces personnes avec qui j’avais travaillé par email et par téléphone. Au retour de l’audition, Lionel Aprahamian fut satisfait de la prestation générale. Cependant nous avons appris quelques jours plus tard que nous avions perdu l’affaire.

5. Impressions personnelles

J’appris par ce projet la difficulté du marché public : la gestion du temps, les pièces contractuelles et la cohérence technicité-prix. J’ai appris à gérer le peu de temps qui m’était alloué. J’ai découvert le travail en équipe, j’ai assimilé la notion de priorité dans les tâches qui m’étaient demandées afin de ne pas bloquer le travail de mes collègues qui en découlait. J’ai appris à anticiper les délais de réponse des fournisseurs afin de finir mon travail dans les temps. J’ai appris à perdre fièrement ! Nous avons travaillé avec ardeur pour finalement perdre l’affaire, pour rien ? Je ne pense pas. La cohésion au sein de Cegelec nous a confortés dans l’idée que l’agence GPI peut répondre à des offres communes de CVC et d’électricité.

60

2. Grand théâtre d’Albi

1. Présentation du projet

En avril 2011, Cegelec GPI décide de répondre à l’appel d’offre du Grand théâtre d’Albi (81) en Electricité et CVC-Plomberie-Désenfumage. Il s’agit de la rénovation d’une salle de spectacle classée monument historique. Les acoustiques sont lourdes et le budget est très serré. Charles Christin, Julien Perroux et moi même chiffrons le lot CVC-Pb-D. Je travaille en parallèle sur mon projet de fin d’études, le data center et l’hôpital de Rangueil. Je ne réalise que le chiffrage du réseau hydraulique des centrales de traitement d’air, des planchers chauffants et des radiateurs. A partir du zoning de désenfumage fourni par le bureau d’études, je détermine le nombre de clapets coupe-feu nécessaire au réseau aéraulique. Nous proposons une variante permettant de diminuer le nombre de clapets de 180 à 137 nécessaires.

2. Travail en équipe

Pour ce projet en CVC, nous étions tous les 3 dans le même bureau : la coordination de l’équipe est ainsi optimisée. Nous avons appris quelques semaines plus tard que nous étions très mal classés selon les critères de notation vis à vis de nos concurrents sur les lots Electricité et CVC-Pb-D. Suite à cet échec, Philippe Forestier, chef de projet sénior, organisa une réunion intitulée « retour sur expérience ». Cette réunion fut très instructive. Nous avons revus entièrement l’offre afin de mieux comprendre nos erreurs.

3. Impressions personnelles

J’ai rencontré la même difficulté majeure que dans les offres précédentes : le temps ! Nous avons eu tout juste répondu techniquement à l’offre. Les optimisations proposées prévoyaient une toute autre conception : le cheminement des réseaux, le type de soufflage dans les gradins, le type de chauffage dans les loges, le zoning de désenfumage, etc. Re-concevoir un tel projet en si peu de temps fut trop ambitieux et fut très probablement la cause de notre échec.

61

3. Université de Rangueil

1. Présentation du projet

En juin 2011, Cegelec GPI décide de répondre à l’appel d’offre de la Maison de la Recherche et de la Valorisation de l’Université de Rangueil (31) en Electricité et CVC-Plomberie-Fluides Spéciaux-Sorbonne. Il s’agit de la rénovation d’un bâtiment universitaire. Pour ce projet l’équipe CVC se compose de Julien Perroux, Xavier Bonfort, Sébastien Agré et moi même. Toujours occupé par mon projet de fin d’études et le data center, je n’ai chiffré que les réseaux aérauliques d’amenée d’air et d’extraction des sorbonnes.

2. Travail en équipe

L’équipe CVC s’étant récemment agrandi, c’est le premier projet où nous sommes autant nombreux à travailler ensemble. Il fut très enrichissant de travailler avec les deux nouveaux venus : Xavier Bonfort et Sébastien Agré. Xavier Bonfort a travaillé pendant plus de 25 ans dans en bureau d’études, son expérience est très utile dans l’appréhension d’un chiffrage. Sébastien Agré a travaillé 2 ans pour des laboratoires pharmaceutiques, son expérience le conduit logiquement à chiffrer sur ce projet les fluides spéciaux et la plomberie. A quelques jours de la fin de mon projet de fin d’études, j’ai appris que nous n’avions pas été retenus. Le bureau d’études ne nous a pas envoyé de questions sur notre offre technique, signe que notre offre était satisfaisante. Nous avons été écarté à cause de notre prix trop élevé.

3. Impressions personnelles

Comme nous étions 4 à chiffrer ce projet, le temps ne nous a pas fait défaut. Les affaires sont difficiles en ce moment, les budgets sont évaluées très bas et les offres techniques doivent être excellentes. Il est difficile de répondre à ces deux objectifs en même temps. Au vu des critères de notation : 60% technique, 40% prix, il fut surprenant d’avoir été rejeté à cause de l’offre financière et non pas technique. Quoiqu’il en soit, j’ai encore appris sur la remise des offres, le besoin d’optimisation, la difficulté du choix entre aspect financier et technicité.

62

4. Cité municipale de Bordeaux

1. Présentation du projet

Depuis plusieurs mois l’agence Cegelec Grands Projets et Infrastructures travaille sur le concours de la cité municipale de la Mairie de Bordeaux (33). Ce projet est réalisé en partenariat public-privé (PPP) : - Maître d’ouvrage : Mairie de Bordeaux, Sogeprom - Maître d’œuvre :Ibos & Vitart, Paris - Bureau d’études : SNC-Lavalin, Paris - Gros œuvre : Spie Batignolles, Paris - Corps d’état techniques : Cegelec GPI, Toulouse Les représentants de Cegelec sont Charles Christin pour les lots CVC-plomberie-désenfumage, Cedric Clergerie pour le lot électricité et photovoltaïque, Eric Rumeau pour la maintenance.

fig 46 : logos de la Mairie de Bordeaux, Sogeprom, Ibos & Vitart,

SNC Lavalin, Spie Batignolles source : site internet des différentes entreprises

Le projet est encore en phase de concours, je ne peux pas diffuser dans ce rapport ni perspective, ni plans, ni coupes. Je peux uniquement décrire le projet sans illustrations. M. Ibos et Mme. Vitart sont des architectes de grande renommé. Anciens collaborateurs de Jean Nouvel, ils ont monté leur propre cabinet et réalisé de très beaux projets tels que la médiathèque André Malraux à Strasbourg (67), le palais des beaux-arts à Lille (59), ou encore les archives départementales d’Ille et Vilaine à Rennes (35). Le projet de la cité municipale de Bordeaux est très ambitieux. Il s’agit d’un bâtiment de 9 étages à énergie positive, d’une superficie totale de 25 000 m². En plein cœur du centre ville, ce bâtiment BEPOS est un projet colossal où les lots CVC-plomberie-désenfumage représentent plusieurs millions d’euros à eux seuls.

2. Travail personnel

Il a été demandé à Charles Christin de chiffrer en très peu de temps les trois lots suivants : CVC, plomberie, désenfumage. Je l’ai aidé dans son travail en métrant et chiffrant tous les réseaux (hors organes et accessoires). J’ai dimensionné et tracé sur les plans architectes les réseaux suivants : - le réseau d’eau glacée et d’eau chaude en change-over de la partie bureau. Je me suis basé sur les calculs de charges climatiques et les débits d’air fournis par le bureau d’études. - les réseaux d’eau glacée et d’eau chaude des planchers chauffants et rafraîchissants. - le réseau d’eau glacée des salles de réunion. - le réseau d’eau chaude des aéroréfrigérants. - le réseau d’eau pluviale. Passant à l’intérieur du bâtiment, il a fallu faire attention à ne pas traverser des locaux à forte contrainte acoustique acoustique, tels que les bureaux et les salles de réunions par exemple.

63

- le réseau de désenfumage était partiellement tracé mais non dimensionné. J’ai déterminé la taille de chaque conduit en y associant selon la configuration une trappe de désenfumage ou une grille avec un clapet coupe-feu. - les réseaux aérauliques des différentes centrales de traitement d’air. - les réseaux de ventilation mécanique contrôlée. Une fois tous ces réseaux déterminées, j’ai effectué un chiffrage complet en prenant en compte les matériaux nécessaires, le calorifuge, les temps de pose associés. Le montant de tous ces réseaux se compte en millions d’euros. Le réseau d’eau glacée alimentant les bureaux mesure 3 800 mètres et nécessite 2 800 heures de travail. Charles Christin s’est occupé du planning et du chiffrage de tout le reste des lots : les pompes à chaleur, les aéroréfrigérants, les centrales de traitement d’air, les ventilateurs, les panneaux solaire thermique, la régulation, les planchers chauffants, les ballons, la robinetterie, la vaisselle, etc.

3. Impressions personnelles

J’ai pu analyser la taille des trémies actuellement dessinées par les architectes. Ce travail est une réelle anticipation. Du point de vue architectural, le projet n’est pas terminé. Il est donc plus facile de signaler un défaut d’aplomb et de taille de trémie lorsque le projet n’est pas encore figé et strictement déterminé. J’ai réalisé la difficulté de passage des réseaux. Un aussi grand bâtiment demande des réseaux conséquents qui prennent une place importante dans les trémies dédiées. Les dévoiements en faux plafond sont risqués et parfois impossible sans anticipation architecturale. J’ai appris à avoir une vision globale en travaillant sur tous les réseaux en même temps afin de gérer au mieux les points de conflits. J’ai appris par ce projet le coût réel de la main d’œuvre en calculant les temps de pose de chaque réseau. Cependant ce coût calculé a ses limites, les aléas de réalisation sont à prendre en compte. Plusieurs facteurs peuvent rallonger le temps de pose initialement évalué : retard dans les commandes, difficulté de passage des réseaux, réservations béton oubliées, intempéries, retard des autres lots… La main d’œuvre représente une part très importante dans le budget.

64

5. Hôpital de Rangueil

1. Présentation du projet

Cegelec GPI s’occupe de la mise en conformité électrique de l’hôpital de Rangueil (31). Il s’agit d’un chantier de plus de 4 millions d’euros. Le chantier consiste en la réhabilitation et la création de postes électriques avec des locaux TGBT, HT et BT. Du point de vue CVC, tous ces locaux nécessitent d’être ventilés et désenfumés. Les locaux TGBT abritant les transformateurs nécessite d’être climatisés par des systèmes à détente direct.

2. Travail personnel

De février à mai 2011 j’ai assisté aux réunions hebdomadaires de synthèse se déroulant à la base vie du chantier. Il y avait deux types de réunions : interne ou tout corps d’état. - Les réunions internes se déroulaient avec Michel Coussieu (chargé d’études courants faibles, Cegelec), Guy Gouardères (chargé d’études courants forts, Cegelec), Cédric Teissedre (sous-traitant des études structure, SLH) et moi même. Nous étudiions lors des modifications des fond de plan, les conflits de cheminement des réseaux électriques et aérauliques, et les réservations qui en découlent. Ce travail préventif de synthèse est incontournable pour des locaux électriques de ce type : petits et très denses en réseaux. - Les réunions tout corps d’état permettaient de discuter de toutes les difficultés rencontrées : quelle soit actuelles sur le terrain ou prévisibles sur les plans. Etaient présents à ces réunions : - Cegelec pour les lots Electricité et CVC-désenfumage, représenté par Michel Zanoletti (jusqu’en mars 2011), puis par Stéphane Chevaillier (à partir de mars 2011). Michel Coussieu, Guy Gouardères et moi même étions aussi présents pour nos lots respectifs. - Olivier Chadebost, l’architecte du projet - Cap Ingelec, Maîtrise d’œuvre pour les études Electricité et CVC-D - BCET, Maîtrise d’œuvre pour les études Structure et VRD - Enéria, pour le lot Fioul - SLH, sous-traitant de Cegelec pour les études Structure - Apave, le bureau de contrôle - De retour à l’agence, je modifiais mes plans en fonction de la réunion passée, et les faisais valider par Charles Christin (chef de ce projet en CVC) avant leur diffusion officielle. - Nous avons appris en mai 2011 que l’hôpital de Rangueil n’avait pas effectué la dépollution de ses murs en amiante et des sols pollués par le fioul des réservoirs poreux des anciens groupes électrogènes : les travaux sont arrêtés du jour au lendemain, la reprise n’est pas encore fixée.

3. Impressions personnelles

J’ai appris les contraintes d’espace des réseaux aérauliques, la communication avec tous les autres corps de métier, la complexité des salles résistantes au feu, et les contraintes architecturales des projets en phase d’exécution (impacts visuels des réservations). J’ai appris à lire les plans Electricité pour connaître les hauteurs de cheminement et à lire les plans Gros Œuvre pour connaître les hauteurs sous-plafond, les hauteurs sous-poutre, les épaisseurs de dalles.

65

Par les modifications des plans, j’ai appris à utiliser le logiciel Autocad.

fig 47 : « poste CS » : plan CVC source : production personnelle

fig 48 : « poste GH » : plan CVC source : production personnelle

fig 49 : « poste GH » : coupes AA et BB

source : production personnelle