Posts tagged freecooling

Free cooling dans le sud de la france

1

Bonjour,

Aujourd’hui je vais vous parler d’un projet que je mène dans un datacenter du sud de la France.

Free cooling direct, ou Total Free cooling, vous connaissez ?

Il s’agit de refroidir l’air d’une salle informatique avec l’air extérieur.

Le datacenter en question, est situé dans le sud de la France, dans la région PACA, à Sophia-Antipolis, pour vous dire que le projet est osé puisqu’il s’agit d’une des régions de France les plus chaude.

Et bien ça marche quand même et pas qu’un peu, je vous explique.

Il est refroidi avec l’air frais extérieur tant que cet air ne dépasse pas les 16°C  on est en full free cooling, 0% de production de froid, c’est mère nature qui s’en charge.

A partir de 16°C et jusqu’à 25°C il y a entre 0 % et 20 % de production de froid pour une période de 24 heures,  puis à partir de 25°C  les centrales de traitement d’air s’arrêtent et n’apportent plus d’air extérieur dans la salle informatique car l’air serait trop chaud.

Vous allez me dire, mais à combien refroidissez-vous votre centre informatique ?

Et bien, je me suis basé sur les recommandations de l’ASHRAE 2008 (TC 9.9)

ASHRAE TC 9.9 Recommended Allowable
Temperature 18-27 deg C (64.4- 80.6 Degrees F) 15-32 deg C (59-90 Degrees F)
Humidity 5.5-15 deg C Dew Point (41.9-59 Degrees F ) 20%-80% RH

** Ces conditions sont pour l’air rentrant dans les équipements informatique **

et ça fonctionne comme ça depuis un an …

Mais il ne s’agit pas simplement d’augmenter les consignes de fonctionnement, il y a tout un travail en amont, comme le cloisonnement des couloirs froids, l’optimisation de la circulation de l’air dans les faux planchers, etc…

Nouvelle conception de refroidissement Google

0

goog_cooling
Ce diagramme montre un nouveau système de refroidissement qui pourrait être utilisé dans un centre de données Google.

Nous avons ajouté de la couleur au schéma d’origine pour mettre en évidence les colonnes verticales (en bleu) et les lignes horizontal (en vert) qui apportent de l’air froid aux composants des serveur.

Un Datacenter géothermique

0

Les systèmes de refroidissement géothermique ne sont pas encore très utilisé dans les centres de données.

Une des premières implementation a l’utiliser est le nouveau datacenter de “l’American College Testing” à Iowa City.

Le datacenter de l’Iowa a été certifié platinium par le programme américain LEED “Leadership in Energy and Environmental Design (LEED), un système de notation pour les centre de données volontaires a être  supervisé par le US Green Building Council, concernant les bâtiments efficacement énergétique.

L’ACT “American College Tesing” est le premier datacenter a obtenir une certification platinium aux états-unis.

Un centre de données de Citigroup en Allemagne, a déjà obtenu le statut platinium, tandis que Advanced Data Centers à Sacramento a été pré-certifié pour le statut Platinium.

L’ACT est un bâtiment ouvert en février 2008 de 750  m² dont 375 m² de salles informatique.

L’installation est refroidie par géothermie – un système de tuyauterie fermé sous terre, la terre permet de refroidir le système de tuyauterie souterrain, il a également un système de refroidissement extérieur comme backup du système géothermique.

Le bâtiment a d’autre attribut, comme des onduleurs a haut rendement, 30% du bâtiment est construit avec des matières recyclées ainsi que de nombreux objet de décoration en matière renouvelable.

Le nom du projet pendant sa phase de construction a été “durabilité”, aucun élément n’a été laissé au hazard.

  • Pour plus d’informations sur l’utilisation de systèmes géothermiques dans les centres de données, voir cet article de John Peterson de HP Mission Critical Facilities.
  • Voir la liste des datacenter certifié par  la LEED
  • Voir la carte des régions candidate aux freecooling aux US
  • Voir d’autre article sur l’ACT datacenter, GreenerComputing et Environmental Leader.
  • Pour un aperçu conceptuel du refroidissement par la géothermie,  voir cette vidéo (hélas, précédé par un “pre-roll” de publicité).

Datacenter Full FreeCooling Google

0

Google a ouvert en Belgique un datacenter qui ne sera refroidit qu’à l’air libre.

Google mise sur le climat belge pour refroidir son centre de données, en se basant sur la température moyenne de cette région belge (Saint-Ghislain), seulement 7 jours de l’année la température dépasserait le seuil critique.

En cas de température trop élevée, soit 26 degrés selon Google, l’entreprise désactivera les équipements du centre, transférant la charge de travail à d’autres centres informatiques.
La construction du site de Saint-Ghislain a débuté en 2008

Cold Corridor

2

Je vais essayer de vous faire un retour d’expérience concernant la mise en place de cold corridor (confinement des allées froides) en salle serveurs.

Dans un précédent article de ce site, je présentais comment améliorer l’efficacité de refroidissement de la salle par de petites bonnes pratiques qui ne demandent pas d’énormes investissements.

Il n’est pas nécessaire de recourir à une solution cold corridor clef en main, comme peuvent le proposer certains fabricants.

Le cold corridor peut et fonctionne aussi bien en confinant le froid avec des rideaux plastiques comme le montre cette photo.
cloison pour allées froide dans datacenter

Les avantages d’une solution comme celle-ci :

– Permet d’augmenter la densité des racks, on peut installer des serveurs en haut des racks
– Permet d’augmenter les consignes de températures selon les recommandations ASHRAE 2008
– Permet de bénéficier à 100% de l’efficacité du système de climatisation
– Permet de réduire le nombre de cycle de production de froid (économie d’énergie)
– Permet de réduire l’empreinte carbone

Les inconvénients :

– Le cloisonnement engendre une montée en température accélérée en cas de panne
– Surcoût à considérer pour mettre le corridor aux normes DI/EAI (détection/extinction incendie)

Le constat :

Le cold corridor permet d’uniformiser les températures et hygrométrie de la zone et ceci à n’importe quelle hauteur du rack et d’augmenter les vitesses de soufflage.
– Un résultat immédiat sur un changement des consignes de froid
– Solution optimisée par un couplage avec du FreeCooling (+ d’heures de fonctionnement en Free Cooling)
– Réduction de l’ordre de 15% à 20% de la consommation du poste de climatisation

Les résultats sont en tout cas surprenant :

cold_corridor

Conclusion :

On voit qu’il est intéressant de cloisonner le froid.

Si on estime que la température de soufflage (en façade des serveurs) de 24 °C est suffisante, et que la redondance des groupes de froid permet de palier une panne sans mettre en péril l’infrastructure donc une montée rapide en température, le potentiel économisé sera d’environ 20%  sur la production de froid, sans oublier les avantages citées plus haut.

Green Grid offre un outil de mesure pour du FreeCooling

0

The Green Grid a publié une carte nommé Fresh Air Cooling Map montrant les meilleurs endroits aux États-Unis ou utiliser l’air extérieur pour refroidir les DataCenter.

FreeCooling in USA

Cette pratique aussi connue sous le nom de FreeCooling permet aux opérateurs d’économiser de l’argent en utilisant de l’air frais pour refroidir les salles serveur, plutôt que de compter sur les climatiseurs qui utilisent de grandes quantités d’énergie.

Le refroidissement nécessite généralement un filtrage des particules et un suivi attentif de l’humidité dans le DataCenter.

Selon les conditions de température et d’humidité, on pourra déterminer combien d’heures par an, un DataCenter peut utiliser du FreeCooling sans refroidir de façon traditionnel.

The Green Grid, un consortium industriel qui promeut l’efficacité énergétique des DataCenter, a créé cette carte illustrant les régions des USA offrant le plus haut niveau annuel d’heures de refroidissement en FreeCooling.

Une version basse résolution est représenté ci-dessus. L’accès à une version haute résolution est limitée aux membres du Green Grid.

Le groupe a également publié un outil gratuit pour calculer l’économie de refroidissement et qui permet aux utilisateurs de créer une analyse personnalisée,  de définir leurs principaux paramètres, la charge du DataCenter, le Power Usage Effectiveness ( PUE) et le coût de l’électricité.

L’outil génère une estimation du nombre d’heures d’utilisation ainsi que le gain pouvant être obtenu.

[ad]

Red Rock datacenter Free Cooling

0

Red Rock Datacenter “Colorado/US” a mis en ligne une page temps réel montrant l’état de fonctionnement de leur datacenter en technologie dites de Free Cooling.

On peu y voir l’économie engendré par cette technique, la température extérieure, si les clim sont en fonctionnement ou pas, etc..

Red Rock Datacenter (RRDC)

[ad]

Maintenez-vous toujours votre salle serveur à 20°C ?

Depuis quelque temps, des acteurs de premier plan dans l’industrie des datacenter ont élevé la température dans leur centre de données, ce qui a permit des économies qui se calcul en centaines de milliers d’Euros sur les coûts de l’infrastructure de climatisation.
La liste des sociétés qui chante les louanges de cette épargne grâce à des réglages de température de référence dans leur centre de données sont entre autres Google, Intel, Sun et HP.

Le premier groupe industriel des professionnels de chauffage et de refroidissement a rejoint la chorale cette semaine. Il s’agit de L’American Society for Heating, Refrigerating and Air-conditioning Engineers (ASHRAE), qui a étendu ses recommandations concernant la température la plus haute de l’air ambiant  des datacenter, soulevant sa limite supérieure recommandée de 25 degrés à 27 degrés.

Cela permet aux gestionnaires de datacenter d’économiser jusqu’à 4 pour cent des coûts d’énergie pour chaque changement de degré en hausse sur la température de référence, qui est plus connu comme point de réglage (Set Point).
Plus le point de réglage est élevé, moins de temps de fonctionnement sur les climatiseurs, ce qui permet d’économiser considérablement de l’énergie pour faire fonctionner ces systèmes de refroidissement.

Pour éviter des points chaud en changeant drastiquement le point de réglage de vos climatiseurs il est nécessaire de mettre en place un monitoring poussé de la température de vos racks.

Il existe plusieurs sondes le permettant, moi j’utilise principalement Frogd ainsi que les sondes internes des serveurs (IPMI, sensors, etc…), cela m’a permit de passe de 21 à 24 °C sans aucun problème de fonctionnement dans ma salle serveurs et avec une réduction de 12 % de l’énergie nécessaire pour refroidir la salle (4% par degré)

ASHRAE a approuvé la recommandation de modification des températures de fonctionnement cette semaine lors de sa réunion à Chicago.

Mark Fontecchio de Tech Target a ajouté un point sur les déclaration de l’ASHRAE et sur l’impact de la hausse des points de réglage :

– Plus de bruit dans les datacenter car les fans des serveur deviennent plus actifs

– On grille d’avantage dans les allées chaude qui sont souvent 16 degrés plus chaude que les allées froide, soit plus de 40 °C.

D’autres article sur le même sujet dans ce site

Article traduit de l’anglais Source de l’article

[ad]

Réduction de la production de froid dans un datacenter

0

Réduction de la production de froid dans un datacenter

Par défaut la température de reprise, ou consigne des climatiseurs se trouve aux alentours de 21 °C

Entre les spécifications climatiques actuelles des constructeurs, et les plages climatiques appliquées dans les salles informatiques, il y a un réel décalage. Le fait de climatiser nos salles dans des plages beaucoup plus restreintes que ce qui est nécessaire entraîne des surconsommations énergétiques très importantes.

Pour exemple, l’augmentation de 1°C de la température de reprise dans un datacenter dont la consommation informatique est de 250 kW peut vous faire gagner environ 10 kW/heure !

Aujourd’hui les équipements peuvent supporter des conditions climatiques beaucoup plus étendues que par le passé, sans défaut de fonctionnement, c’est pourquoi il faut revoir la stratégie à adopter au sein des datacenter en terme de reforidissement, regarder les tests effectué au nouveau-mexique par Intel pour vous en convaincre.

Le free cooling est aussi une option très intéressante surtout en ces périodes hivernale, ou la température extérieure est inférieure à celle nécessaire pour refroidir nos salles informatiques.

Il est a noter toutefois que les serveurs actuels régulent la vitesse de rotation des ventilateurs selon la température interne du serveur, si vous ne trouvez pas le bon conpromis de température de reprise de vos climatiseurs, certains serveurs de votre salle risque de consommer d’avantage et du coup le gain obtenu sur la clim n’aura aucun effet.

[ad]

Le concept du refroidissement par apport d’air frais revu

0

Voici l’article d’un site web KyotoCooling qui a une nouvelle approche très intéressante sur comment baisser la consommation d’ énergie des systèmes de refroidissement.
L’entreprise prend son nom de la Conférence de Kyoto, où nos gouvernements se sont réunis et ont convenu des objectifs pour réduire la production de carbone.
Dorénavant les coûts des changements et les coûts de refroidissement sont maintenant des objectifs marqués dans les agendas des DSI.

Ce concept offre une nouvelle approche en se débarassant des unités CRAC pour réguler la température de la zone de plancher surélevé en utilisant l’air extérieur.

cooling-concept

Voici ce qu’ils en disent :
Pour le bon fonctionnement des équipements du client dans un center de données, la température de l’air doit être stable ainsi que le taux d’humidité. L’ASHRAE recommande pour un bon fonctionnement des appareils une température entre 20 ° C et 25 ° C et une humidité comprise entre 40% et 55%.
Il devient important d’enlever l’air chaud et laisser refroidir l’air dans le center de données de manière à conserver un environnement de travail stable.
Pour se rafraîchir les datacenter utilise généralement un faux-plancher surélevé. Un flux d’air froid est soufflé par le biais de grilles d’aération. L’air rechauffé fait son chemin retour via un plenum à l’intérieur de la salle serveurs et est repris par le système de refroidissement pour être refroidi, filtré puis humidifié (ou déshumidifié) avant de retourner en salle par le faux plancher.
Le flux d’air est généralement refroidi au moyen d’un climatiseur individuel (CRAC). C’est normalement une unité de compression de refroidissement dans lequel un réfrigérant est compressé, bien que différents systèmes sont disponibles. Le flux d’air chauffé émet sa chaleur au réfrigérant ou à un liquide de refroidissement. Habituellement, l’eau est utilisée comme moyen intermédiaire pour libérer la chaleur produite par la salle informatique.
Les systèmes de refroidissement traditionnels se sont révélés très inefficaces à cause du mélange d’air chaud et froid et nécessitent une température d’apport d’air fourni le plus bas possible afin de compenser le montant de chaud et froid mélangé.
En conséquence, l’efficacité et le nombre d’heures que l’air de l’extérieur pourraient être utilisées est réduit de façon spectaculaire, il y a donc là un gaspillage d’ énergie considérable a revoir.
En conséquence, beaucoup plus d’énergie que ce qui est vraiment nécessaire est consommée et le coût de refroidissement est considérablement plus élevés que ce qu’ils pourraient l’être. Les frais pour le refroidissement par conséquent représente une part considérable du total des coûts opérationnels de la gestion d’une salle informatique.
Une nouvelle solution de refroidissement des datacenter, KyotoCooling, est basée sur l’usage d’un «échangeur de chaleur rotatif”. Le concept de KyotoCooling comporte un échangeur de chaleur air-air conçu comme une roue de chaleur, où l’air recyclé qui a été chauffé par l’équipement du client est fourni dans un premier flux d’air à l’échangeur de chaleur air-air, et ce premier flux d’air est ensuite refroidi en utilisant un deuxième flux d’air qui est fourni par Mère Nature via l’extérieur.
Ce système permet une capacité de refroidissement suffisamment grande et très efficace.
Le refroidissement est réalisé de manière beaucoup plus efficace et peut apporter des réductions considérables de l’énergie et des coûts de fonctionnement. L’impact environnemental est réduit de manière significative, en raison de l’énergie nettement inférieur à ce qui est nécessaire pour refroidir la pièce.

Apparemment KPN utilise déjà ce système pour refroidir certains de leur datacenter.

[ad]

Go to Top
%d bloggers like this: