cooling

about cooling knowledge

Still Cooling Your Data Center?

0

Refroidissement de serveurs par immersion dans bain d’huile

0

Mise en place d’une solution innovante de refroidissement des serveurs par immersion dans l’huile, la société texane GRC pour Green Revolution Cooling l’a fait.

Green Revolution Cooling

L’huile est un meilleur conducteur de la chaleur que l’air, elle permet ainsi d’évacuer plus facilement la chaleur et surtout permet de faire de la haute densité avec un ration au m² impossible dans un environnement traditionnel refroidit à air.

Une densité supérieur à 100 kW IT pour un simple container de 42 U de large (dimension d’une baie serveur couché), imaginez un datacenter silencieux !

L’huile utilisée est non toxique, sans odeur et ne  dégrade pas les composants électroniques selon la société GRC Green Revolution Cooling.

Le seul prérequis pour pouvoir immergé un serveur est, de retirer préalablement les ventilateurs, de mettre les disques à l’extérieur ou de les protéger avec  un boitier étanche et de remplacer la patte thermique entre le processeur et le radiateur par une feuille spéciale.

Site du constructeur : GRC Green Revolution Cooling

Yahoo : l’efficacité de la ventilation sera la prochaine étape

0

Dans ses efforts continus visant à rendre ses centres de données plus efficace, Yahoo a déjà éliminé l’utilisation des humidificateurs et des refroidisseurs dans ses installations.

Quelle est la prochaine étape ?
La ventilation, selon Scott Noteboom, directeur global data center operations pour Yahoo, dit que la compagnie s’occupe actuellement au développement de nouveaux rack  et de plateaux pour accueillir les serveurs.

Lors d’une présentation lundi à la conférence “World AFCOM Data Center” à Las Vegas, S.Noteboom a présenté l’évolution de la conception des datacenter  Yahoo, améliorant l’efficacité énergétique systématiquement lors de chaque nouvelle installation.

Le plus récent datacenter Yahoo (Yahoo Computing Coop) qui rappelle le poulailler, ouvert la semaine dernière dans l’État de New York, est presque entièrement refroidi par l’air frais, résultant une efficacité énergétique exceptionnelle.
Yahoo se concentre maintenant sur la conception des racks et des supports plateaux des serveurs.

Le but ?
Réduire la quantité d’énergie utilisée par les ventilateurs du serveur, qui augmente sa vitesse de rotation pour extraire l’air chaud lorsque la température augmente dans le rack.

L’augmentation de la température dans le centre de données permet d’économiser beaucoup d’argent sur les coûts de l’énergie, mais des études ont permit de constater que si vous pousser le thermostat trop haut, les économies d’énergie peuvent s’évaporer, car utilisé pour la ventilation des serveurs.

Yahoo exploite actuellement ses datacenter avec une température d’entrée au serveur ciblé à 23.8 degrés Celsius. Lorsque la température monte à 25.5 ou 26.6 degrés Celsius, cela augmente l’activité de la ventilation.
S. Noteboom dit :
la plupart des constructeurs de serveurs disent que leur équipements peuvent fonctionner à des températures beaucoup plus élevées que 26.6 degrés C, mais comment les opérateurs des centre de données peuvent  prendre le contrôle des  fans des serveur ?
Cela implique de travailler avec les fournisseurs pour la conception des plateaux et des racks avec de la ventilation à l’arrière, mais cela est difficile d’obtenir des fabricants de serveurs des conceptions autre que leurs modèles exclusifs.

Il y a au moins un fournisseur de serveur qui a développé un support qui adoptent ce concept.
En 2008, SGI (alors connu sous le nom Rackable) a introduit CloudRack, qui présente des serveurs sans couvercles et sans ventilateur, utilisant de plus grands ventilateur sur la porte arrière pour refroidir l’équipement.

Article original : datacenterknowledge.com

Google dépose un nouveau brevet “les serveurs sandwich”

0

Google at-il adopté  le refroidissement liquide pour ses serveurs ?

google liquid cooling server patent

La société ne veut pas le dire, mais elle a breveté un nouveau concept de serveur sandwich dans lequel deux cartes mères sont attachés de chaque côté d’un dissipateur thermique à refroidissement liquide.

Ce concept fait partie d’un certain nombre de brevets Google sur les nouvelles techniques de refroidissement pour les serveurs à haute densité, qui sont apparues depuis la dernière communication de l’entreprise en avril 2009.

Plusieurs de ces brevets innovants concernent le refroidissement des serveurs en utilisant soit du liquide de refroidissement ou d’air de refroidissement appliqué directement sur les composants du serveur.

Source de l’article

Autre articles similaire sur ce site

Free cooling dans le sud de la france

1

Bonjour,

Aujourd’hui je vais vous parler d’un projet que je mène dans un datacenter du sud de la France.

Free cooling direct, ou Total Free cooling, vous connaissez ?

Il s’agit de refroidir l’air d’une salle informatique avec l’air extérieur.

Le datacenter en question, est situé dans le sud de la France, dans la région PACA, à Sophia-Antipolis, pour vous dire que le projet est osé puisqu’il s’agit d’une des régions de France les plus chaude.

Et bien ça marche quand même et pas qu’un peu, je vous explique.

Il est refroidi avec l’air frais extérieur tant que cet air ne dépasse pas les 16°C  on est en full free cooling, 0% de production de froid, c’est mère nature qui s’en charge.

A partir de 16°C et jusqu’à 25°C il y a entre 0 % et 20 % de production de froid pour une période de 24 heures,  puis à partir de 25°C  les centrales de traitement d’air s’arrêtent et n’apportent plus d’air extérieur dans la salle informatique car l’air serait trop chaud.

Vous allez me dire, mais à combien refroidissez-vous votre centre informatique ?

Et bien, je me suis basé sur les recommandations de l’ASHRAE 2008 (TC 9.9)

ASHRAE TC 9.9 Recommended Allowable
Temperature 18-27 deg C (64.4- 80.6 Degrees F) 15-32 deg C (59-90 Degrees F)
Humidity 5.5-15 deg C Dew Point (41.9-59 Degrees F ) 20%-80% RH

** Ces conditions sont pour l’air rentrant dans les équipements informatique **

et ça fonctionne comme ça depuis un an …

Mais il ne s’agit pas simplement d’augmenter les consignes de fonctionnement, il y a tout un travail en amont, comme le cloisonnement des couloirs froids, l’optimisation de la circulation de l’air dans les faux planchers, etc…

HP ouvre un datacenter refroidi à l’eau de pluie

0

HP vient d’ouvrir un centre de données refroidi entièrement grâce aux vents extérieurs et l’eau de pluie et disposant d’un rendement 40 % supérieur aux centres traditionnels.

Son système permet de garder les couloirs à une température de 24 °C. Il faut dire que le centre d’HP se trouve dans le nord-est de l’Angleterre, à Wynyard, où la température extérieure ne dépasse les 24 °C que 20 heures par an, en moyenne. Pour arriver à ses fins, la firme utilise des éoliennes et huit ventilateurs en plastique et en acier de 2,2 m de diamètre dans chacun des quatre halls pour souffler de l’air et huit autres sont utilisés comme sortie d’air.

Il y a aussi un système pour recueillir l’eau de pluie qui est filtrée et stockée dans des cuves de 80 000 litres. L’eau est ensuite utilisée pour maintenir les bons niveaux d’humidité dans l’air.

Enfin, nous avons découvert un détail intéressant : HP utilise des racks de couleurs clairs, ce qui permet de réduire la lumière ambiante de 40 %, une mesure très facilement applicable à toutes les entreprises.

Une fois terminé, Wynyard sera le plus grand centre de données européen et alors qu’un établissement moyen devrait coûter 15,33 millions de dollars (11,22 millions d’euros) par an rien que pour les systèmes de refroidissement, HP prévoit d’économiser 1,4 million de dollars (env. 1,02 million d’euros) par hall, soit un gain total de 5,6 millions de dollars (env. 4,10 millions d’euros).

Source HP (anglais)

Free Cooling – La carte de l’europe

0

Cartographier l’Europe n’est pas une tâche facile.

Avec ses frontières puis un service météo qui n’est pas commun à toute l’Europe, il est bien plus facile de cartographier les États-Unis que l’Europe.

Le consortium Green Grid a étendu son outil gratuit de cartographie, qui permet de savoir combien d’heures de fonctionnement je peux estimé  pouvoir profiter pour refroidir mon datacenter.

L’outil est basé sur les travaux effectués aux États-Unis et dans une moindre mesure, au Japon.
Il a été repensé pour devenir plus compréhensible, la première version englobé trop de paramètre et certains utilisateurs étaient dans l’incapacité de comprendre les résultats ainsi obtenu.

Cet outil gratuit pour la zone EMEA contient des informations de 608 stations météorologiques à travers l’Europe.
La base de données se compose de toutes les observations horaires disponibles prises au cours de la période s’étendant de 1999 à 2008.

Le nombre total d’heures de refroidissement “gratuit” disponible sera toujours de 0 à 8760 heures.

L’outil est valable pour les pays européens suivants:

Allemagne, Arménie, Autriche, Azerbaïdjan, Bélarus, Belgique, Bulgarie, République tchèque, Danemark, Estonie, Finlande, France, Géorgie, Allemagne, Grèce, Hongrie, Irlande, Italie, Lettonie, Lituanie, Macédoine, Pays-Bas, Norvège, Pologne, Portugal, Roumanie, Fédération de Russie, Slovaquie, Slovénie, Espagne, Suède, Suisse, Ukraine et Royaume-Uni.

Lien de l’outil The Green Grid


Map Free cooling AIR
airside_FC

Map Free cooling EAU
FC_Europe



Un Datacenter géothermique

0

Les systèmes de refroidissement géothermique ne sont pas encore très utilisé dans les centres de données.

Une des premières implementation a l’utiliser est le nouveau datacenter de “l’American College Testing” à Iowa City.

Le datacenter de l’Iowa a été certifié platinium par le programme américain LEED “Leadership in Energy and Environmental Design (LEED), un système de notation pour les centre de données volontaires a être  supervisé par le US Green Building Council, concernant les bâtiments efficacement énergétique.

L’ACT “American College Tesing” est le premier datacenter a obtenir une certification platinium aux états-unis.

Un centre de données de Citigroup en Allemagne, a déjà obtenu le statut platinium, tandis que Advanced Data Centers à Sacramento a été pré-certifié pour le statut Platinium.

L’ACT est un bâtiment ouvert en février 2008 de 750  m² dont 375 m² de salles informatique.

L’installation est refroidie par géothermie – un système de tuyauterie fermé sous terre, la terre permet de refroidir le système de tuyauterie souterrain, il a également un système de refroidissement extérieur comme backup du système géothermique.

Le bâtiment a d’autre attribut, comme des onduleurs a haut rendement, 30% du bâtiment est construit avec des matières recyclées ainsi que de nombreux objet de décoration en matière renouvelable.

Le nom du projet pendant sa phase de construction a été “durabilité”, aucun élément n’a été laissé au hazard.

  • Pour plus d’informations sur l’utilisation de systèmes géothermiques dans les centres de données, voir cet article de John Peterson de HP Mission Critical Facilities.
  • Voir la liste des datacenter certifié par  la LEED
  • Voir la carte des régions candidate aux freecooling aux US
  • Voir d’autre article sur l’ACT datacenter, GreenerComputing et Environmental Leader.
  • Pour un aperçu conceptuel du refroidissement par la géothermie,  voir cette vidéo (hélas, précédé par un “pre-roll” de publicité).

Datacenter Full FreeCooling Google

0

Google a ouvert en Belgique un datacenter qui ne sera refroidit qu’à l’air libre.

Google mise sur le climat belge pour refroidir son centre de données, en se basant sur la température moyenne de cette région belge (Saint-Ghislain), seulement 7 jours de l’année la température dépasserait le seuil critique.

En cas de température trop élevée, soit 26 degrés selon Google, l’entreprise désactivera les équipements du centre, transférant la charge de travail à d’autres centres informatiques.
La construction du site de Saint-Ghislain a débuté en 2008

Cold Corridor

2

Je vais essayer de vous faire un retour d’expérience concernant la mise en place de cold corridor (confinement des allées froides) en salle serveurs.

Dans un précédent article de ce site, je présentais comment améliorer l’efficacité de refroidissement de la salle par de petites bonnes pratiques qui ne demandent pas d’énormes investissements.

Il n’est pas nécessaire de recourir à une solution cold corridor clef en main, comme peuvent le proposer certains fabricants.

Le cold corridor peut et fonctionne aussi bien en confinant le froid avec des rideaux plastiques comme le montre cette photo.
cloison pour allées froide dans datacenter

Les avantages d’une solution comme celle-ci :

– Permet d’augmenter la densité des racks, on peut installer des serveurs en haut des racks
– Permet d’augmenter les consignes de températures selon les recommandations ASHRAE 2008
– Permet de bénéficier à 100% de l’efficacité du système de climatisation
– Permet de réduire le nombre de cycle de production de froid (économie d’énergie)
– Permet de réduire l’empreinte carbone

Les inconvénients :

– Le cloisonnement engendre une montée en température accélérée en cas de panne
– Surcoût à considérer pour mettre le corridor aux normes DI/EAI (détection/extinction incendie)

Le constat :

Le cold corridor permet d’uniformiser les températures et hygrométrie de la zone et ceci à n’importe quelle hauteur du rack et d’augmenter les vitesses de soufflage.
– Un résultat immédiat sur un changement des consignes de froid
– Solution optimisée par un couplage avec du FreeCooling (+ d’heures de fonctionnement en Free Cooling)
– Réduction de l’ordre de 15% à 20% de la consommation du poste de climatisation

Les résultats sont en tout cas surprenant :

cold_corridor

Conclusion :

On voit qu’il est intéressant de cloisonner le froid.

Si on estime que la température de soufflage (en façade des serveurs) de 24 °C est suffisante, et que la redondance des groupes de froid permet de palier une panne sans mettre en péril l’infrastructure donc une montée rapide en température, le potentiel économisé sera d’environ 20%  sur la production de froid, sans oublier les avantages citées plus haut.

Go to Top
%d bloggers like this: