Posts tagged cooling

Refroidissement de serveurs par immersion dans bain d’huile

0

Mise en place d’une solution innovante de refroidissement des serveurs par immersion dans l’huile, la société texane GRC pour Green Revolution Cooling l’a fait.

Green Revolution Cooling

L’huile est un meilleur conducteur de la chaleur que l’air, elle permet ainsi d’évacuer plus facilement la chaleur et surtout permet de faire de la haute densité avec un ration au m² impossible dans un environnement traditionnel refroidit à air.

Une densité supérieur à 100 kW IT pour un simple container de 42 U de large (dimension d’une baie serveur couché), imaginez un datacenter silencieux !

L’huile utilisée est non toxique, sans odeur et ne  dégrade pas les composants électroniques selon la société GRC Green Revolution Cooling.

Le seul prérequis pour pouvoir immergé un serveur est, de retirer préalablement les ventilateurs, de mettre les disques à l’extérieur ou de les protéger avec  un boitier étanche et de remplacer la patte thermique entre le processeur et le radiateur par une feuille spéciale.

Site du constructeur : GRC Green Revolution Cooling

Google dépose un nouveau brevet “les serveurs sandwich”

0

Google at-il adopté  le refroidissement liquide pour ses serveurs ?

google liquid cooling server patent

La société ne veut pas le dire, mais elle a breveté un nouveau concept de serveur sandwich dans lequel deux cartes mères sont attachés de chaque côté d’un dissipateur thermique à refroidissement liquide.

Ce concept fait partie d’un certain nombre de brevets Google sur les nouvelles techniques de refroidissement pour les serveurs à haute densité, qui sont apparues depuis la dernière communication de l’entreprise en avril 2009.

Plusieurs de ces brevets innovants concernent le refroidissement des serveurs en utilisant soit du liquide de refroidissement ou d’air de refroidissement appliqué directement sur les composants du serveur.

Source de l’article

Autre articles similaire sur ce site

Nouvelle conception de refroidissement Google

0

goog_cooling
Ce diagramme montre un nouveau système de refroidissement qui pourrait être utilisé dans un centre de données Google.

Nous avons ajouté de la couleur au schéma d’origine pour mettre en évidence les colonnes verticales (en bleu) et les lignes horizontal (en vert) qui apportent de l’air froid aux composants des serveur.

Les premiers serveurs 12 volts font leur apparition

0

La société “Rackable Systems” vient de dévoiler son premier système rackable qui ne nécessite pas d’alimentation ni de ventilation.

leur solution est composée de rack serveurs de 22 ou 44 RU, les serveurs “CloudRack C2″ n’ont pas d’alimentation 230v.  ni de ventilateur pour refroidir les composants.

La conversion AC/DC ainsi que le refroidissement est géré par le rack lui même, ce qui apporte un gain considérable énergétiquement parlant.

Ces serveurs peuvent fonctionner à des températures d’environ 37 °C

[ad]

Maintenez-vous toujours votre salle serveur à 20°C ?

Depuis quelque temps, des acteurs de premier plan dans l’industrie des datacenter ont élevé la température dans leur centre de données, ce qui a permit des économies qui se calcul en centaines de milliers d’Euros sur les coûts de l’infrastructure de climatisation.
La liste des sociétés qui chante les louanges de cette épargne grâce à des réglages de température de référence dans leur centre de données sont entre autres Google, Intel, Sun et HP.

Le premier groupe industriel des professionnels de chauffage et de refroidissement a rejoint la chorale cette semaine. Il s’agit de L’American Society for Heating, Refrigerating and Air-conditioning Engineers (ASHRAE), qui a étendu ses recommandations concernant la température la plus haute de l’air ambiant  des datacenter, soulevant sa limite supérieure recommandée de 25 degrés à 27 degrés.

Cela permet aux gestionnaires de datacenter d’économiser jusqu’à 4 pour cent des coûts d’énergie pour chaque changement de degré en hausse sur la température de référence, qui est plus connu comme point de réglage (Set Point).
Plus le point de réglage est élevé, moins de temps de fonctionnement sur les climatiseurs, ce qui permet d’économiser considérablement de l’énergie pour faire fonctionner ces systèmes de refroidissement.

Pour éviter des points chaud en changeant drastiquement le point de réglage de vos climatiseurs il est nécessaire de mettre en place un monitoring poussé de la température de vos racks.

Il existe plusieurs sondes le permettant, moi j’utilise principalement Frogd ainsi que les sondes internes des serveurs (IPMI, sensors, etc…), cela m’a permit de passe de 21 à 24 °C sans aucun problème de fonctionnement dans ma salle serveurs et avec une réduction de 12 % de l’énergie nécessaire pour refroidir la salle (4% par degré)

ASHRAE a approuvé la recommandation de modification des températures de fonctionnement cette semaine lors de sa réunion à Chicago.

Mark Fontecchio de Tech Target a ajouté un point sur les déclaration de l’ASHRAE et sur l’impact de la hausse des points de réglage :

– Plus de bruit dans les datacenter car les fans des serveur deviennent plus actifs

– On grille d’avantage dans les allées chaude qui sont souvent 16 degrés plus chaude que les allées froide, soit plus de 40 °C.

D’autres article sur le même sujet dans ce site

Article traduit de l’anglais Source de l’article

[ad]

Réduction de la production de froid dans un datacenter

0

Réduction de la production de froid dans un datacenter

Par défaut la température de reprise, ou consigne des climatiseurs se trouve aux alentours de 21 °C

Entre les spécifications climatiques actuelles des constructeurs, et les plages climatiques appliquées dans les salles informatiques, il y a un réel décalage. Le fait de climatiser nos salles dans des plages beaucoup plus restreintes que ce qui est nécessaire entraîne des surconsommations énergétiques très importantes.

Pour exemple, l’augmentation de 1°C de la température de reprise dans un datacenter dont la consommation informatique est de 250 kW peut vous faire gagner environ 10 kW/heure !

Aujourd’hui les équipements peuvent supporter des conditions climatiques beaucoup plus étendues que par le passé, sans défaut de fonctionnement, c’est pourquoi il faut revoir la stratégie à adopter au sein des datacenter en terme de reforidissement, regarder les tests effectué au nouveau-mexique par Intel pour vous en convaincre.

Le free cooling est aussi une option très intéressante surtout en ces périodes hivernale, ou la température extérieure est inférieure à celle nécessaire pour refroidir nos salles informatiques.

Il est a noter toutefois que les serveurs actuels régulent la vitesse de rotation des ventilateurs selon la température interne du serveur, si vous ne trouvez pas le bon conpromis de température de reprise de vos climatiseurs, certains serveurs de votre salle risque de consommer d’avantage et du coup le gain obtenu sur la clim n’aura aucun effet.

[ad]

Le concept du refroidissement par apport d’air frais revu

0

Voici l’article d’un site web KyotoCooling qui a une nouvelle approche très intéressante sur comment baisser la consommation d’ énergie des systèmes de refroidissement.
L’entreprise prend son nom de la Conférence de Kyoto, où nos gouvernements se sont réunis et ont convenu des objectifs pour réduire la production de carbone.
Dorénavant les coûts des changements et les coûts de refroidissement sont maintenant des objectifs marqués dans les agendas des DSI.

Ce concept offre une nouvelle approche en se débarassant des unités CRAC pour réguler la température de la zone de plancher surélevé en utilisant l’air extérieur.

cooling-concept

Voici ce qu’ils en disent :
Pour le bon fonctionnement des équipements du client dans un center de données, la température de l’air doit être stable ainsi que le taux d’humidité. L’ASHRAE recommande pour un bon fonctionnement des appareils une température entre 20 ° C et 25 ° C et une humidité comprise entre 40% et 55%.
Il devient important d’enlever l’air chaud et laisser refroidir l’air dans le center de données de manière à conserver un environnement de travail stable.
Pour se rafraîchir les datacenter utilise généralement un faux-plancher surélevé. Un flux d’air froid est soufflé par le biais de grilles d’aération. L’air rechauffé fait son chemin retour via un plenum à l’intérieur de la salle serveurs et est repris par le système de refroidissement pour être refroidi, filtré puis humidifié (ou déshumidifié) avant de retourner en salle par le faux plancher.
Le flux d’air est généralement refroidi au moyen d’un climatiseur individuel (CRAC). C’est normalement une unité de compression de refroidissement dans lequel un réfrigérant est compressé, bien que différents systèmes sont disponibles. Le flux d’air chauffé émet sa chaleur au réfrigérant ou à un liquide de refroidissement. Habituellement, l’eau est utilisée comme moyen intermédiaire pour libérer la chaleur produite par la salle informatique.
Les systèmes de refroidissement traditionnels se sont révélés très inefficaces à cause du mélange d’air chaud et froid et nécessitent une température d’apport d’air fourni le plus bas possible afin de compenser le montant de chaud et froid mélangé.
En conséquence, l’efficacité et le nombre d’heures que l’air de l’extérieur pourraient être utilisées est réduit de façon spectaculaire, il y a donc là un gaspillage d’ énergie considérable a revoir.
En conséquence, beaucoup plus d’énergie que ce qui est vraiment nécessaire est consommée et le coût de refroidissement est considérablement plus élevés que ce qu’ils pourraient l’être. Les frais pour le refroidissement par conséquent représente une part considérable du total des coûts opérationnels de la gestion d’une salle informatique.
Une nouvelle solution de refroidissement des datacenter, KyotoCooling, est basée sur l’usage d’un «échangeur de chaleur rotatif”. Le concept de KyotoCooling comporte un échangeur de chaleur air-air conçu comme une roue de chaleur, où l’air recyclé qui a été chauffé par l’équipement du client est fourni dans un premier flux d’air à l’échangeur de chaleur air-air, et ce premier flux d’air est ensuite refroidi en utilisant un deuxième flux d’air qui est fourni par Mère Nature via l’extérieur.
Ce système permet une capacité de refroidissement suffisamment grande et très efficace.
Le refroidissement est réalisé de manière beaucoup plus efficace et peut apporter des réductions considérables de l’énergie et des coûts de fonctionnement. L’impact environnemental est réduit de manière significative, en raison de l’énergie nettement inférieur à ce qui est nécessaire pour refroidir la pièce.

Apparemment KPN utilise déjà ce système pour refroidir certains de leur datacenter.

[ad]

Free Cooling

0

Le free cooling ou froid gratuit est de plus en plus à l’ordre du jour pour des raisons essentiellement économique.
Il consiste à prendre l’air frais de l’extérieur lorsque celui-ci est suffisamment frais.

Un datacenter nécessite de refroidir les serveurs 24 heures par jour, 7 jours sur 7 et 365 jours par an, à des températures comprises entre 20°C et 22°C, autant dire que sur une année calendaire rare son les régions (du moins en Europe) qui ont des températures constamment supérieures à ces valeurs.

Utiliser l’air frais lorsque celui-ci est inférieur à ces températures apporte un gain sur la facture électrique de l’ordre de plus de 70%, faite vos calculs !!!.

Il faut tout de même penser à contrôler la qualité de l’air (poussière) ainsi que le taux d’humidité.

Une autre méthode de free cooling qui ne nécessite pas de gros investissement, mais permet de profiter de cet air frais extérieur c’est de l’emmener vers le plenum (s’il y en a un).

Si votre salle informatique est équipé d’un plenum (faux plafond), l’air chaud qui y circule en direction des climatiseurs peu y être refroidi par l’air extérieure ce qui sollicitera moins vos climatiseurs permettant du coup de faire de sacré économie.

[ad]

Avez-vous une vraie stratégie pour réduire la consommation de votre datacenter ?

0

Est-ce que votre direction du SI a défini des directives sur un tableau blanc ?
Est-ce que vos démarches vont dans le sens de réduire les émissions de co2 en investissant dans des infrastructures de vidéoconférence pour les travailleurs à distance ?
La réponse est probablement oui.

Il y a un énorme décalage entre les installations et l’informatique. Dans une récente enquête SearchDataCenter.com, un tiers des répondants ont dit qu’ils ne savaient même pas comment réduire leurs factures électrique.

Voici une feuille de route pour un datacenter vert basée sur des interviews d’experts et de conseils de SearchDataCenter.com.

Étape 1, Faite une présentation à vos managers indiquant l’empreinte énergétique du datacenter :

– Qui paie la facture d’électrique du Datacenter ?
– Quel est le coût mensuel d’avoir des serveurs en fonctionnement h24 ?
– Quel est la tendance de prix du kWh des 24 derniers mois ?
– Quel est la tendance de prix du kWh pour les 24 prochains mois ?
– Quel seront vos besoin pour les mois et les années à venir ?
– Quel seront les coûts d’extension de votre datacenter ?

Ne parlez pas de kWh. Au lieu de cela, expliquer que vous dépensez X euros pour fournir ce service aujourd’hui, et vous pensez que vous pouvez réduire les dépenses et de fournir le même niveau de service.

Étape 2, Lancez-vous dans les calculs de PUE “Power Usage Effectiveness”

Pour obtenir une base de référence de la quantité d’énergie utilisée pour les serveurs et combien de cette énergie est en train de se perdre sur le refroidissement et l’infrastructure.
Définir des objectifs pour améliorer le rapport. Mesure de la même manière constante, au fil du temps. Gardez un oeil sur l’ASHRAE pour plus de détails sur les meilleures pratiques verte.

Étape 3, Débarrassez-vous des serveurs plus utilisés mais toujours en salle serveurs

L’ Uptime Institute a estimé à environ un tiers les serveurs des Datacenters qui ne sont plus utilisés. Auditez votre matériel, faites le démantèlement des machines plus fonctionnelles et sortez les de vos salles.
Trop souvent, les entreprises laissent les serveurs de production non utilisés en place, les utilisent ailleurs (serveur d’essai ou de développement bacs à sable).
Déclassé les serveurs, oui mais comment vous débarrasser d’eux ?:

* maintenir une base à jour pour savoir ce qu’ils sont censés faire.
* Pour les serveurs inconnus, demandez “A qui sont ces serveurs?”
* Si vous n’avez pas de réponse, donner leurs 90 jours, débranchez-les et si personne ne crie c’est qu’ils ne sont pas utilisés.
* Si quelqu’un crie car il a besoin de l’application mais pas besoin du serveur, expliqué-lui que vous aller la virtualiser sur un serveur plus pluissant, il sera content.

Dans une prochaine étape, chercher à virtualiser et a consolider.

Étape 4, tuné la configuration de vos allées chaudes

Au cours des dernières années les allées alternées chaud-froid sont devenues de facto des bonnes pratiques des datacenters.
Mais avec l’augmentation de la densité, les gains d’efficacité se sont érodés.
Les allées chaudes/froides sont soignées dans les dessins, mais dans la pratique, jusqu’à 40% de l’air ne fait pas sont travail.
L’air chaud passe par les sommets des racks et autour des allées, ou à travers les trous dans le sol où il n’est pas nécessaire.
Les professionels des datacenters peuvent faire d’énormes gains en obturant les trous et en reconfigurant les unités de traitement de l’air.

* Un faux-plancher de 40 cm de haut est le minimum recommandé.
* Gardez-le propre! Débarrassez-vous de l’encombrement de votre plancher surélevé, comme les câbles ou les tuyaux. Faite faire un nettoyage périodiquement. La poussière et les débris peuvent entraver la circulation de l’air.
* Enlevez les dalles perforées superflu, dans les allées chaude par exemple.
* Eliminez les fuites d’air en utilisant des joints en caoutchouc sous les dalles.
* Utilisez des obturateurs de baies pour éviter le mélange de l’air chaud avec l’air frais et évitez que l’air frais parte directement dans les allées chaudes.

Certains gestionnaires de datacenters mettent des rideaux en plastique pour confiner les allées froides, ce systèmes permet de faire d’énormes économies d’énergie.
Lors de ces ajustements, les gestionnaires des datacenters ont besoin de vérifier soigneusement la façon dont ces changements ont une incidence sur les températures et l’énergie, si vous n’avez pas de sonde de température sur vos baies faites appel à des experts qui pourront réaliser des mesures pre et post opération.

Aucune de ces suggestions n’est révolutionnaires.
Le meilleur conseil pour les dirigeants en mal de “Green IT” est de faire une vrai feuille de route, de comptabiliser les coûts de l’énergie utilisée dans les datacenters et d’en mesurer les gains après changements.

[ad]

Comment Google compte puiser de l’énergie dans l’océan

La récente demande de brevet pour un Data Center flottant par Google a déclenché beaucoup de discussions au sein de l’industrie des Data Center.

Une des plus intéressantes facettes du concept est l’emploi de l’action des vagues pour produire de l’électricité, fournissant potentiellement une source d’énergie qui est à la fois écologique et bon marché.

Le concept de Google est basé sur les réseaux électriques de Pelamis, une société britannique qui a développé d’énormes “serpents de mer” composé d’une série de cylindre flottant.

La première expérience commerciale sera réalisé cette semaine au large des côtes du Portugal, et offrira jusqu’à à 2,25 mégawatts d’énergie électrique.

Voici une brève vidéo offrant plus de détails sur la production d’électricité par les Pelamis .

Cette vidéo dure environ 1 minute.

[ad]

Go to Top
%d bloggers like this: