Posts tagged datacenter vert

Un Datacenter géothermique

0

Les systèmes de refroidissement géothermique ne sont pas encore très utilisé dans les centres de données.

Une des premières implementation a l’utiliser est le nouveau datacenter de “l’American College Testing” à Iowa City.

Le datacenter de l’Iowa a été certifié platinium par le programme américain LEED “Leadership in Energy and Environmental Design (LEED), un système de notation pour les centre de données volontaires a être  supervisé par le US Green Building Council, concernant les bâtiments efficacement énergétique.

L’ACT “American College Tesing” est le premier datacenter a obtenir une certification platinium aux états-unis.

Un centre de données de Citigroup en Allemagne, a déjà obtenu le statut platinium, tandis que Advanced Data Centers à Sacramento a été pré-certifié pour le statut Platinium.

L’ACT est un bâtiment ouvert en février 2008 de 750  m² dont 375 m² de salles informatique.

L’installation est refroidie par géothermie – un système de tuyauterie fermé sous terre, la terre permet de refroidir le système de tuyauterie souterrain, il a également un système de refroidissement extérieur comme backup du système géothermique.

Le bâtiment a d’autre attribut, comme des onduleurs a haut rendement, 30% du bâtiment est construit avec des matières recyclées ainsi que de nombreux objet de décoration en matière renouvelable.

Le nom du projet pendant sa phase de construction a été “durabilité”, aucun élément n’a été laissé au hazard.

  • Pour plus d’informations sur l’utilisation de systèmes géothermiques dans les centres de données, voir cet article de John Peterson de HP Mission Critical Facilities.
  • Voir la liste des datacenter certifié par  la LEED
  • Voir la carte des régions candidate aux freecooling aux US
  • Voir d’autre article sur l’ACT datacenter, GreenerComputing et Environmental Leader.
  • Pour un aperçu conceptuel du refroidissement par la géothermie,  voir cette vidéo (hélas, précédé par un “pre-roll” de publicité).

Datacenter Full FreeCooling Google

0

Google a ouvert en Belgique un datacenter qui ne sera refroidit qu’à l’air libre.

Google mise sur le climat belge pour refroidir son centre de données, en se basant sur la température moyenne de cette région belge (Saint-Ghislain), seulement 7 jours de l’année la température dépasserait le seuil critique.

En cas de température trop élevée, soit 26 degrés selon Google, l’entreprise désactivera les équipements du centre, transférant la charge de travail à d’autres centres informatiques.
La construction du site de Saint-Ghislain a débuté en 2008

A l’intérieur d’un Datacenter de Google

0

Google va bientôt publier des vidéos d’un grand nombre de sessions présenté à la Google Data Center Efficiency Summit qui a eu lieu mercredi, à Mountain View, Californie.

En attendant, voici un avant-goût avec une vidéo d’un centre de données Google, qui utilise des conteneurs de transport pour stocker les serveurs et le stockage.

Le sommet a été un événement pour les ingénieurs et les cadres supérieurs du métier, avec comme sujet, les innovations pour améliorer l’efficacité des centres de données.

Google a été un des premier à les utiliser car il a construit cette installation fin  2005.

Le “Hangar” est rempli de 45 conteneurs, certains sont stockés sur les autres.

Chaque conteneur peut contenir jusqu’à 1160 serveurs et utilize 250 kilowatts d’énergie électrique.

La densité est de 8 kW par m² et la température des allées chaude ne dépasse pas les 27 degrés celsius.

Cette vidéo dure environ 5 minutes et 45 secondes.

[ad]

Les centres de données, de plus en plus gourmands en énergie

0

La chasse au “gaspi” dans les centres de données est ouverte. Ces immenses salles, appelées aussi “data centers”, composées de multiples serveurs informatiques qui stockent les informations nécessaires aux activités des entreprises, sont devenues de véritables gouffres énergétiques.

Selon une étude menée par des chercheurs européens dans le cadre du programme de l’Union européenne “Energie intelligente – Europe”, les 7 millions de centres de données recensés dans les pays de l’Union européenne consommeraient, chaque année, 40 milliards de kilowattheures, soit l’équivalent de l’énergie utilisée annuellement par une grande agglomération française pour son éclairage public. Si rien n’est fait, cette consommation électrique pourrait, d’ici à 2011, augmenter de 110 % par rapport à 2006, estime l’enquête qui sera complétée au printemps par des études de cas en entreprises.

“Dans les prochaines années, la croissance des nouveaux data centers sera faramineuse. Si on ne prend pas des mesures maintenant, on va dans le mur !” s’alarme Alain Anglade, chercheur au sein de l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe) et membre de l’équipe de chercheurs. Encore modeste à l’échelle de l’Hexagone, l’énergie utilisée par les centres de données (4 à 6 milliards de kilowattheures) représente 1 % de la consommation d’électricité du pays. Un pourcentage appelé à croître rapidement en raison de la diffusion rapide des nouvelles technologies informatiques. Les banques, par exemple, soumises à des réglementations croissantes en termes de stockage et traitements de leurs données informatiques, sont déjà contraintes d’agrandir leurs centres de données.

Le gouvernement français a saisi l’occasion du plan France numérique 2012, lancé en octobre 2008, par le secrétariat d’Etat au développement de l’économie numérique pour créer un observatoire des centres de données. A horizon de dix-huit mois environ, il permettra aux entreprises de se comparer entre elles et de les aider à prendre des mesures pour qu’elles diminuent la consommation énergétique de leurs machines, explique en substance Alain Anglade, un des responsables du projet pour qui “les entreprises sont déjà sensibilisées car ce gaspillage commence à leur coûter beaucoup d’argent”. Cette mise en commun devrait également permettre aux entreprises d’anticiper sur la création de nouvelles normes environnementales plus contraignantes au niveau européen.

Parallèlement, le ministère de l’économie et des finances vient de lancer un groupe de réflexion. Baptisé “Green ITW” et dirigé par Michel Petit, membre de l’Académie des sciences, il doit proposer, d’ici à mai, des solutions pour une “utilisation éco-responsable” des centres de données. En clair, comment faire des économies d’énergie sans pénaliser les entreprises dans l’utilisation de leurs outils informatiques. Selon l’étude européenne déjà citée, près de 12 milliards d’euros pourraient être économisés grâce à de nouveaux équipements moins gourmands en électricité et des techniques plus efficaces de ventilation des salles.

L’Allemagne a, de son côté, déjà entrepris de lutter contre le gaspillage énergétique des “data centers”. Depuis l’été dernier, un guide est à disposition des entreprises pour leur faire prendre conscience du problème et les pousser à investir dans des équipements plus efficaces. Bien décidé à montrer l’exemple, le ministère fédéral de l’environnement a annoncé en novembre 2008 avoir baissé la consommation d’électricité de ses propres serveurs de 60 %, soit une économie de CO2 de 44 tonnes.

Particulièrement concernés, les géants de l’informatique cherchent eux aussi déjà à réduire la facture énergétique de leurs data centers devenus gigantesques pour stocker e-mails, vidéos et autres documents disponibles en un seul clic. Récemment, Google, Yahoo ! ou encore Microsoft ont installé certains de leurs sites informatiques sur les bords de grands cours d’eau américains. Ils souhaitent pouvoir refroidir plus facilement leurs machines et utiliser les centrales hydrauliques proches pouvant leur fournir de l’électricité moins chère.

Jouant la carte du développement durable, Google affirme avoir investi 45 millions de dollars dans les énergies renouvelables. Le mastodonte américain a même déposé un brevet pour pouvoir installer des centres informatiques alimentés par l’énergie des vagues et refroidis par l’eau de mer sur des plates-formes flottantes.

Source de l’article

[ad]

Intel test la puissance solaire dans un DataCenter

0

Intel a installé des panneaux solaires dans une usine de Rio Rancho au Nouveau-Mexique afin de tester le potentiel d’utilisation de l’énergie solaire photovoltaïques (PV) pour fournir de l’énergie pour les centres de données.
La gamme constituée de 64 panneaux solaires Sharp va générer 10 kilowatts d’électricité, juste une fraction de la quantité nécessaire pour alimenter la plupart des centres de données. Mais le projet pourrait “potentiellement ouvrir la voie à un programme plus agressif dans l’énergie solaire Intel”, selon Marty Sedler, directeur mondial pour les services publics et l’infrastructure d’Intel.

Les test seront réalisés premièrement dans le cadre des datacenter de type contenaire.

L’énergie solaire n’a pas jusqu’ici été largement utilisé dans les centres de données en raison de la grande quantité d’énergie requise pour alimenter les serveurs et le matériel de refroidissement.
Il exige une très grande installation de panneaux solaires PhotoVoltaique pour produire une fraction de l’énergie requise par la plupart des centres de données.

Lors du dernier salon du CeBIT de Mai 2008, Sun Microsystems a montré un contenaire “Blackbox Solaire” raccordé à un réseau de panneaux solaires d’environ 200 mètres carrés, qui produit environ 10 kilowatts de puissance. C’est à peine assez de puissance pour un rack à haute densité dans une Blackbox.
Selon certaines estimations, il faut jusqu’à 30 km carrés de panneaux solaires pour générer 1 mégawatt de puissance. Un autre obstacle est le coût. Google évangélise une approche “énergie verte”, le projet de loi “Weihl”, a déclaré l’année dernière que l’énergie solaire photovoltaïque coûte actuellement environ 15 à 20 centimes le kilowatt, ce qui est «totalement hors de portée” avec toutes les autres sources d’énergie.

Le seul datacenter actuellement entièrement alimenté par l’énergie solaire PV est AISO (Affordable Internet Services Online), qui exploite une installation d’environ 460 mètres carrés à Romoland (US), en Californie, pour une salle serveurs de 120 mètres carrés.
Le datacenter AISO avec ses 120 panneaux solaires génèrent du courant continu, qui est ensuite géré par le biais d’un onduleur et stocké dans des batteries.

L’année dernière, Intel a utilisé de l’air extérieur pour refroidir un datacenter au Nouveau-Mexique, avec des températures qui se situaient entre 17 et 33 degrés.

Affaire à suivre

[ad]

Regarder la télévision consomme plus que de faire une recherche sur Google

0

Dans une étude 2007, des chercheurs du Lawrence Berkeley National Laboratory ont constaté que les centres de données utilisent 1,5 pour cent de l’énergie aux États-Unis, soit environ la même quantité d’énergie que tous les téléviseurs couleur en Amérique.

Quelle activité consomme moins d’énergie ?

le calcul de la consommation d’énergie des centres de données a été un sujet de conversation le week-end dernier, des blogueurs ont réagi à un article du Times de Londres sur l’examen de l’énergie consommée par les recherches Google.

“Faire deux recherches sur Google à partir d’un ordinateur de bureau peuvent produire environ la même quantité de dioxyde de carbone que faire bouillir de l’eau dans un bouilloire pour une tasse de thé”, a écrit The Times, citant les recherches du physicien de Harvard  Alex Wissner-Gross, qui a dit qu’une recherche sur Google génère 7g de CO2.

Google a immédiatement contesté ces chiffres dans un blog du vice-président senior des opérations Urs Hölzle.

“En termes de gaz à effet de serre, une recherche Google est équivalente à environ 0,2 grammes de CO2″, écrit Urs, ajoutant que “la moyenne d’une voiture qui roule sur un km produit l’équivalent en gaz à effet de serre qu’un milliers de recherches sur Google.”

Comme nous l’avons déjà signalé à maintes reprises, les exploitations (datacenter) Google  sont une des plus économes en énergie dans le monde, explorant de nouvelles approches innovatrices en  conception de centres de données, y compris un centre de données flottant entièrement alimenté par l’énergie des vagues.

Voici une question mathématique à méditer:

– Quelle quantité de CO2 a été généré par les blogueurs pour répondre à l’article de The Times ?

[ad]

Un cas d’école de l’exploitation des datacenters : la virtualisation

0

Un cas d’école de l’exploitation des datacenters : la virtualisation

Propres à satisfaire des besoins en capacité croissants, les ressources virtualisées soulèvent cependant des problèmes de gestion. L’aptitude à bien exploiter les systèmes virtualisés est déterminante pour l’atteinte des gains espérés.

Nécessité de la virtualisation

Les organisations informatiques qui utilisent des solutions de serveur, de stockage et de système de fichiers virtualisées en tirent de grands avantages. Les entreprises demandent sans cesse de nouvelles applications et fonctionnalités, mais elles ne revoient pas pour autant leur budget informatique en conséquence. Beaucoup se tournent vers la virtualisation pour optimiser les ressources de leurs plates-formes.
Cette démarche, autrefois limitée aux études, s’étend désormais aux systèmes de production, notamment aux infrastructures d’applications et de serveurs Web. Si les ressources virtualisées aident à satisfaire les besoins en capacité croissants, elles engendrent également de nouveaux et sérieux problèmes de gestion. À long terme, l’aptitude à bien gérer les systèmes virtualisés est déterminante pour la réussite des stratégies de virtualisation.

D’après les études de marché, la plupart des entreprises ont adopté ou vont adopter la virtualisation de serveurs. A l’heure actuelle, celle-ci est essentiellement utilisée lors des projets de consolidation de serveurs, de migration de serveurs ou de décloisonnement d’applications, et les entreprises qui y recourent déclarent avoir ainsi réalisé d’importantes économies d’énergie et de capital, tout en augmentant le taux d’utilisation de leurs machines. Pour beaucoup de datacenters, la virtualisation offre également des avantages, notamment :

• Ajout de capacité à la demande pour maintenir de hautes performances en période « de pointe » ou pour exploiter des services temporaires
• Possibilité d’utiliser plusieurs applications sur un même serveur sans beaucoup de puissance d’unité centrale
• Possibilité de réserver des applications ou des ressources à un serveur physique ou à une machine virtuelle
• Prise en charge économique des stratégies de continuité et de reprise après sinistre
• Encombrement réduit et conservation de l’espace (une ressource onéreuse) nécessaire aux racks

De plus, les fournisseurs multiplient aujourd’hui les solutions, ce qui facilite la virtualisation de l’exploitation. Les logiciels ne manquent pas, qu’il s’agisse de VMware, Sun Solaris™ 10, de Microsoft® Virtual Server, d’IBM LPAR, XenSource, ou HP avec Virtual Serveur Environment et Integrity Virtual Machine.

Face à cette diversité de solutions découle le problème numéro un en matière de virtualisation : une gestion industrielle et fiable des différentes ressources qu’elles soient physiques ou virtuelles.

Obstacles à la gestion de la virtualisation

Comme d’autres solutions technologiques appréciées, la virtualisation se répand rapidement, lorsqu’un environnement d’entreprise en a fait l’essai. Pour chaque serveur physique géré, les organisations informatiques dénombrent en moyenne quatre à dix serveurs virtuels, sans parler de ceux qui échappent à la gestion et à la surveillance, par exemple les serveurs utilisés par les équipes de développement. La grande complexité annule rapidement les économies réalisées grâce à la virtualisation, engendrant des coûts de gestion. La prolifération des machines virtuelles nuit également au maintien de la sécurité et de la conformité dans un environnement en mutation accélérée.
Non seulement il faut configurer et administrer les systèmes virtuels comme des serveurs physiques, mais aussi de nouveaux problèmes de gestion apparaissent.

• Multiplicité des outils de gestion. Plusieurs solutions de serveur virtuel nécessitent des outils de gestion spécifiques. Sans fonctions d’audit ou d’authentification centralisées, il faut protéger, surveiller et faire interagir des systèmes de gestion multiples, ce qui accroît la charge de travail des équipes informatiques.
• Différences entre l’environnement physique et l’environnement virtuel. Il est difficile de gérer de la même façon un environnement physique et un environnement virtuel, même s’ils exécutent parfois un système d’exploitation identique. Il faut en effet contrôler et rapprocher un grand nombre de représentations pour associer les serveurs physiques et virtuels aux ressources qu’ils fournissent.
• Manque de visibilité d’une plate-forme à une autre. Qui dit multiplication des systèmes de gestion de serveurs physiques et virtuels dit impossibilité d’optimiser des applications avec leurs données et ressources associées, si elles résident sur plusieurs plates-formes de virtualisation. Visualiser tout un environnement d’application « en un coup d’oeil » n’est plus possible.
• Relations hôte-invité mal maîtrisées. Les environnements virtualisés proposent une représentation limitée des relations hôte-invité. Si les interactions d’applications entre les serveurs physiques et virtuels ne sont pas connues, il se révèle difficile de surveiller l’utilisation et de planifier les capacités.

Mieux unifier pour mieux virtualiser

À long terme, la virtualisation n’est bénéfique que moyennant une gestion intégrée. Un environnement virtuel est bien géré si l’on peut l’administrer avec les processus de l’environnement physique (ou mieux avec des processus améliorés), sans surcroît de coût, de complexité ou de besoin en personnel. En d’autres termes, une bonne solution de gestion de serveurs virtuels doit pouvoir également gérer l’environnement physique, tout en intégrant les propriétés des machines virtuelles.

Une plate-forme intégrée de gestion de la virtualisation vous aide à mettre en ligne, à configurer et à administrer des plates-formes virtuelles hétérogènes, qu’elles soient d’origine HP, VMware, Solaris, Microsoft, Xen ou autres.L’application des mises à jour et des correctifs doit être aussi facile (et même assez simple pour que l’on puisse l’automatiser) sur les serveurs virtuels que sur les serveurs physiques. Vous devez également automatiser la création et la mise en ligne d’un grand nombre de serveurs physiques et virtuels, tout en vous conformant aux stratégies de sécurité.

De la création à la suppression des machines virtuelles, vous devez gérer tout le cycle de vie des serveurs. En tant qu’extensions souples des serveurs physiques, les serveurs virtuels évoluent de manière dynamique. Vous devez pouvoir facilement les créer, les mettre en marche, les arrêter et les supprimer, suivant les besoins.

Vous devez connaître et surveiller les relations unissant les serveurs virtuels entre eux, qu’ils résident sur le même hôte ou non, ainsi qu’à leurs hôtes respectifs.

Vous devez utiliser les mêmes stratégies et pratiques d’excellence sur vos serveurs physiques et virtuels. Idéalement, une solution de gestion intégrée améliore l’administration des deux types de machine.

[ad]

Deux fournisseurs qui rationalisent leurs data centers

0

Les cordonniers sont les plus mal chaussés a-t-on coutume de dire. Ce proverbe, qui serait issu d’une réflexion de Montaigne dans ses Essais, serait mis à mal dans les cas d’IBM et d’HP.

Les deux fournisseurs ont en effet entrepris un programme de transformation de leurs propres systèmes informatiques avec à la clé une réduction drastique des data centers, mais aussi une augmentation de l’efficacité et une diminution des coûts.

Depuis 1997, IBM a réduit le nombre de ses centres informatiques de 155 à 7, mais sans pour autant réduire le nombre de serveurs dans une proportion comparable.
L’année dernière, IBM s’est lancé donc dans une réduction drastique du nombre de serveurs en décidant de migrer sur 30 mainframes System z9 fonctionnant sous Linux toutes les applications réparties actuellement sur 3900 serveurs.

Fait à noter, l’ensemble des mainframes fonctionneront sous Linux.
Avec l’arrivée des z10, annoncés il y a quelques mois, IBM va encore plus en réduisant à 17 le nombre total de systèmes dans ses data centers. Du côté logiciel, même opération de purge en passant de 15 000 applications à 4 700, induisant d’importants coûts en licences.

Pour gérer tout cela, un seul DSI suffira, là où IBM en avait 128 en 1997.
Cette initiative s’inscrit dans le Projet Big Green annoncé en mai 2007 dans lequel IBM annonçait toute
une série de disposition pour réduire la consommation de ses propres sites, mais aussi des sites de ses
clients.

IBM entend ainsi réduire la consommation de ses centres de 85% et l’empreinte physique de 80%.

De l’informatique à la stratégie
De son côté, HP s’est lancé dans une évolution comparable. Planifiée sur 3 ans, l’initiative a été lancée par Randy Mott, ex DSI de Dell et embauché en 2005 pour mener à bien ce projet de rénovation de l’infrastructure informatique d’HP.

HP vient d’en publier les résultats.

Le premier résultat, peut-être le plus tangible, est une réduction par deux ses coûts informatiques, tout en apportant une infrastructure plus fiable et plus évolutive. « Cette transformation n’est pas une initiative technologique au sein de la DSI, mais bien une stratégie business adoptée par l’entreprise », commente Dandy Mott.
Au cours de l’exercice fiscal 2009, cette consolidation devrait permettre une réduction des coûts d’un
milliard de dollar par rapport au niveau de 2005 alors que pendant le même temps, HP a augmenté son
activité de 25 milliards de dollars de chiffres d’affaires.

Quelques chiffres.
Les chiffres communiqués par HP donnent une idée de l’ampleur de l’opération :
– Les coûts informatiques passeront de 4% du chiffre d’affaires en 2005 à 2 % sur l’exercice 2009;
– La consolidation a permis de passer de 85 date centers à seulement 6 (hors EDS) étendus sur 35000m² et pouvant doubler si nécessaire, notamment en intégrant les acquisitions comme celle d’EDS.

– Réduction de 6000 à 1500 applications;
– Diminution de la consommation énergétique des data centers de 60%;
– Réduction de 40 % du nombre de serveurs tout en augmentant la puissance de traitement de 250%;
– Réduction des coûts en réseau tout en assurant un triplement de la bande passante;
– Elimination des 700 datamarts et création d’un datawarehouse d’entreprise accessible à tous les utilisateurs concernés de l’entreprise, soit environ 32 000 personnes et 50000 l’année prochaine;

Ce datawarehouse est géré avec Neoview.

[ad]

Un éco-label pour les datacenters

0

Créée par des acteurs de l’industrie informatique, The Green Grid se concentre sur l’augmentation de l’efficacité énergétique des datacenters.

« En 2007, le production intérieure brute (PIB) d’un pays nécessite 50% d’énergie en moins qu’en 1970. Mais ce n’est pas assez. Seulement 30% de l’électricité consommée par un datacenter finit dans l’équipement informatique » a rappelé John Tucillo (APC) un des responsables de The green Grid.

consommation de l'énergie dans un datacenter

The Green Grid veut améliorer ce ratio car, dans de nombreux pays, l’approvisionnement en électricité commence à poser des problèmes : le réseau de transport est saturé ou la capacité de production ne suit pas la demande. « Bref, la consommation électrique des datacenters commence à impacter directement le business de l’entreprise. Et les directions métiers sont rarement conscientent des contraintes actuelles de l’informatique » estime John Tucillo.

Fort de 180 membres, le consortium planche sur une trentaine de projets qui vont de la définition d’indicateurs standards (PUE, DCiE) à la publication de best-practices en passant par la définition de protocoles de mesure en temps réel ou bien encore la mise au point d’architectures de référence.

adoption des indicateurs pue et dcie

« L’adoption des indicateurs PUE et DCiE progresse vite » se réjouit Jim Pappas (Intel Corp).

Un point particulièrement important car, sans mesure, il est impossible de se situer et de comprendre les points d’amélioration possibles. D’autre part, l’adoption de mesures standards favorisent l’émulation des concurrents qui peuvent enfin faire valoir leur valeur ajoutée.

Cependant, une étude menée auprès des 180 membres montre que la crainte du downtime et le manque de soutien de la direction générale freine l’adoption de matériels plus « verts ». « Pour les responsable de production, l’environnement et la réduction de la consommation d’énergie ne sont qu’une nouvelle contrainte de plus à gérer » résume John Tucillo.

Pour aider les entreprises à adopter une démarche plus verte, The Green Grid proposera bientôt un éco-label spécifique. Calqué sur Energy Star et Epeat, il proposera 5 niveaux – recognized, bronze, silver, gold, platinum – essentiellement liés au PUE. Le draft est prêt mais The Green Grid doit encore le valider auprès de ses membres.

eco-label green datacenter

PUE ou Power usage Effectiveness

L’échelle Pue du Green Grid mesure le ratio entre la dépense énergétique totale d’un bâtiment et celle propre aux équipements informatiques qu’il héberge. Ainsi, on divise la mesure de l’alimentation électrique des serveurs et des baies de stockage, des éventuels écrans et stations, de la climatisation et de la ventilation de l’ensemble, de l’alimentation des connexions réseau, de l’éclairage, etc. par la dépense énergétique propre aux seuls équipements informatiques. Un PUE de 3, par exemple, signifie que le datacenter dans son ensemble consomme trois fois plus que l’informatique qu’il héberge.

DCE ou Datacenter Efficiency

Le Green Grid définit également le DCE qui est tout simplement l’inverse du PUE, donc le rapport entre la consommation de l’informatique du datacenter et celle de l’ensemble de l’infrastructure.

Avez-vous déjà calculé votre PUE et votre DCiE  ?

Pour l’histoire celui d’un des datacenter que je gère a un PUE de 1,76 et un DCE de 57% soit un eco-label Green grid de “Bronze”.

des mesures pour l’améliorer sont en cours comme le renouvellement du parc serveurs, virtualisation, mise en place de cooling corridor et modification du fonctionnement de l’ASI.

Lire l’article sur les best-practices

[ad]

Google : Les datacenters les plus efficacent du monde

0

Google divulgue aujourd’hui les détails sur l’efficacité énergétique de leurs Datacenters, ce qui confirme que leur mode de fonctionnement est le plus efficace au monde.
Google a dit qu’ils ont une efficacité d’usage (PUE – Power Usage Effectiveness) de l’ordre de 1,21 à travers six de leurs datacenters, et l’un d’eux obtient un PUE de 1,13, le plus bas jamais publié et juste au-dessus de l’efficacité parfaite qui est de 1,0.

“Aujourd’hui, nous croyons que notre exploitation de datacenters est la plus efficace au monde », explique Google.
«Grâce à l’efficacité de nos efforts nous économisons des centaines de millions de kWhs (kilowattheures) d’électricité, nous réduisons nos dépenses d’exploitation par des dizaines de millions de dollars, évitons ainsi l’émission de dizaines de milliers de tonnes de CO2, et des centaines de millions de litres d’eau “.

Un datacenter typique a un PUE de 2.0 ou supérieur, le plus faible est celui de Sun à Santa Clara, Californie, avec un PUE de 1,28.

Comparez cela à ce tableau de suivi du PUE des six derniers datacenters Google qui ont été construient. La valeur du PUE se trouve sur l’axe de gauche:

Pue des datacenter google

Nous avons réduit l’overhead énergétique des datacenters Google de l’ordre de 21% par rapport à la moyenne de 96% rapporté par l’EPA“, a écrit Google dans une nouvelle section de son site Web dédié à l’efficacité des Data Center.

“En d’autres termes, par rapport à la norme des autre datacenters, nous avons réduit les frais généraux par quatre.

À notre connaissance, aucun autre datacenter d’envergure n’a jamais fonctionné de manière aussi efficace. En fait, l’un de nos centres de données en cours d’exécution a un overhead énergétique encore plus bas de 15%, soit une amélioration de l’efficacité de l’ordre de six fois. ”

Google ajoute un information intéressante : “Sur le temps nécessaire pour faire une recherche Google, votre ordinateur personnel utilisera plus d’énergie que nous utilisons pour répondre à votre requête.”

Google est connu pour garder secret ses opérations de datacenter. La récente divulgation de ses données concernant le PUE arrive à un moment ou d’autre sociétés partagent l’information sur l’efficacité énergétique de leurs datacenters.

Digital Realty Trust (DLR) a commencé à publier ses informations sur le PUE de ses installations, suivi par plus de 200 autres qui participent à un partage des données avec la US Environmental Protection Agency.

PUE est l’émergence d’un standard promu par The Green Grid ainsi que d’autres exploitants de datacenters, permettant de mesurer le rapport entre la puissance utilisée par les équipements hébergés en salle serveurs et la puissance nécessaire pour pouvoir faire fonctionner ces équipements.

PUE permet aux gestionnaires de datacenter de mesurer combien d’énergie est nécessaire pour la salle serveur et celle nécessaire pour d’autre équipements tels que le refroidissement et l’éclairage.

Source DatacenterKnowledge

[ad]

Go to Top
%d bloggers like this: