Posts tagged green datacenter

Le Green Grid prépare de nouveaux outils pour les datacenters

0

Le consortium Green Grid s’apprête à proposer de nouveaux outils avec l’ambition d’aider à l’amélioration de l’efficacité énergétique des centres de calcul. Le premier d’entre eux visera à permettre aux concepteurs de centres de calcul d’estimer l’efficacité énergétique de leurs futures installations, suivant différents scénarios de topologie des infrastructures de production et de distribution électrique et des technologies employées. Le second doit permettre de calculer le PUE d’un Datacenter en fonction de données fournies par leurs exploitants.Ces deux outils doivent être disponibles gratuitement sur le site Web du Green Grid d’ici la fin du premier trimestre.

Le consortium Green Grid compte notamment, parmi ses membres, AMD, Intel, EMC, APC, HP, Microsoft, Dell, IBM et Sun.

Data Center Best Practices

0

Le sommet, Energy Efficient Data Center Summit en avril a réuni un grand nombre de leaders de l’industrie, concernant la mise en place de bonnes pratiques pour l’exploitation des centres de données et une séance de questions-réponses mettant en vedette Kenneth Brill du Uptime Institute, James Hamilton d’Amazon Web Services, Olivier Sanche d’eBay et Bill Tschudi de Lawrence Berkeley National Labs.

Le groupe fut animé par Luiz Barroso, un éminent ingénieur chez Google.

La discussion fut très intéressante sur des sujets comme : les niveaux de  fiabilité et l’importance relative du matériel et des logiciels en differnet types de centres de données.

Cette vidéo dure environ 30 minutes.

Ne manquez pas les autres couverture de Google sur notre site :

* A l’intérieur d’un datacenter Google
* Google dévoile le type d’architecture d’un de leur serveur WEB
* Google les datacenter les plus efficace du monde
* Google pense créer des datacenter flottant


Un Datacenter géothermique

0

Les systèmes de refroidissement géothermique ne sont pas encore très utilisé dans les centres de données.

Une des premières implementation a l’utiliser est le nouveau datacenter de “l’American College Testing” à Iowa City.

Le datacenter de l’Iowa a été certifié platinium par le programme américain LEED “Leadership in Energy and Environmental Design (LEED), un système de notation pour les centre de données volontaires a être  supervisé par le US Green Building Council, concernant les bâtiments efficacement énergétique.

L’ACT “American College Tesing” est le premier datacenter a obtenir une certification platinium aux états-unis.

Un centre de données de Citigroup en Allemagne, a déjà obtenu le statut platinium, tandis que Advanced Data Centers à Sacramento a été pré-certifié pour le statut Platinium.

L’ACT est un bâtiment ouvert en février 2008 de 750  m² dont 375 m² de salles informatique.

L’installation est refroidie par géothermie – un système de tuyauterie fermé sous terre, la terre permet de refroidir le système de tuyauterie souterrain, il a également un système de refroidissement extérieur comme backup du système géothermique.

Le bâtiment a d’autre attribut, comme des onduleurs a haut rendement, 30% du bâtiment est construit avec des matières recyclées ainsi que de nombreux objet de décoration en matière renouvelable.

Le nom du projet pendant sa phase de construction a été “durabilité”, aucun élément n’a été laissé au hazard.

  • Pour plus d’informations sur l’utilisation de systèmes géothermiques dans les centres de données, voir cet article de John Peterson de HP Mission Critical Facilities.
  • Voir la liste des datacenter certifié par  la LEED
  • Voir la carte des régions candidate aux freecooling aux US
  • Voir d’autre article sur l’ACT datacenter, GreenerComputing et Environmental Leader.
  • Pour un aperçu conceptuel du refroidissement par la géothermie,  voir cette vidéo (hélas, précédé par un “pre-roll” de publicité).

Datacenter Full FreeCooling Google

0

Google a ouvert en Belgique un datacenter qui ne sera refroidit qu’à l’air libre.

Google mise sur le climat belge pour refroidir son centre de données, en se basant sur la température moyenne de cette région belge (Saint-Ghislain), seulement 7 jours de l’année la température dépasserait le seuil critique.

En cas de température trop élevée, soit 26 degrés selon Google, l’entreprise désactivera les équipements du centre, transférant la charge de travail à d’autres centres informatiques.
La construction du site de Saint-Ghislain a débuté en 2008

Rechauffer les bureaux avec la chaleur produite par les serveurs

0

Oui c’est possible, surtout lorsque la salle serveur n’est pas trop loin des bureaux (perte thermique)

En plus, on peut profiter de certificats d’économie d’énergie, donc réduire les couts d’investissement tout en faisant des gestes simples mais concrets pour préserver notre planète.

A l’intérieur d’un Datacenter de Google

0

Google va bientôt publier des vidéos d’un grand nombre de sessions présenté à la Google Data Center Efficiency Summit qui a eu lieu mercredi, à Mountain View, Californie.

En attendant, voici un avant-goût avec une vidéo d’un centre de données Google, qui utilise des conteneurs de transport pour stocker les serveurs et le stockage.

Le sommet a été un événement pour les ingénieurs et les cadres supérieurs du métier, avec comme sujet, les innovations pour améliorer l’efficacité des centres de données.

Google a été un des premier à les utiliser car il a construit cette installation fin  2005.

Le “Hangar” est rempli de 45 conteneurs, certains sont stockés sur les autres.

Chaque conteneur peut contenir jusqu’à 1160 serveurs et utilize 250 kilowatts d’énergie électrique.

La densité est de 8 kW par m² et la température des allées chaude ne dépasse pas les 27 degrés celsius.

Cette vidéo dure environ 5 minutes et 45 secondes.

[ad]

Les centres de données, de plus en plus gourmands en énergie

0

La chasse au “gaspi” dans les centres de données est ouverte. Ces immenses salles, appelées aussi “data centers”, composées de multiples serveurs informatiques qui stockent les informations nécessaires aux activités des entreprises, sont devenues de véritables gouffres énergétiques.

Selon une étude menée par des chercheurs européens dans le cadre du programme de l’Union européenne “Energie intelligente – Europe”, les 7 millions de centres de données recensés dans les pays de l’Union européenne consommeraient, chaque année, 40 milliards de kilowattheures, soit l’équivalent de l’énergie utilisée annuellement par une grande agglomération française pour son éclairage public. Si rien n’est fait, cette consommation électrique pourrait, d’ici à 2011, augmenter de 110 % par rapport à 2006, estime l’enquête qui sera complétée au printemps par des études de cas en entreprises.

“Dans les prochaines années, la croissance des nouveaux data centers sera faramineuse. Si on ne prend pas des mesures maintenant, on va dans le mur !” s’alarme Alain Anglade, chercheur au sein de l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe) et membre de l’équipe de chercheurs. Encore modeste à l’échelle de l’Hexagone, l’énergie utilisée par les centres de données (4 à 6 milliards de kilowattheures) représente 1 % de la consommation d’électricité du pays. Un pourcentage appelé à croître rapidement en raison de la diffusion rapide des nouvelles technologies informatiques. Les banques, par exemple, soumises à des réglementations croissantes en termes de stockage et traitements de leurs données informatiques, sont déjà contraintes d’agrandir leurs centres de données.

Le gouvernement français a saisi l’occasion du plan France numérique 2012, lancé en octobre 2008, par le secrétariat d’Etat au développement de l’économie numérique pour créer un observatoire des centres de données. A horizon de dix-huit mois environ, il permettra aux entreprises de se comparer entre elles et de les aider à prendre des mesures pour qu’elles diminuent la consommation énergétique de leurs machines, explique en substance Alain Anglade, un des responsables du projet pour qui “les entreprises sont déjà sensibilisées car ce gaspillage commence à leur coûter beaucoup d’argent”. Cette mise en commun devrait également permettre aux entreprises d’anticiper sur la création de nouvelles normes environnementales plus contraignantes au niveau européen.

Parallèlement, le ministère de l’économie et des finances vient de lancer un groupe de réflexion. Baptisé “Green ITW” et dirigé par Michel Petit, membre de l’Académie des sciences, il doit proposer, d’ici à mai, des solutions pour une “utilisation éco-responsable” des centres de données. En clair, comment faire des économies d’énergie sans pénaliser les entreprises dans l’utilisation de leurs outils informatiques. Selon l’étude européenne déjà citée, près de 12 milliards d’euros pourraient être économisés grâce à de nouveaux équipements moins gourmands en électricité et des techniques plus efficaces de ventilation des salles.

L’Allemagne a, de son côté, déjà entrepris de lutter contre le gaspillage énergétique des “data centers”. Depuis l’été dernier, un guide est à disposition des entreprises pour leur faire prendre conscience du problème et les pousser à investir dans des équipements plus efficaces. Bien décidé à montrer l’exemple, le ministère fédéral de l’environnement a annoncé en novembre 2008 avoir baissé la consommation d’électricité de ses propres serveurs de 60 %, soit une économie de CO2 de 44 tonnes.

Particulièrement concernés, les géants de l’informatique cherchent eux aussi déjà à réduire la facture énergétique de leurs data centers devenus gigantesques pour stocker e-mails, vidéos et autres documents disponibles en un seul clic. Récemment, Google, Yahoo ! ou encore Microsoft ont installé certains de leurs sites informatiques sur les bords de grands cours d’eau américains. Ils souhaitent pouvoir refroidir plus facilement leurs machines et utiliser les centrales hydrauliques proches pouvant leur fournir de l’électricité moins chère.

Jouant la carte du développement durable, Google affirme avoir investi 45 millions de dollars dans les énergies renouvelables. Le mastodonte américain a même déposé un brevet pour pouvoir installer des centres informatiques alimentés par l’énergie des vagues et refroidis par l’eau de mer sur des plates-formes flottantes.

Source de l’article

[ad]

Intel test la puissance solaire dans un DataCenter

0

Intel a installé des panneaux solaires dans une usine de Rio Rancho au Nouveau-Mexique afin de tester le potentiel d’utilisation de l’énergie solaire photovoltaïques (PV) pour fournir de l’énergie pour les centres de données.
La gamme constituée de 64 panneaux solaires Sharp va générer 10 kilowatts d’électricité, juste une fraction de la quantité nécessaire pour alimenter la plupart des centres de données. Mais le projet pourrait “potentiellement ouvrir la voie à un programme plus agressif dans l’énergie solaire Intel”, selon Marty Sedler, directeur mondial pour les services publics et l’infrastructure d’Intel.

Les test seront réalisés premièrement dans le cadre des datacenter de type contenaire.

L’énergie solaire n’a pas jusqu’ici été largement utilisé dans les centres de données en raison de la grande quantité d’énergie requise pour alimenter les serveurs et le matériel de refroidissement.
Il exige une très grande installation de panneaux solaires PhotoVoltaique pour produire une fraction de l’énergie requise par la plupart des centres de données.

Lors du dernier salon du CeBIT de Mai 2008, Sun Microsystems a montré un contenaire “Blackbox Solaire” raccordé à un réseau de panneaux solaires d’environ 200 mètres carrés, qui produit environ 10 kilowatts de puissance. C’est à peine assez de puissance pour un rack à haute densité dans une Blackbox.
Selon certaines estimations, il faut jusqu’à 30 km carrés de panneaux solaires pour générer 1 mégawatt de puissance. Un autre obstacle est le coût. Google évangélise une approche “énergie verte”, le projet de loi “Weihl”, a déclaré l’année dernière que l’énergie solaire photovoltaïque coûte actuellement environ 15 à 20 centimes le kilowatt, ce qui est «totalement hors de portée” avec toutes les autres sources d’énergie.

Le seul datacenter actuellement entièrement alimenté par l’énergie solaire PV est AISO (Affordable Internet Services Online), qui exploite une installation d’environ 460 mètres carrés à Romoland (US), en Californie, pour une salle serveurs de 120 mètres carrés.
Le datacenter AISO avec ses 120 panneaux solaires génèrent du courant continu, qui est ensuite géré par le biais d’un onduleur et stocké dans des batteries.

L’année dernière, Intel a utilisé de l’air extérieur pour refroidir un datacenter au Nouveau-Mexique, avec des températures qui se situaient entre 17 et 33 degrés.

Affaire à suivre

[ad]

Regarder la télévision consomme plus que de faire une recherche sur Google

0

Dans une étude 2007, des chercheurs du Lawrence Berkeley National Laboratory ont constaté que les centres de données utilisent 1,5 pour cent de l’énergie aux États-Unis, soit environ la même quantité d’énergie que tous les téléviseurs couleur en Amérique.

Quelle activité consomme moins d’énergie ?

le calcul de la consommation d’énergie des centres de données a été un sujet de conversation le week-end dernier, des blogueurs ont réagi à un article du Times de Londres sur l’examen de l’énergie consommée par les recherches Google.

“Faire deux recherches sur Google à partir d’un ordinateur de bureau peuvent produire environ la même quantité de dioxyde de carbone que faire bouillir de l’eau dans un bouilloire pour une tasse de thé”, a écrit The Times, citant les recherches du physicien de Harvard  Alex Wissner-Gross, qui a dit qu’une recherche sur Google génère 7g de CO2.

Google a immédiatement contesté ces chiffres dans un blog du vice-président senior des opérations Urs Hölzle.

“En termes de gaz à effet de serre, une recherche Google est équivalente à environ 0,2 grammes de CO2″, écrit Urs, ajoutant que “la moyenne d’une voiture qui roule sur un km produit l’équivalent en gaz à effet de serre qu’un milliers de recherches sur Google.”

Comme nous l’avons déjà signalé à maintes reprises, les exploitations (datacenter) Google  sont une des plus économes en énergie dans le monde, explorant de nouvelles approches innovatrices en  conception de centres de données, y compris un centre de données flottant entièrement alimenté par l’énergie des vagues.

Voici une question mathématique à méditer:

– Quelle quantité de CO2 a été généré par les blogueurs pour répondre à l’article de The Times ?

[ad]

Un cas d’école de l’exploitation des datacenters : la virtualisation

0

Un cas d’école de l’exploitation des datacenters : la virtualisation

Propres à satisfaire des besoins en capacité croissants, les ressources virtualisées soulèvent cependant des problèmes de gestion. L’aptitude à bien exploiter les systèmes virtualisés est déterminante pour l’atteinte des gains espérés.

Nécessité de la virtualisation

Les organisations informatiques qui utilisent des solutions de serveur, de stockage et de système de fichiers virtualisées en tirent de grands avantages. Les entreprises demandent sans cesse de nouvelles applications et fonctionnalités, mais elles ne revoient pas pour autant leur budget informatique en conséquence. Beaucoup se tournent vers la virtualisation pour optimiser les ressources de leurs plates-formes.
Cette démarche, autrefois limitée aux études, s’étend désormais aux systèmes de production, notamment aux infrastructures d’applications et de serveurs Web. Si les ressources virtualisées aident à satisfaire les besoins en capacité croissants, elles engendrent également de nouveaux et sérieux problèmes de gestion. À long terme, l’aptitude à bien gérer les systèmes virtualisés est déterminante pour la réussite des stratégies de virtualisation.

D’après les études de marché, la plupart des entreprises ont adopté ou vont adopter la virtualisation de serveurs. A l’heure actuelle, celle-ci est essentiellement utilisée lors des projets de consolidation de serveurs, de migration de serveurs ou de décloisonnement d’applications, et les entreprises qui y recourent déclarent avoir ainsi réalisé d’importantes économies d’énergie et de capital, tout en augmentant le taux d’utilisation de leurs machines. Pour beaucoup de datacenters, la virtualisation offre également des avantages, notamment :

• Ajout de capacité à la demande pour maintenir de hautes performances en période « de pointe » ou pour exploiter des services temporaires
• Possibilité d’utiliser plusieurs applications sur un même serveur sans beaucoup de puissance d’unité centrale
• Possibilité de réserver des applications ou des ressources à un serveur physique ou à une machine virtuelle
• Prise en charge économique des stratégies de continuité et de reprise après sinistre
• Encombrement réduit et conservation de l’espace (une ressource onéreuse) nécessaire aux racks

De plus, les fournisseurs multiplient aujourd’hui les solutions, ce qui facilite la virtualisation de l’exploitation. Les logiciels ne manquent pas, qu’il s’agisse de VMware, Sun Solaris™ 10, de Microsoft® Virtual Server, d’IBM LPAR, XenSource, ou HP avec Virtual Serveur Environment et Integrity Virtual Machine.

Face à cette diversité de solutions découle le problème numéro un en matière de virtualisation : une gestion industrielle et fiable des différentes ressources qu’elles soient physiques ou virtuelles.

Obstacles à la gestion de la virtualisation

Comme d’autres solutions technologiques appréciées, la virtualisation se répand rapidement, lorsqu’un environnement d’entreprise en a fait l’essai. Pour chaque serveur physique géré, les organisations informatiques dénombrent en moyenne quatre à dix serveurs virtuels, sans parler de ceux qui échappent à la gestion et à la surveillance, par exemple les serveurs utilisés par les équipes de développement. La grande complexité annule rapidement les économies réalisées grâce à la virtualisation, engendrant des coûts de gestion. La prolifération des machines virtuelles nuit également au maintien de la sécurité et de la conformité dans un environnement en mutation accélérée.
Non seulement il faut configurer et administrer les systèmes virtuels comme des serveurs physiques, mais aussi de nouveaux problèmes de gestion apparaissent.

• Multiplicité des outils de gestion. Plusieurs solutions de serveur virtuel nécessitent des outils de gestion spécifiques. Sans fonctions d’audit ou d’authentification centralisées, il faut protéger, surveiller et faire interagir des systèmes de gestion multiples, ce qui accroît la charge de travail des équipes informatiques.
• Différences entre l’environnement physique et l’environnement virtuel. Il est difficile de gérer de la même façon un environnement physique et un environnement virtuel, même s’ils exécutent parfois un système d’exploitation identique. Il faut en effet contrôler et rapprocher un grand nombre de représentations pour associer les serveurs physiques et virtuels aux ressources qu’ils fournissent.
• Manque de visibilité d’une plate-forme à une autre. Qui dit multiplication des systèmes de gestion de serveurs physiques et virtuels dit impossibilité d’optimiser des applications avec leurs données et ressources associées, si elles résident sur plusieurs plates-formes de virtualisation. Visualiser tout un environnement d’application « en un coup d’oeil » n’est plus possible.
• Relations hôte-invité mal maîtrisées. Les environnements virtualisés proposent une représentation limitée des relations hôte-invité. Si les interactions d’applications entre les serveurs physiques et virtuels ne sont pas connues, il se révèle difficile de surveiller l’utilisation et de planifier les capacités.

Mieux unifier pour mieux virtualiser

À long terme, la virtualisation n’est bénéfique que moyennant une gestion intégrée. Un environnement virtuel est bien géré si l’on peut l’administrer avec les processus de l’environnement physique (ou mieux avec des processus améliorés), sans surcroît de coût, de complexité ou de besoin en personnel. En d’autres termes, une bonne solution de gestion de serveurs virtuels doit pouvoir également gérer l’environnement physique, tout en intégrant les propriétés des machines virtuelles.

Une plate-forme intégrée de gestion de la virtualisation vous aide à mettre en ligne, à configurer et à administrer des plates-formes virtuelles hétérogènes, qu’elles soient d’origine HP, VMware, Solaris, Microsoft, Xen ou autres.L’application des mises à jour et des correctifs doit être aussi facile (et même assez simple pour que l’on puisse l’automatiser) sur les serveurs virtuels que sur les serveurs physiques. Vous devez également automatiser la création et la mise en ligne d’un grand nombre de serveurs physiques et virtuels, tout en vous conformant aux stratégies de sécurité.

De la création à la suppression des machines virtuelles, vous devez gérer tout le cycle de vie des serveurs. En tant qu’extensions souples des serveurs physiques, les serveurs virtuels évoluent de manière dynamique. Vous devez pouvoir facilement les créer, les mettre en marche, les arrêter et les supprimer, suivant les besoins.

Vous devez connaître et surveiller les relations unissant les serveurs virtuels entre eux, qu’ils résident sur le même hôte ou non, ainsi qu’à leurs hôtes respectifs.

Vous devez utiliser les mêmes stratégies et pratiques d’excellence sur vos serveurs physiques et virtuels. Idéalement, une solution de gestion intégrée améliore l’administration des deux types de machine.

[ad]

Go to Top
%d bloggers like this: