Posts tagged Power

Intel cible les fournisseurs/hébergeurs de cloud avec le nouvel processeur Atom C2000

0

Intel apporte sa contribution dans le cloud au travers de ses puces Atom de faible puissance. Aujourd’hui, le fondeur a annoncé la disponibilité commerciale de produits basés sur le nouveau processeur Atom C2000, une puce de faible puissance précédemment connu sous le nom de code Avoton. La nouvelle puce est conçu pour apporter l’efficacité de la puissance des téléphones mobiles dans les environnements de cloud hyperscalable.

Intel annonce que cette nouvelle puce de 22nm lui permettra également de se développer dans des domaines tels que le stockage à froid et celui des équipements réseau d’entrée de gamme.

Un autre domaine a développer selon Intel est celui de l’efficacité énergétique dont les opérateurs de datacenter sont en recherche permanente pour l’ensemble de leur infrastructure.

“Alors que le monde devient de plus en plus mobile, la pression pour soutenir des milliards de dispositifs et d’utilisateurs connectés est en train de changer la composition même des datacenters, a déclaré Diane Bryant, vice-président senior et directeur général du groupe “Datacenter and Connected Systems” chez Intel. Avec l’Atom C2000, nous annonçons un changement en adressant un nouveau marché de produits optimisées et qui répondent à un éventail de charges de travail bien spécifiques pour une plus grande efficacité des datacenter.”

ATOM Avoton

Plaquettes du nouveau processeur Intel Atom C2000, qui a été lancé aujourd’hui et est disponible en 13 configurations différentes pour des tâches informatiques spécialisés. (Photo: Intel)

Source et suite de l’article (en anglais)

SPEC SERT nouveaux KPIs de performance

0

Le SPEC propose un test de performance énergétique des serveurs.

SPEC

L’organisme spécialisé dans les tests de performances SPEC (Standard Performance Evaluation Corporation) a rendu public sont Server Efficiency Rating Tool qui vise à évaluer l’efficacité énergétique des serveurs dans diverses conditions de charge. Ce test contribuera à la délivrance des qualifications Energy Star de l’EPA.

Conçu pour être simple à configurer et à utiliser grâce à une interface utilisateur graphique complète, le SERT utilise un ensemble de worklets synthétiques pour tester les composants des systèmes, tels que les processeurs, la mémoire et le stockage, en fournissant des données détaillées sur la consommation d’énergie à des niveaux de charge différents.
Les résultats sont fournis sous deux formes, langage machine et langage lisible par l’humain.
Bientôt des données sur la performance énergétique des processeurs, des mémoires et du stockage.

Les premiers serveurs 12 volts font leur apparition

0

La société “Rackable Systems” vient de dévoiler son premier système rackable qui ne nécessite pas d’alimentation ni de ventilation.

leur solution est composée de rack serveurs de 22 ou 44 RU, les serveurs “CloudRack C2″ n’ont pas d’alimentation 230v.  ni de ventilateur pour refroidir les composants.

La conversion AC/DC ainsi que le refroidissement est géré par le rack lui même, ce qui apporte un gain considérable énergétiquement parlant.

Ces serveurs peuvent fonctionner à des températures d’environ 37 °C

[ad]

Les centres de données, de plus en plus gourmands en énergie

0

La chasse au “gaspi” dans les centres de données est ouverte. Ces immenses salles, appelées aussi “data centers”, composées de multiples serveurs informatiques qui stockent les informations nécessaires aux activités des entreprises, sont devenues de véritables gouffres énergétiques.

Selon une étude menée par des chercheurs européens dans le cadre du programme de l’Union européenne “Energie intelligente – Europe”, les 7 millions de centres de données recensés dans les pays de l’Union européenne consommeraient, chaque année, 40 milliards de kilowattheures, soit l’équivalent de l’énergie utilisée annuellement par une grande agglomération française pour son éclairage public. Si rien n’est fait, cette consommation électrique pourrait, d’ici à 2011, augmenter de 110 % par rapport à 2006, estime l’enquête qui sera complétée au printemps par des études de cas en entreprises.

“Dans les prochaines années, la croissance des nouveaux data centers sera faramineuse. Si on ne prend pas des mesures maintenant, on va dans le mur !” s’alarme Alain Anglade, chercheur au sein de l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe) et membre de l’équipe de chercheurs. Encore modeste à l’échelle de l’Hexagone, l’énergie utilisée par les centres de données (4 à 6 milliards de kilowattheures) représente 1 % de la consommation d’électricité du pays. Un pourcentage appelé à croître rapidement en raison de la diffusion rapide des nouvelles technologies informatiques. Les banques, par exemple, soumises à des réglementations croissantes en termes de stockage et traitements de leurs données informatiques, sont déjà contraintes d’agrandir leurs centres de données.

Le gouvernement français a saisi l’occasion du plan France numérique 2012, lancé en octobre 2008, par le secrétariat d’Etat au développement de l’économie numérique pour créer un observatoire des centres de données. A horizon de dix-huit mois environ, il permettra aux entreprises de se comparer entre elles et de les aider à prendre des mesures pour qu’elles diminuent la consommation énergétique de leurs machines, explique en substance Alain Anglade, un des responsables du projet pour qui “les entreprises sont déjà sensibilisées car ce gaspillage commence à leur coûter beaucoup d’argent”. Cette mise en commun devrait également permettre aux entreprises d’anticiper sur la création de nouvelles normes environnementales plus contraignantes au niveau européen.

Parallèlement, le ministère de l’économie et des finances vient de lancer un groupe de réflexion. Baptisé “Green ITW” et dirigé par Michel Petit, membre de l’Académie des sciences, il doit proposer, d’ici à mai, des solutions pour une “utilisation éco-responsable” des centres de données. En clair, comment faire des économies d’énergie sans pénaliser les entreprises dans l’utilisation de leurs outils informatiques. Selon l’étude européenne déjà citée, près de 12 milliards d’euros pourraient être économisés grâce à de nouveaux équipements moins gourmands en électricité et des techniques plus efficaces de ventilation des salles.

L’Allemagne a, de son côté, déjà entrepris de lutter contre le gaspillage énergétique des “data centers”. Depuis l’été dernier, un guide est à disposition des entreprises pour leur faire prendre conscience du problème et les pousser à investir dans des équipements plus efficaces. Bien décidé à montrer l’exemple, le ministère fédéral de l’environnement a annoncé en novembre 2008 avoir baissé la consommation d’électricité de ses propres serveurs de 60 %, soit une économie de CO2 de 44 tonnes.

Particulièrement concernés, les géants de l’informatique cherchent eux aussi déjà à réduire la facture énergétique de leurs data centers devenus gigantesques pour stocker e-mails, vidéos et autres documents disponibles en un seul clic. Récemment, Google, Yahoo ! ou encore Microsoft ont installé certains de leurs sites informatiques sur les bords de grands cours d’eau américains. Ils souhaitent pouvoir refroidir plus facilement leurs machines et utiliser les centrales hydrauliques proches pouvant leur fournir de l’électricité moins chère.

Jouant la carte du développement durable, Google affirme avoir investi 45 millions de dollars dans les énergies renouvelables. Le mastodonte américain a même déposé un brevet pour pouvoir installer des centres informatiques alimentés par l’énergie des vagues et refroidis par l’eau de mer sur des plates-formes flottantes.

Source de l’article

[ad]

Intel test la puissance solaire dans un DataCenter

0

Intel a installé des panneaux solaires dans une usine de Rio Rancho au Nouveau-Mexique afin de tester le potentiel d’utilisation de l’énergie solaire photovoltaïques (PV) pour fournir de l’énergie pour les centres de données.
La gamme constituée de 64 panneaux solaires Sharp va générer 10 kilowatts d’électricité, juste une fraction de la quantité nécessaire pour alimenter la plupart des centres de données. Mais le projet pourrait “potentiellement ouvrir la voie à un programme plus agressif dans l’énergie solaire Intel”, selon Marty Sedler, directeur mondial pour les services publics et l’infrastructure d’Intel.

Les test seront réalisés premièrement dans le cadre des datacenter de type contenaire.

L’énergie solaire n’a pas jusqu’ici été largement utilisé dans les centres de données en raison de la grande quantité d’énergie requise pour alimenter les serveurs et le matériel de refroidissement.
Il exige une très grande installation de panneaux solaires PhotoVoltaique pour produire une fraction de l’énergie requise par la plupart des centres de données.

Lors du dernier salon du CeBIT de Mai 2008, Sun Microsystems a montré un contenaire “Blackbox Solaire” raccordé à un réseau de panneaux solaires d’environ 200 mètres carrés, qui produit environ 10 kilowatts de puissance. C’est à peine assez de puissance pour un rack à haute densité dans une Blackbox.
Selon certaines estimations, il faut jusqu’à 30 km carrés de panneaux solaires pour générer 1 mégawatt de puissance. Un autre obstacle est le coût. Google évangélise une approche “énergie verte”, le projet de loi “Weihl”, a déclaré l’année dernière que l’énergie solaire photovoltaïque coûte actuellement environ 15 à 20 centimes le kilowatt, ce qui est «totalement hors de portée” avec toutes les autres sources d’énergie.

Le seul datacenter actuellement entièrement alimenté par l’énergie solaire PV est AISO (Affordable Internet Services Online), qui exploite une installation d’environ 460 mètres carrés à Romoland (US), en Californie, pour une salle serveurs de 120 mètres carrés.
Le datacenter AISO avec ses 120 panneaux solaires génèrent du courant continu, qui est ensuite géré par le biais d’un onduleur et stocké dans des batteries.

L’année dernière, Intel a utilisé de l’air extérieur pour refroidir un datacenter au Nouveau-Mexique, avec des températures qui se situaient entre 17 et 33 degrés.

Affaire à suivre

[ad]

HP réduit la consommation électrique des datacenter

0

Green IT : HP réduit la consommation électrique des datacenter

Les fonctions Dynamic Power Capping du constructeur permettent la réallocation d’électricité et de refroidissement pour une gestion écologique des ressources énergétiques.

Parler green c’est bien, proposer des solutions concrètes et efficaces pour agir c’est mieux ! Si les constructeurs et équipementiers accentuent leurs efforts d’innovation et redoublent leur vigilance pour réduire la consommation électrique, une gestion globale reste indispensable. En effet, la facture d’électricité totalise aussi les consommations des infrastructures et équipements déjà en place.

Jusqu’où légitimer la paranoïa sécuritaire
Les datacenters hébergeant les données et applications critiques de l’entreprise, leurs administrateurs frôlent assez logiquement la paranoïa sécuritaire tous azimuts. Ce qui génère donc de lourds investissements consacrés à la conception d’infrastructures électriques redondantes afin de s’assurer au maximum de la continuité du service informatique, et donc d’une disponibilité optimale des applications et des informations. Des comportements qui poussent souvent les administrateurs informatiques à surdimensionner l’énergie nécessaire pour chaque serveur. Le budget de consommation électrique de ce type de bâtiment faisant partie des dépenses récurrentes indispensables, toute exagération – même pour se rassurer – devient vite pernicieuse.

Superviser et gérer les flux plutôt que tout surdimensionner
Comment enrayer à ce gaspillage d’énergie, tout en diminuant les consommations des serveurs ? HP apporte une réponse efficace à cette situation, grâce aux technologies provenant du rachat du spécialiste américain de la conception de datacenters EYP Mission Critical Facilities en 2007. HP propose aujourd’hui ses fonctionnalités de Dynamic Power Capping pour gérer rationnellement et dynamiquement la consommation électrique de leurs centres informatiques. Ainsi, l’administrateur peut réallouer la puissance électrique et les ressources de refroidissement en fonction des besoins des serveurs, tout en suivant les mesures de consommation en temps réel. Avec ces logiciels de la gamme HP Thermal Logic, inutile de surdimentionner puisqu’il est possible de connaître (et de suivre) les besoins en électricité et en refroidissement de chaque serveur afin de déterminer des limites en fonction de ces mesures.

Des gains immédiats et forcément conséquents
Outre une première économie immédiate liée au surdimensionnement en capacité électrique du datacenter, l’entreprise pourrait économiser plus de 25 % sur la consommation électrique des équipements de son centre informatique. Ce qui représenterait, selon HP, une économie proche de 300 000 dollars par an. Autrement, ces technologies permettent à l’entreprise de multiplier par trois le nombre de serveurs (devenus plus sobres) dans un datacenter en utilisant la même infrastructure et avec la même consommation énergétique. Le constructeur évalue alors l’économie à près de 16 millions de dollars d’investissement pour un datacenter d’un mégawatt.
Considérer un problème dans son ensemble favorise immanquablement un résultat à grande échelle. Et quand il s’agit de consommation de ressources énergétiques, la planète et le portefeuille ne peuvent qu’apprécier !

Pour en savoir plus

[ad]

Des réacteurs nucléaire miniature pour votre datacenter

0

Une entreprise américaine du Nouveau-Mexique (Santa-Fé) a annoncé être en mesure de commercialiser des mini centrales nucléaires compact (pas plus grande qu’une cuve à mazout), qui sont prévues pour générer environ 25 mégawatts d’énergie.
L’annonce par Hyperion Power Generation a amené certains observateurs de technologie à se demander si l’installation de ces mini-cuve pourrait être une solution alternative pour fournir de l’énergie au datacenter.

nuclear_power_1

Sa puissance serait de 25 MW, ce qui, d’après Hyperion, correspond à la consommation d’environ 20.000 foyers aux Etats-Unis (effectivement estimée à 11.000 kWh/an). Un module HPM pourrait donc alimenter une petite ville.
Au tarif annoncé de 25 millions de dollars (environ vingt millions d’euros), le prix de revient par foyer semble compétitif. Un HPM pourrait aussi être envisagé pour un site industriel, une installation militaire ou pour alimenter des installations dans des lieux isolés. D’ailleurs, affirme l’entreprise, les carnets de commande sont pleins et Hyperion serait déjà sûre de vendre une centaine d’unités. Les premiers exemplaires seront produits en 2013 et les acheteurs se présentant aujourd’hui ne seront livrés qu’en 2014. Entre 2013 et 2023, Hyperion prévoit une production de 4.000 réacteurs.

Risque zéro, affirme le vendeur

La première commande ferme serait venue de la République tchèque, de la part de l’entreprise TES. Une autre proviendrait de Roumanie, mais, interrogés, des responsables du comité national du contrôle de l’énergie nucléaire affirment n’avoir entendu parler de rien de ce genre.

Le réacteur HPM utiliserait de l’uranium faiblement enrichi, c’est-à-dire contenant moins de 20% d’uranium 235, un combustible habituellement utilisé dans les centrales nucléaires. Mais ce réacteur « ne comporte aucune partie mobile, explique John Deal, le président de la société, et il est impossible d’avoir un accident du type de celui Tchernobyl ». Selon Hyperion, la masse critique (au-delà de laquelle se déclenchent des réactions en chaîne) ne peut pas être atteinte.

Par ailleurs, la quantité de combustible nucléaire est faible et l’engin n’est pas destiné à être ouvert durant sa durée de fonctionnement, qui serait de 5 à 10 ans. Au bout de ce laps de temps, cette « pile », comme l’appelle parfois Hyperion, laisserait un résidu de la taille d’une noix de coco qui serait facilement recyclé. Par ailleurs, se servir de cet uranium pour réaliser une bombe atomique serait inenvisageable, explique Hyperion.

Bien des détails techniques manquent pour se faire une idée plus précise des performances et des dangers potentiels mais remarquons qu’Hyperion n’est pas le premier à plancher sur ce sujet. Toshiba a testé un réacteur baptisé 4S (Super Safe, Small and Simple) de petite taille mais toutefois nettement plus grand que le HPM.

nuclear_power_2

L’idée fera-t-elle des émules ?

Source de l’article

[ad]

La classification en tiers des datacenter

3

L’objectif des opérateurs de datacenter est d’assurer une disponibilité proche du 100%

DATA_CENTER_CHART

L’image ci-dessus décrit pour chaque tiers, son taux théorique de disponibilité ainsi que ses caractéristiques.

Uptime Institute a défini des niveaux suivant les règles suivantes :

* Tier I: Composé d’un seul circuit électrique pour l’énergie et pour la distribution de refroidissement, sans composants redondants, offre un taux de disponibilité de 99,671%

* Tier II: Composé d’un seul circuit électrique pour l’énergie et pour la distribution de refroidissement, avec des composants redondants, offre un taux de disponibilité de 99,741%

* Tier III: Composé de plusieurs circuit électrique pour l’énergie et pour la distribution de refroidissement, mais seulement un circuit est actif, a des composants redondants, offre un taux de disponibilité de 99,982%

* Tier IV: Composé de plusieurs circuit électrique pour l’énergie et pour la distribution de refroidissement, a des composants redondants, actifs et supporte la tolérance de panne, offre un taux de disponibilité de 99,995%

Les datacenter en Tier I ont beaucoup de points uniques de défaillance ou Single Point Of Failure (SPOF), l’infrastructure doit être complètement arrêté pour des entretiens préventif ou pour des travaux de maintenance annuel.

A contrario, les datacenter Tier IV ont tous les éléments nécessaires redondés ce qui permet de maintenir en fonctionnement le datacenter sans jamais avoir besoin de l’arrêter pour un entretien, une maintenance annuel ou un remplacement d’un élément actif.

[ad]

Avez-vous une vraie stratégie pour réduire la consommation de votre datacenter ?

0

Est-ce que votre direction du SI a défini des directives sur un tableau blanc ?
Est-ce que vos démarches vont dans le sens de réduire les émissions de co2 en investissant dans des infrastructures de vidéoconférence pour les travailleurs à distance ?
La réponse est probablement oui.

Il y a un énorme décalage entre les installations et l’informatique. Dans une récente enquête SearchDataCenter.com, un tiers des répondants ont dit qu’ils ne savaient même pas comment réduire leurs factures électrique.

Voici une feuille de route pour un datacenter vert basée sur des interviews d’experts et de conseils de SearchDataCenter.com.

Étape 1, Faite une présentation à vos managers indiquant l’empreinte énergétique du datacenter :

– Qui paie la facture d’électrique du Datacenter ?
– Quel est le coût mensuel d’avoir des serveurs en fonctionnement h24 ?
– Quel est la tendance de prix du kWh des 24 derniers mois ?
– Quel est la tendance de prix du kWh pour les 24 prochains mois ?
– Quel seront vos besoin pour les mois et les années à venir ?
– Quel seront les coûts d’extension de votre datacenter ?

Ne parlez pas de kWh. Au lieu de cela, expliquer que vous dépensez X euros pour fournir ce service aujourd’hui, et vous pensez que vous pouvez réduire les dépenses et de fournir le même niveau de service.

Étape 2, Lancez-vous dans les calculs de PUE “Power Usage Effectiveness”

Pour obtenir une base de référence de la quantité d’énergie utilisée pour les serveurs et combien de cette énergie est en train de se perdre sur le refroidissement et l’infrastructure.
Définir des objectifs pour améliorer le rapport. Mesure de la même manière constante, au fil du temps. Gardez un oeil sur l’ASHRAE pour plus de détails sur les meilleures pratiques verte.

Étape 3, Débarrassez-vous des serveurs plus utilisés mais toujours en salle serveurs

L’ Uptime Institute a estimé à environ un tiers les serveurs des Datacenters qui ne sont plus utilisés. Auditez votre matériel, faites le démantèlement des machines plus fonctionnelles et sortez les de vos salles.
Trop souvent, les entreprises laissent les serveurs de production non utilisés en place, les utilisent ailleurs (serveur d’essai ou de développement bacs à sable).
Déclassé les serveurs, oui mais comment vous débarrasser d’eux ?:

* maintenir une base à jour pour savoir ce qu’ils sont censés faire.
* Pour les serveurs inconnus, demandez “A qui sont ces serveurs?”
* Si vous n’avez pas de réponse, donner leurs 90 jours, débranchez-les et si personne ne crie c’est qu’ils ne sont pas utilisés.
* Si quelqu’un crie car il a besoin de l’application mais pas besoin du serveur, expliqué-lui que vous aller la virtualiser sur un serveur plus pluissant, il sera content.

Dans une prochaine étape, chercher à virtualiser et a consolider.

Étape 4, tuné la configuration de vos allées chaudes

Au cours des dernières années les allées alternées chaud-froid sont devenues de facto des bonnes pratiques des datacenters.
Mais avec l’augmentation de la densité, les gains d’efficacité se sont érodés.
Les allées chaudes/froides sont soignées dans les dessins, mais dans la pratique, jusqu’à 40% de l’air ne fait pas sont travail.
L’air chaud passe par les sommets des racks et autour des allées, ou à travers les trous dans le sol où il n’est pas nécessaire.
Les professionels des datacenters peuvent faire d’énormes gains en obturant les trous et en reconfigurant les unités de traitement de l’air.

* Un faux-plancher de 40 cm de haut est le minimum recommandé.
* Gardez-le propre! Débarrassez-vous de l’encombrement de votre plancher surélevé, comme les câbles ou les tuyaux. Faite faire un nettoyage périodiquement. La poussière et les débris peuvent entraver la circulation de l’air.
* Enlevez les dalles perforées superflu, dans les allées chaude par exemple.
* Eliminez les fuites d’air en utilisant des joints en caoutchouc sous les dalles.
* Utilisez des obturateurs de baies pour éviter le mélange de l’air chaud avec l’air frais et évitez que l’air frais parte directement dans les allées chaudes.

Certains gestionnaires de datacenters mettent des rideaux en plastique pour confiner les allées froides, ce systèmes permet de faire d’énormes économies d’énergie.
Lors de ces ajustements, les gestionnaires des datacenters ont besoin de vérifier soigneusement la façon dont ces changements ont une incidence sur les températures et l’énergie, si vous n’avez pas de sonde de température sur vos baies faites appel à des experts qui pourront réaliser des mesures pre et post opération.

Aucune de ces suggestions n’est révolutionnaires.
Le meilleur conseil pour les dirigeants en mal de “Green IT” est de faire une vrai feuille de route, de comptabiliser les coûts de l’énergie utilisée dans les datacenters et d’en mesurer les gains après changements.

[ad]

Comment Google compte puiser de l’énergie dans l’océan

La récente demande de brevet pour un Data Center flottant par Google a déclenché beaucoup de discussions au sein de l’industrie des Data Center.

Une des plus intéressantes facettes du concept est l’emploi de l’action des vagues pour produire de l’électricité, fournissant potentiellement une source d’énergie qui est à la fois écologique et bon marché.

Le concept de Google est basé sur les réseaux électriques de Pelamis, une société britannique qui a développé d’énormes “serpents de mer” composé d’une série de cylindre flottant.

La première expérience commerciale sera réalisé cette semaine au large des côtes du Portugal, et offrira jusqu’à à 2,25 mégawatts d’énergie électrique.

Voici une brève vidéo offrant plus de détails sur la production d’électricité par les Pelamis .

Cette vidéo dure environ 1 minute.

[ad]

Go to Top
%d bloggers like this: