Archive for September, 2008

Cisco dévoile le Switch virtuel pour VMware

0

Cisco Systems a annoncé aujourd’hui son très attendu logiciel de switch virtuel, le Nexus 1000, qui deviendra une option intégré dans la virtualisation d’infrastructure VMware.
Les deux sociétés ont fait l’annonce dans un discours à la “VMworld 2008“, où ils ont également dévoilé une collaboration pour aider les entreprises à virtualiser les postes de travail et leur permettrent de se lancer dans la virtualisation de leur datacenters.

Cisco Systems a annoncé aujourd’hui sa longue virtuel de logiciel devrait changer, le Nexus 1000, qui deviendra une option dans la virtualisation VMware Infrastructure environnement. Les deux sociétés ont fait l’annonce dans un discours à la montrer VMworld 2008, où ils ont également dévoilé des collaborations pour aider les entreprises à virtualiser les postes de travail et leur train de revendeurs de données centrale des stratégies de virtualisation.

Cette annonce est la dernière étape de l’initiative “Cisco Data Center 3.0″, et s’aligne avec la vision de VMware pour que les machines virtuelles deviennent la pierre angulaire de la prochaine génération de datacenters. Il approfondit également le partenariat entre VMware (VMW) et Cisco (CSCO), fournissant à chacun un puissant allié dans leurs ambitions sur les datacenters.

Le Nexus 1000 de Cisco apporte de la sécurité, de la stratégie d’automatisation des applications, du provisioning et des éléments de diagnostic dans les environnements VMware qui peut s’échélonner à des milliers de machines virtuelles (VM).
Le nouveau Cisco Virtual Network Link (VN-Link) sur technologie Nexus 1000 intégrer avec VMware Distributed Switch vNetwork permettra de créer une infrastructure de réseau logique.

Ce logiciel permettra aux responsables informatiques d’appliquer les capacités physiques du matériel Cisco à chaque machine virtuelle, qui rendra plus facile la gestion de migration des machines virtuelles à travers les serveurs physiques.

Source www.datacenterknowledge.com

[ad]

Avez-vous une vraie stratégie pour réduire la consommation de votre datacenter ?

0

Est-ce que votre direction du SI a défini des directives sur un tableau blanc ?
Est-ce que vos démarches vont dans le sens de réduire les émissions de co2 en investissant dans des infrastructures de vidéoconférence pour les travailleurs à distance ?
La réponse est probablement oui.

Il y a un énorme décalage entre les installations et l’informatique. Dans une récente enquête SearchDataCenter.com, un tiers des répondants ont dit qu’ils ne savaient même pas comment réduire leurs factures électrique.

Voici une feuille de route pour un datacenter vert basée sur des interviews d’experts et de conseils de SearchDataCenter.com.

Étape 1, Faite une présentation à vos managers indiquant l’empreinte énergétique du datacenter :

– Qui paie la facture d’électrique du Datacenter ?
– Quel est le coût mensuel d’avoir des serveurs en fonctionnement h24 ?
– Quel est la tendance de prix du kWh des 24 derniers mois ?
– Quel est la tendance de prix du kWh pour les 24 prochains mois ?
– Quel seront vos besoin pour les mois et les années à venir ?
– Quel seront les coûts d’extension de votre datacenter ?

Ne parlez pas de kWh. Au lieu de cela, expliquer que vous dépensez X euros pour fournir ce service aujourd’hui, et vous pensez que vous pouvez réduire les dépenses et de fournir le même niveau de service.

Étape 2, Lancez-vous dans les calculs de PUE “Power Usage Effectiveness”

Pour obtenir une base de référence de la quantité d’énergie utilisée pour les serveurs et combien de cette énergie est en train de se perdre sur le refroidissement et l’infrastructure.
Définir des objectifs pour améliorer le rapport. Mesure de la même manière constante, au fil du temps. Gardez un oeil sur l’ASHRAE pour plus de détails sur les meilleures pratiques verte.

Étape 3, Débarrassez-vous des serveurs plus utilisés mais toujours en salle serveurs

L’ Uptime Institute a estimé à environ un tiers les serveurs des Datacenters qui ne sont plus utilisés. Auditez votre matériel, faites le démantèlement des machines plus fonctionnelles et sortez les de vos salles.
Trop souvent, les entreprises laissent les serveurs de production non utilisés en place, les utilisent ailleurs (serveur d’essai ou de développement bacs à sable).
Déclassé les serveurs, oui mais comment vous débarrasser d’eux ?:

* maintenir une base à jour pour savoir ce qu’ils sont censés faire.
* Pour les serveurs inconnus, demandez “A qui sont ces serveurs?”
* Si vous n’avez pas de réponse, donner leurs 90 jours, débranchez-les et si personne ne crie c’est qu’ils ne sont pas utilisés.
* Si quelqu’un crie car il a besoin de l’application mais pas besoin du serveur, expliqué-lui que vous aller la virtualiser sur un serveur plus pluissant, il sera content.

Dans une prochaine étape, chercher à virtualiser et a consolider.

Étape 4, tuné la configuration de vos allées chaudes

Au cours des dernières années les allées alternées chaud-froid sont devenues de facto des bonnes pratiques des datacenters.
Mais avec l’augmentation de la densité, les gains d’efficacité se sont érodés.
Les allées chaudes/froides sont soignées dans les dessins, mais dans la pratique, jusqu’à 40% de l’air ne fait pas sont travail.
L’air chaud passe par les sommets des racks et autour des allées, ou à travers les trous dans le sol où il n’est pas nécessaire.
Les professionels des datacenters peuvent faire d’énormes gains en obturant les trous et en reconfigurant les unités de traitement de l’air.

* Un faux-plancher de 40 cm de haut est le minimum recommandé.
* Gardez-le propre! Débarrassez-vous de l’encombrement de votre plancher surélevé, comme les câbles ou les tuyaux. Faite faire un nettoyage périodiquement. La poussière et les débris peuvent entraver la circulation de l’air.
* Enlevez les dalles perforées superflu, dans les allées chaude par exemple.
* Eliminez les fuites d’air en utilisant des joints en caoutchouc sous les dalles.
* Utilisez des obturateurs de baies pour éviter le mélange de l’air chaud avec l’air frais et évitez que l’air frais parte directement dans les allées chaudes.

Certains gestionnaires de datacenters mettent des rideaux en plastique pour confiner les allées froides, ce systèmes permet de faire d’énormes économies d’énergie.
Lors de ces ajustements, les gestionnaires des datacenters ont besoin de vérifier soigneusement la façon dont ces changements ont une incidence sur les températures et l’énergie, si vous n’avez pas de sonde de température sur vos baies faites appel à des experts qui pourront réaliser des mesures pre et post opération.

Aucune de ces suggestions n’est révolutionnaires.
Le meilleur conseil pour les dirigeants en mal de “Green IT” est de faire une vrai feuille de route, de comptabiliser les coûts de l’énergie utilisée dans les datacenters et d’en mesurer les gains après changements.

[ad]

Comment Google compte puiser de l’énergie dans l’océan

La récente demande de brevet pour un Data Center flottant par Google a déclenché beaucoup de discussions au sein de l’industrie des Data Center.

Une des plus intéressantes facettes du concept est l’emploi de l’action des vagues pour produire de l’électricité, fournissant potentiellement une source d’énergie qui est à la fois écologique et bon marché.

Le concept de Google est basé sur les réseaux électriques de Pelamis, une société britannique qui a développé d’énormes “serpents de mer” composé d’une série de cylindre flottant.

La première expérience commerciale sera réalisé cette semaine au large des côtes du Portugal, et offrira jusqu’à à 2,25 mégawatts d’énergie électrique.

Voici une brève vidéo offrant plus de détails sur la production d’électricité par les Pelamis .

Cette vidéo dure environ 1 minute.

[ad]

Microsoft envisage d’utiliser des panneaux solaires

0

Microsoft envisage d’installer des panneaux solaires sur le toit de son nouveau Datacenter à San Antonio, et utiliser l’énergie photovoltaïque afin de compléter les 50 mégawatts de capacité de son infrastructure.

Les panneaux solaires ne sont qu’un exemple des nombreuses mesures que Microsoft est en cours d’entreprendre pour intégrer les technologies vertes dans ses nouveaux centres de données.

L’énergie solaire n’a pas été plus largement utilisée dans les datacenters en raison de l’énorme quantité d’énergie requise pour alimenter les serveurs et les équipements de refroidissement.
Cela exige une énorme installation de panneaux photovoltaïques pour produire une fraction de l’énergie requise par la plupart des centres de données.

Le seul datacenter actuellement entièrement alimenté par de l’énergie solaire est AISÖ (Affordable Internet Services Online), qui exploite 140 métres carrés à Romoland, en Californie.
AISÖ utilise 120 panneaux solaires qui produisent du courant continu, qui est ensuite utilisé par un onduleur et stocké dans des batteries.

L’énergie solaire produite pour des besoins d’alimentation de datacenters est illustrée par des projets d’énergie solaire initiés par Microsoft et Google dans la Silicon Valley.
En avril 2006, Microsoft a construit une gamme de panneaux solaires dans son campus de la Silicon Valley, à Mountain View, Californie composé de 2288 tuiles avec une capacité en pointe de 480 kilowatts.
Quatre mois plus tards, Google a dévoilé un projet solaire encore plus grand sur les toits de son Googleplex, à Mountain View.
Google a dévoilé son système de 9212 panneaux solaires qui peuvent produire en pic une capacité de production de 1,6 mégawatts.

Selon certaines estimations, il faut jusqu’à 10.000 mètres carrés de panneaux solaires pour produire 1 mégawatt de puissance.
Le datacenter de Microsoft à San Antonio fait 47.700 mètres carrés, ce qui signifie que si Microsoft couvre une partie du toit de panneaux solaires, il pourrait en fin de compte générer plusieurs mégawatts de puissance.
Ce n’est qu’une fraction des 50 mégawatts de puissance dont ce datacenter est capable.

La scalabilité n’est pas le seul problème entravant l’usage de l’énergie solaire dans les datacenters. Dans une récente présentation sur les énergies renouvelables, le gourou de Google, Mr. Weihl, a annoncé que le solaire est nettement plus cher que toutes les autres sources d’énergie renouvelables de substitution, d’un coût de 0,25 $ le kilowatt heure et plus.

Cela ne signifie pas que l’énergie solaire n’a pas d’avenir pour les datacenters.
Google a fait plusieurs investissements dans l’énergie thermique solaire, en utilisant la chaleur du soleil plutôt que la lumière pour produire de l’énergie.
Le solaire thermique est moins cher à produire que l’énergie solaire photovoltaique (bien que plus coûteux que le charbon) et a été utilisé dans l’ installation de “utility scale” au désert de Mojave pour une capacité de 500 mégawatts.

[ad]

Déduplication de données

0

La déduplication de données est à la mode.

Tout le monde si met, EMC, IBM, Netapp, Quantum, HP, etc… se lancent tous dans la technologie de déduplication.

L’inclusion de cette technologie permet un gain d’espace pouvant atteindre un facteur de 50 par rapport aux technologies de sauvegarde traditionnelles.

Comment ça marche ?

La déduplication des données représente une nouvelle technologie décisive pour contrôler la prolifération des données. En moyenne, un volume de disque basé sur UNIX® ou Windows® contient des milliers, voire des millions, de données dupliquées.

La création, la distribution, la sauvegarde, l’archivage et la copie des données font qu’elles peuvent être présentes à tous les niveaux de stockage, ce qui engendre une utilisation inefficace des ressources de votre système.

L’élimination des données redondantes pour ne garder que les fichiers originaux offre un avantage immédiat, à savoir des économies d’espace de stockage. Les avantages de cette opération sont doubles :

  • Avantage au niveau des coûts : réduction des frais d’acquisition, ou mises à niveau plus espacées des capacités de stockage.
  • Avantage au niveau de la gestion : stockage d’un plus grand nombre de données par unité, ou rétention des données en ligne sur de plus longues durées.

En fait, la déduplication recherche des séquences identiques de données pour en garder qu’une seule copie, reduisant ainsi les besoins de stockage.

Elle est aussi utilisée en cas de “disastrer recovery”, en copiant les données dédupliquées sur un site distant.

Visionner cette présentation d’Emc²

[ad]

Un tiers des gestionnaires de datacenter ne savent pas que leur facture électrique a augmenté

0

Trente-six pour cent des gestionnaires de centre de données disent ne pas savoir que leurs factures d’électricité a augmenté entre 2007 et 2008, ce qui suggère qu’une grande partie de cette industrie continue l’exploitation de leurs installations sans aucune stratégie de réduction des coûts.

C’est la conclusion d’une enquête sur plus de 600 gestionnaires de centre de données, rapport résumé sur Tech Target.

L’enquête montre une forte volonté de lancer une stratégie d’efficacité énergétique, par la virtualisation des serveurs, l’amélioration de l’efficacité du refroidissement, et l’arrêt des serveurs idle mais ne connaissent pas combien ils épargnent.

L’enquête a également révélé une forte résistance aux refroidissement des centres de données avec des technologies liquides, 64 pour cent des interviewés disent ne pas envisager de refroidissement par système liquide dans leur centre de données.

Sept pour cent ont dit qu’ils utilisent le refroidissement par système liquide sur toutes les nouvelles installations, tandis que 8 pour cent l’ avaient expérimenté et 21 pour cent l’envisagent.

[ad]

IBM et RackForce construisent un GigaCenter

0

IBM a confirmé aujourd’hui qu’il travaillera avec Rackforce Corp. pour développer un centre de données “GREEN” à haute densité en Colombie-Britannique.

GigaCenter, sera un bâtiment 14.000 m² et l’hydro-l’éléctricité sera fournie par la rivière Columbia.

Le nouveau bâtiment sera le plus grand centre de données au Canada et parmi les plus efficaces du monde.

Bien que l’annonce d’aujourd’hui n’a pas cité les objectifs de densité, les rapports précédents sur le projet suggèrent que l’installation sera en mesure de pouvoir tenir compte de charge d’environ 7 kiloWatts par m², soit 14 kiloWatts par rack.

“Notre ambition est de construire un centre de données sécurisé dans un endroit sûr et de répondre à une préoccupation de plus en plus exigente en cas de sinistre causé par des événements naturels comme les tremblements de terre et les inondations», a déclaré Tim Dufour, président de RackForce. “Nous savions qu’il y avait une possibilité de fournir aux sociétés nord-américaines un centre de données qui pourraient faire tout cela. En collaboration avec IBM dans le cadre d’une approche Green Data Center, nous avons été en mesure de concevoir l’installation pour optimiser l’énergie. “

Source DataCenter Knowledge

[ad]

Google pense créer des datacenters flottants

2

Google, qui continue à étudier des solutions alternatives pour réduire les coûts liés à l’exploitation des datacenters décrit dans une demande de dépôt de brevet un nouveau concept de construction de datacenters.

L’océan peut fournir suffisamment d’énergie pour alimenter et refroidir les serveurs et les équipements, et ce, tout en réalisant des économies sur les dépenses immobilières et les impôts fonciers.

Mais Google peut-il vraiment répondre aux défis opérationnels d’un de centre de données flottant océanique? L’un des plus grands points d’interrogation est la capacité de survivre à des catastrophes naturelles.

Comment se prémunir d’un ouragan ? Ou d’un tsunami ? surtout que ces deux dernières semaines plusieurs ouragans ont frappé les côtes des États-Unis.

Le centre de données flottant décrit par Google serai situé entre 3 et 7 milles des côtes, dans environ 50 à 70 mètres d’eau, et disposerait d’un réseau de 40 ou plus de “Pelamis Wave Energy Converters”.

pelamis

Il s’agit de convertisseurs d’énergie qui utilisent le mouvement de l’eau pour produirent de l’énergie.

Le pelamis est une chaine de cylindres reliés par des charnières semi-immergées, ils font environ 140 mètres de longueur chacuns.

Ce type de DC semble moins solide que les plates-formes pétrolières et étant mobiles que pourrait-il arriver si le cyclone Gustave passai par là avec des rafales de vents à 200 km/h ?

Le dépôt de brevet cite également la mobilité du centre de données flottant comme un avantage par rapport aux centres de données traditionnels.

Les avantages notable sont, pouvoir déplacer le DC lorsque le délai légal d’occupation d’un espace expire, variation saisonnière ou pouvoir se déplacer selon la demande.

Google a toujours gardé secret la manière dont sont faits ses centre de données ainsi que la technologie utilisée, reste à voir si ce concept est uniquement un brevet ou si Google ce lance vraiment dans l’exploitation de centres de données flottants.

Pelamis

[ad]

Go to Top
%d bloggers like this: