Archive for December, 2008

Un cas d’école de l’exploitation des datacenters : la virtualisation

0

Un cas d’école de l’exploitation des datacenters : la virtualisation

Propres à satisfaire des besoins en capacité croissants, les ressources virtualisées soulèvent cependant des problèmes de gestion. L’aptitude à bien exploiter les systèmes virtualisés est déterminante pour l’atteinte des gains espérés.

Nécessité de la virtualisation

Les organisations informatiques qui utilisent des solutions de serveur, de stockage et de système de fichiers virtualisées en tirent de grands avantages. Les entreprises demandent sans cesse de nouvelles applications et fonctionnalités, mais elles ne revoient pas pour autant leur budget informatique en conséquence. Beaucoup se tournent vers la virtualisation pour optimiser les ressources de leurs plates-formes.
Cette démarche, autrefois limitée aux études, s’étend désormais aux systèmes de production, notamment aux infrastructures d’applications et de serveurs Web. Si les ressources virtualisées aident à satisfaire les besoins en capacité croissants, elles engendrent également de nouveaux et sérieux problèmes de gestion. À long terme, l’aptitude à bien gérer les systèmes virtualisés est déterminante pour la réussite des stratégies de virtualisation.

D’après les études de marché, la plupart des entreprises ont adopté ou vont adopter la virtualisation de serveurs. A l’heure actuelle, celle-ci est essentiellement utilisée lors des projets de consolidation de serveurs, de migration de serveurs ou de décloisonnement d’applications, et les entreprises qui y recourent déclarent avoir ainsi réalisé d’importantes économies d’énergie et de capital, tout en augmentant le taux d’utilisation de leurs machines. Pour beaucoup de datacenters, la virtualisation offre également des avantages, notamment :

• Ajout de capacité à la demande pour maintenir de hautes performances en période « de pointe » ou pour exploiter des services temporaires
• Possibilité d’utiliser plusieurs applications sur un même serveur sans beaucoup de puissance d’unité centrale
• Possibilité de réserver des applications ou des ressources à un serveur physique ou à une machine virtuelle
• Prise en charge économique des stratégies de continuité et de reprise après sinistre
• Encombrement réduit et conservation de l’espace (une ressource onéreuse) nécessaire aux racks

De plus, les fournisseurs multiplient aujourd’hui les solutions, ce qui facilite la virtualisation de l’exploitation. Les logiciels ne manquent pas, qu’il s’agisse de VMware, Sun Solaris™ 10, de Microsoft® Virtual Server, d’IBM LPAR, XenSource, ou HP avec Virtual Serveur Environment et Integrity Virtual Machine.

Face à cette diversité de solutions découle le problème numéro un en matière de virtualisation : une gestion industrielle et fiable des différentes ressources qu’elles soient physiques ou virtuelles.

Obstacles à la gestion de la virtualisation

Comme d’autres solutions technologiques appréciées, la virtualisation se répand rapidement, lorsqu’un environnement d’entreprise en a fait l’essai. Pour chaque serveur physique géré, les organisations informatiques dénombrent en moyenne quatre à dix serveurs virtuels, sans parler de ceux qui échappent à la gestion et à la surveillance, par exemple les serveurs utilisés par les équipes de développement. La grande complexité annule rapidement les économies réalisées grâce à la virtualisation, engendrant des coûts de gestion. La prolifération des machines virtuelles nuit également au maintien de la sécurité et de la conformité dans un environnement en mutation accélérée.
Non seulement il faut configurer et administrer les systèmes virtuels comme des serveurs physiques, mais aussi de nouveaux problèmes de gestion apparaissent.

• Multiplicité des outils de gestion. Plusieurs solutions de serveur virtuel nécessitent des outils de gestion spécifiques. Sans fonctions d’audit ou d’authentification centralisées, il faut protéger, surveiller et faire interagir des systèmes de gestion multiples, ce qui accroît la charge de travail des équipes informatiques.
• Différences entre l’environnement physique et l’environnement virtuel. Il est difficile de gérer de la même façon un environnement physique et un environnement virtuel, même s’ils exécutent parfois un système d’exploitation identique. Il faut en effet contrôler et rapprocher un grand nombre de représentations pour associer les serveurs physiques et virtuels aux ressources qu’ils fournissent.
• Manque de visibilité d’une plate-forme à une autre. Qui dit multiplication des systèmes de gestion de serveurs physiques et virtuels dit impossibilité d’optimiser des applications avec leurs données et ressources associées, si elles résident sur plusieurs plates-formes de virtualisation. Visualiser tout un environnement d’application « en un coup d’oeil » n’est plus possible.
• Relations hôte-invité mal maîtrisées. Les environnements virtualisés proposent une représentation limitée des relations hôte-invité. Si les interactions d’applications entre les serveurs physiques et virtuels ne sont pas connues, il se révèle difficile de surveiller l’utilisation et de planifier les capacités.

Mieux unifier pour mieux virtualiser

À long terme, la virtualisation n’est bénéfique que moyennant une gestion intégrée. Un environnement virtuel est bien géré si l’on peut l’administrer avec les processus de l’environnement physique (ou mieux avec des processus améliorés), sans surcroît de coût, de complexité ou de besoin en personnel. En d’autres termes, une bonne solution de gestion de serveurs virtuels doit pouvoir également gérer l’environnement physique, tout en intégrant les propriétés des machines virtuelles.

Une plate-forme intégrée de gestion de la virtualisation vous aide à mettre en ligne, à configurer et à administrer des plates-formes virtuelles hétérogènes, qu’elles soient d’origine HP, VMware, Solaris, Microsoft, Xen ou autres.L’application des mises à jour et des correctifs doit être aussi facile (et même assez simple pour que l’on puisse l’automatiser) sur les serveurs virtuels que sur les serveurs physiques. Vous devez également automatiser la création et la mise en ligne d’un grand nombre de serveurs physiques et virtuels, tout en vous conformant aux stratégies de sécurité.

De la création à la suppression des machines virtuelles, vous devez gérer tout le cycle de vie des serveurs. En tant qu’extensions souples des serveurs physiques, les serveurs virtuels évoluent de manière dynamique. Vous devez pouvoir facilement les créer, les mettre en marche, les arrêter et les supprimer, suivant les besoins.

Vous devez connaître et surveiller les relations unissant les serveurs virtuels entre eux, qu’ils résident sur le même hôte ou non, ainsi qu’à leurs hôtes respectifs.

Vous devez utiliser les mêmes stratégies et pratiques d’excellence sur vos serveurs physiques et virtuels. Idéalement, une solution de gestion intégrée améliore l’administration des deux types de machine.

[ad]

HP réduit la consommation électrique des datacenter

0

Green IT : HP réduit la consommation électrique des datacenter

Les fonctions Dynamic Power Capping du constructeur permettent la réallocation d’électricité et de refroidissement pour une gestion écologique des ressources énergétiques.

Parler green c’est bien, proposer des solutions concrètes et efficaces pour agir c’est mieux ! Si les constructeurs et équipementiers accentuent leurs efforts d’innovation et redoublent leur vigilance pour réduire la consommation électrique, une gestion globale reste indispensable. En effet, la facture d’électricité totalise aussi les consommations des infrastructures et équipements déjà en place.

Jusqu’où légitimer la paranoïa sécuritaire
Les datacenters hébergeant les données et applications critiques de l’entreprise, leurs administrateurs frôlent assez logiquement la paranoïa sécuritaire tous azimuts. Ce qui génère donc de lourds investissements consacrés à la conception d’infrastructures électriques redondantes afin de s’assurer au maximum de la continuité du service informatique, et donc d’une disponibilité optimale des applications et des informations. Des comportements qui poussent souvent les administrateurs informatiques à surdimensionner l’énergie nécessaire pour chaque serveur. Le budget de consommation électrique de ce type de bâtiment faisant partie des dépenses récurrentes indispensables, toute exagération – même pour se rassurer – devient vite pernicieuse.

Superviser et gérer les flux plutôt que tout surdimensionner
Comment enrayer à ce gaspillage d’énergie, tout en diminuant les consommations des serveurs ? HP apporte une réponse efficace à cette situation, grâce aux technologies provenant du rachat du spécialiste américain de la conception de datacenters EYP Mission Critical Facilities en 2007. HP propose aujourd’hui ses fonctionnalités de Dynamic Power Capping pour gérer rationnellement et dynamiquement la consommation électrique de leurs centres informatiques. Ainsi, l’administrateur peut réallouer la puissance électrique et les ressources de refroidissement en fonction des besoins des serveurs, tout en suivant les mesures de consommation en temps réel. Avec ces logiciels de la gamme HP Thermal Logic, inutile de surdimentionner puisqu’il est possible de connaître (et de suivre) les besoins en électricité et en refroidissement de chaque serveur afin de déterminer des limites en fonction de ces mesures.

Des gains immédiats et forcément conséquents
Outre une première économie immédiate liée au surdimensionnement en capacité électrique du datacenter, l’entreprise pourrait économiser plus de 25 % sur la consommation électrique des équipements de son centre informatique. Ce qui représenterait, selon HP, une économie proche de 300 000 dollars par an. Autrement, ces technologies permettent à l’entreprise de multiplier par trois le nombre de serveurs (devenus plus sobres) dans un datacenter en utilisant la même infrastructure et avec la même consommation énergétique. Le constructeur évalue alors l’économie à près de 16 millions de dollars d’investissement pour un datacenter d’un mégawatt.
Considérer un problème dans son ensemble favorise immanquablement un résultat à grande échelle. Et quand il s’agit de consommation de ressources énergétiques, la planète et le portefeuille ne peuvent qu’apprécier !

Pour en savoir plus

[ad]

Deux fournisseurs qui rationalisent leurs data centers

0

Les cordonniers sont les plus mal chaussés a-t-on coutume de dire. Ce proverbe, qui serait issu d’une réflexion de Montaigne dans ses Essais, serait mis à mal dans les cas d’IBM et d’HP.

Les deux fournisseurs ont en effet entrepris un programme de transformation de leurs propres systèmes informatiques avec à la clé une réduction drastique des data centers, mais aussi une augmentation de l’efficacité et une diminution des coûts.

Depuis 1997, IBM a réduit le nombre de ses centres informatiques de 155 à 7, mais sans pour autant réduire le nombre de serveurs dans une proportion comparable.
L’année dernière, IBM s’est lancé donc dans une réduction drastique du nombre de serveurs en décidant de migrer sur 30 mainframes System z9 fonctionnant sous Linux toutes les applications réparties actuellement sur 3900 serveurs.

Fait à noter, l’ensemble des mainframes fonctionneront sous Linux.
Avec l’arrivée des z10, annoncés il y a quelques mois, IBM va encore plus en réduisant à 17 le nombre total de systèmes dans ses data centers. Du côté logiciel, même opération de purge en passant de 15 000 applications à 4 700, induisant d’importants coûts en licences.

Pour gérer tout cela, un seul DSI suffira, là où IBM en avait 128 en 1997.
Cette initiative s’inscrit dans le Projet Big Green annoncé en mai 2007 dans lequel IBM annonçait toute
une série de disposition pour réduire la consommation de ses propres sites, mais aussi des sites de ses
clients.

IBM entend ainsi réduire la consommation de ses centres de 85% et l’empreinte physique de 80%.

De l’informatique à la stratégie
De son côté, HP s’est lancé dans une évolution comparable. Planifiée sur 3 ans, l’initiative a été lancée par Randy Mott, ex DSI de Dell et embauché en 2005 pour mener à bien ce projet de rénovation de l’infrastructure informatique d’HP.

HP vient d’en publier les résultats.

Le premier résultat, peut-être le plus tangible, est une réduction par deux ses coûts informatiques, tout en apportant une infrastructure plus fiable et plus évolutive. « Cette transformation n’est pas une initiative technologique au sein de la DSI, mais bien une stratégie business adoptée par l’entreprise », commente Dandy Mott.
Au cours de l’exercice fiscal 2009, cette consolidation devrait permettre une réduction des coûts d’un
milliard de dollar par rapport au niveau de 2005 alors que pendant le même temps, HP a augmenté son
activité de 25 milliards de dollars de chiffres d’affaires.

Quelques chiffres.
Les chiffres communiqués par HP donnent une idée de l’ampleur de l’opération :
– Les coûts informatiques passeront de 4% du chiffre d’affaires en 2005 à 2 % sur l’exercice 2009;
– La consolidation a permis de passer de 85 date centers à seulement 6 (hors EDS) étendus sur 35000m² et pouvant doubler si nécessaire, notamment en intégrant les acquisitions comme celle d’EDS.

– Réduction de 6000 à 1500 applications;
– Diminution de la consommation énergétique des data centers de 60%;
– Réduction de 40 % du nombre de serveurs tout en augmentant la puissance de traitement de 250%;
– Réduction des coûts en réseau tout en assurant un triplement de la bande passante;
– Elimination des 700 datamarts et création d’un datawarehouse d’entreprise accessible à tous les utilisateurs concernés de l’entreprise, soit environ 32 000 personnes et 50000 l’année prochaine;

Ce datawarehouse est géré avec Neoview.

[ad]

Devrions-nous autoriser l’utilisation de téléphone cellulaires dans les Datacenter ?

0

Cela peut paraitre controversé, mais oui, nous devrions permettre l’utilisation de téléphones cellulaires dans les Datacenter.

Voici le raisonnement qui sous-entend la réponse.

De nombreux opérateurs de datacenter ont eu d’énormes problèmes avec un série de Sun SPARC.

Plus de 4500 incidents ont été répertoriés, plantage système ou tout autre événement étrange.
En même temps, des rumeurs ont commencé a circuler, affirmant que les signaux des télephone cellulaire étaient la cause du problème.

En fait, il s’est avéré que ces incidents inexpliqués étaient liés à l’absence d’un cache miroir sur le SPARC provoquant des erreurs de parité mémoire au niveau du processeur, ce qui provoqué le plantage système de ce fameux SPARC.

[ad]

Go to Top
%d bloggers like this: