virtualisation

About virtualisation and consolidation

Un cas d’école de l’exploitation des datacenters : la virtualisation

0

Un cas d’école de l’exploitation des datacenters : la virtualisation

Propres à satisfaire des besoins en capacité croissants, les ressources virtualisées soulèvent cependant des problèmes de gestion. L’aptitude à bien exploiter les systèmes virtualisés est déterminante pour l’atteinte des gains espérés.

Nécessité de la virtualisation

Les organisations informatiques qui utilisent des solutions de serveur, de stockage et de système de fichiers virtualisées en tirent de grands avantages. Les entreprises demandent sans cesse de nouvelles applications et fonctionnalités, mais elles ne revoient pas pour autant leur budget informatique en conséquence. Beaucoup se tournent vers la virtualisation pour optimiser les ressources de leurs plates-formes.
Cette démarche, autrefois limitée aux études, s’étend désormais aux systèmes de production, notamment aux infrastructures d’applications et de serveurs Web. Si les ressources virtualisées aident à satisfaire les besoins en capacité croissants, elles engendrent également de nouveaux et sérieux problèmes de gestion. À long terme, l’aptitude à bien gérer les systèmes virtualisés est déterminante pour la réussite des stratégies de virtualisation.

D’après les études de marché, la plupart des entreprises ont adopté ou vont adopter la virtualisation de serveurs. A l’heure actuelle, celle-ci est essentiellement utilisée lors des projets de consolidation de serveurs, de migration de serveurs ou de décloisonnement d’applications, et les entreprises qui y recourent déclarent avoir ainsi réalisé d’importantes économies d’énergie et de capital, tout en augmentant le taux d’utilisation de leurs machines. Pour beaucoup de datacenters, la virtualisation offre également des avantages, notamment :

• Ajout de capacité à la demande pour maintenir de hautes performances en période « de pointe » ou pour exploiter des services temporaires
• Possibilité d’utiliser plusieurs applications sur un même serveur sans beaucoup de puissance d’unité centrale
• Possibilité de réserver des applications ou des ressources à un serveur physique ou à une machine virtuelle
• Prise en charge économique des stratégies de continuité et de reprise après sinistre
• Encombrement réduit et conservation de l’espace (une ressource onéreuse) nécessaire aux racks

De plus, les fournisseurs multiplient aujourd’hui les solutions, ce qui facilite la virtualisation de l’exploitation. Les logiciels ne manquent pas, qu’il s’agisse de VMware, Sun Solaris™ 10, de Microsoft® Virtual Server, d’IBM LPAR, XenSource, ou HP avec Virtual Serveur Environment et Integrity Virtual Machine.

Face à cette diversité de solutions découle le problème numéro un en matière de virtualisation : une gestion industrielle et fiable des différentes ressources qu’elles soient physiques ou virtuelles.

Obstacles à la gestion de la virtualisation

Comme d’autres solutions technologiques appréciées, la virtualisation se répand rapidement, lorsqu’un environnement d’entreprise en a fait l’essai. Pour chaque serveur physique géré, les organisations informatiques dénombrent en moyenne quatre à dix serveurs virtuels, sans parler de ceux qui échappent à la gestion et à la surveillance, par exemple les serveurs utilisés par les équipes de développement. La grande complexité annule rapidement les économies réalisées grâce à la virtualisation, engendrant des coûts de gestion. La prolifération des machines virtuelles nuit également au maintien de la sécurité et de la conformité dans un environnement en mutation accélérée.
Non seulement il faut configurer et administrer les systèmes virtuels comme des serveurs physiques, mais aussi de nouveaux problèmes de gestion apparaissent.

• Multiplicité des outils de gestion. Plusieurs solutions de serveur virtuel nécessitent des outils de gestion spécifiques. Sans fonctions d’audit ou d’authentification centralisées, il faut protéger, surveiller et faire interagir des systèmes de gestion multiples, ce qui accroît la charge de travail des équipes informatiques.
• Différences entre l’environnement physique et l’environnement virtuel. Il est difficile de gérer de la même façon un environnement physique et un environnement virtuel, même s’ils exécutent parfois un système d’exploitation identique. Il faut en effet contrôler et rapprocher un grand nombre de représentations pour associer les serveurs physiques et virtuels aux ressources qu’ils fournissent.
• Manque de visibilité d’une plate-forme à une autre. Qui dit multiplication des systèmes de gestion de serveurs physiques et virtuels dit impossibilité d’optimiser des applications avec leurs données et ressources associées, si elles résident sur plusieurs plates-formes de virtualisation. Visualiser tout un environnement d’application « en un coup d’oeil » n’est plus possible.
• Relations hôte-invité mal maîtrisées. Les environnements virtualisés proposent une représentation limitée des relations hôte-invité. Si les interactions d’applications entre les serveurs physiques et virtuels ne sont pas connues, il se révèle difficile de surveiller l’utilisation et de planifier les capacités.

Mieux unifier pour mieux virtualiser

À long terme, la virtualisation n’est bénéfique que moyennant une gestion intégrée. Un environnement virtuel est bien géré si l’on peut l’administrer avec les processus de l’environnement physique (ou mieux avec des processus améliorés), sans surcroît de coût, de complexité ou de besoin en personnel. En d’autres termes, une bonne solution de gestion de serveurs virtuels doit pouvoir également gérer l’environnement physique, tout en intégrant les propriétés des machines virtuelles.

Une plate-forme intégrée de gestion de la virtualisation vous aide à mettre en ligne, à configurer et à administrer des plates-formes virtuelles hétérogènes, qu’elles soient d’origine HP, VMware, Solaris, Microsoft, Xen ou autres.L’application des mises à jour et des correctifs doit être aussi facile (et même assez simple pour que l’on puisse l’automatiser) sur les serveurs virtuels que sur les serveurs physiques. Vous devez également automatiser la création et la mise en ligne d’un grand nombre de serveurs physiques et virtuels, tout en vous conformant aux stratégies de sécurité.

De la création à la suppression des machines virtuelles, vous devez gérer tout le cycle de vie des serveurs. En tant qu’extensions souples des serveurs physiques, les serveurs virtuels évoluent de manière dynamique. Vous devez pouvoir facilement les créer, les mettre en marche, les arrêter et les supprimer, suivant les besoins.

Vous devez connaître et surveiller les relations unissant les serveurs virtuels entre eux, qu’ils résident sur le même hôte ou non, ainsi qu’à leurs hôtes respectifs.

Vous devez utiliser les mêmes stratégies et pratiques d’excellence sur vos serveurs physiques et virtuels. Idéalement, une solution de gestion intégrée améliore l’administration des deux types de machine.

[ad]

Cisco dévoile le Switch virtuel pour VMware

0

Cisco Systems a annoncé aujourd’hui son très attendu logiciel de switch virtuel, le Nexus 1000, qui deviendra une option intégré dans la virtualisation d’infrastructure VMware.
Les deux sociétés ont fait l’annonce dans un discours à la “VMworld 2008“, où ils ont également dévoilé une collaboration pour aider les entreprises à virtualiser les postes de travail et leur permettrent de se lancer dans la virtualisation de leur datacenters.

Cisco Systems a annoncé aujourd’hui sa longue virtuel de logiciel devrait changer, le Nexus 1000, qui deviendra une option dans la virtualisation VMware Infrastructure environnement. Les deux sociétés ont fait l’annonce dans un discours à la montrer VMworld 2008, où ils ont également dévoilé des collaborations pour aider les entreprises à virtualiser les postes de travail et leur train de revendeurs de données centrale des stratégies de virtualisation.

Cette annonce est la dernière étape de l’initiative “Cisco Data Center 3.0″, et s’aligne avec la vision de VMware pour que les machines virtuelles deviennent la pierre angulaire de la prochaine génération de datacenters. Il approfondit également le partenariat entre VMware (VMW) et Cisco (CSCO), fournissant à chacun un puissant allié dans leurs ambitions sur les datacenters.

Le Nexus 1000 de Cisco apporte de la sécurité, de la stratégie d’automatisation des applications, du provisioning et des éléments de diagnostic dans les environnements VMware qui peut s’échélonner à des milliers de machines virtuelles (VM).
Le nouveau Cisco Virtual Network Link (VN-Link) sur technologie Nexus 1000 intégrer avec VMware Distributed Switch vNetwork permettra de créer une infrastructure de réseau logique.

Ce logiciel permettra aux responsables informatiques d’appliquer les capacités physiques du matériel Cisco à chaque machine virtuelle, qui rendra plus facile la gestion de migration des machines virtuelles à travers les serveurs physiques.

Source www.datacenterknowledge.com

[ad]

Déduplication de données

0

La déduplication de données est à la mode.

Tout le monde si met, EMC, IBM, Netapp, Quantum, HP, etc… se lancent tous dans la technologie de déduplication.

L’inclusion de cette technologie permet un gain d’espace pouvant atteindre un facteur de 50 par rapport aux technologies de sauvegarde traditionnelles.

Comment ça marche ?

La déduplication des données représente une nouvelle technologie décisive pour contrôler la prolifération des données. En moyenne, un volume de disque basé sur UNIX® ou Windows® contient des milliers, voire des millions, de données dupliquées.

La création, la distribution, la sauvegarde, l’archivage et la copie des données font qu’elles peuvent être présentes à tous les niveaux de stockage, ce qui engendre une utilisation inefficace des ressources de votre système.

L’élimination des données redondantes pour ne garder que les fichiers originaux offre un avantage immédiat, à savoir des économies d’espace de stockage. Les avantages de cette opération sont doubles :

  • Avantage au niveau des coûts : réduction des frais d’acquisition, ou mises à niveau plus espacées des capacités de stockage.
  • Avantage au niveau de la gestion : stockage d’un plus grand nombre de données par unité, ou rétention des données en ligne sur de plus longues durées.

En fait, la déduplication recherche des séquences identiques de données pour en garder qu’une seule copie, reduisant ainsi les besoins de stockage.

Elle est aussi utilisée en cas de “disastrer recovery”, en copiant les données dédupliquées sur un site distant.

Visionner cette présentation d’Emc²

[ad]

Go to Top
%d bloggers like this: