admin

admin

This user hasn't shared any profile information

Home page: http://gridatacenter.org

Posts by admin

Red Rock datacenter Free Cooling

0

Red Rock Datacenter “Colorado/US” a mis en ligne une page temps réel montrant l’état de fonctionnement de leur datacenter en technologie dites de Free Cooling.

On peu y voir l’économie engendré par cette technique, la température extérieure, si les clim sont en fonctionnement ou pas, etc..

Red Rock Datacenter (RRDC)

[ad]

Maintenez-vous toujours votre salle serveur à 20°C ?

Depuis quelque temps, des acteurs de premier plan dans l’industrie des datacenter ont élevé la température dans leur centre de données, ce qui a permit des économies qui se calcul en centaines de milliers d’Euros sur les coûts de l’infrastructure de climatisation.
La liste des sociétés qui chante les louanges de cette épargne grâce à des réglages de température de référence dans leur centre de données sont entre autres Google, Intel, Sun et HP.

Le premier groupe industriel des professionnels de chauffage et de refroidissement a rejoint la chorale cette semaine. Il s’agit de L’American Society for Heating, Refrigerating and Air-conditioning Engineers (ASHRAE), qui a étendu ses recommandations concernant la température la plus haute de l’air ambiant  des datacenter, soulevant sa limite supérieure recommandée de 25 degrés à 27 degrés.

Cela permet aux gestionnaires de datacenter d’économiser jusqu’à 4 pour cent des coûts d’énergie pour chaque changement de degré en hausse sur la température de référence, qui est plus connu comme point de réglage (Set Point).
Plus le point de réglage est élevé, moins de temps de fonctionnement sur les climatiseurs, ce qui permet d’économiser considérablement de l’énergie pour faire fonctionner ces systèmes de refroidissement.

Pour éviter des points chaud en changeant drastiquement le point de réglage de vos climatiseurs il est nécessaire de mettre en place un monitoring poussé de la température de vos racks.

Il existe plusieurs sondes le permettant, moi j’utilise principalement Frogd ainsi que les sondes internes des serveurs (IPMI, sensors, etc…), cela m’a permit de passe de 21 à 24 °C sans aucun problème de fonctionnement dans ma salle serveurs et avec une réduction de 12 % de l’énergie nécessaire pour refroidir la salle (4% par degré)

ASHRAE a approuvé la recommandation de modification des températures de fonctionnement cette semaine lors de sa réunion à Chicago.

Mark Fontecchio de Tech Target a ajouté un point sur les déclaration de l’ASHRAE et sur l’impact de la hausse des points de réglage :

– Plus de bruit dans les datacenter car les fans des serveur deviennent plus actifs

– On grille d’avantage dans les allées chaude qui sont souvent 16 degrés plus chaude que les allées froide, soit plus de 40 °C.

D’autres article sur le même sujet dans ce site

Article traduit de l’anglais Source de l’article

[ad]

Les centres de données, de plus en plus gourmands en énergie

0

La chasse au “gaspi” dans les centres de données est ouverte. Ces immenses salles, appelées aussi “data centers”, composées de multiples serveurs informatiques qui stockent les informations nécessaires aux activités des entreprises, sont devenues de véritables gouffres énergétiques.

Selon une étude menée par des chercheurs européens dans le cadre du programme de l’Union européenne “Energie intelligente – Europe”, les 7 millions de centres de données recensés dans les pays de l’Union européenne consommeraient, chaque année, 40 milliards de kilowattheures, soit l’équivalent de l’énergie utilisée annuellement par une grande agglomération française pour son éclairage public. Si rien n’est fait, cette consommation électrique pourrait, d’ici à 2011, augmenter de 110 % par rapport à 2006, estime l’enquête qui sera complétée au printemps par des études de cas en entreprises.

“Dans les prochaines années, la croissance des nouveaux data centers sera faramineuse. Si on ne prend pas des mesures maintenant, on va dans le mur !” s’alarme Alain Anglade, chercheur au sein de l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe) et membre de l’équipe de chercheurs. Encore modeste à l’échelle de l’Hexagone, l’énergie utilisée par les centres de données (4 à 6 milliards de kilowattheures) représente 1 % de la consommation d’électricité du pays. Un pourcentage appelé à croître rapidement en raison de la diffusion rapide des nouvelles technologies informatiques. Les banques, par exemple, soumises à des réglementations croissantes en termes de stockage et traitements de leurs données informatiques, sont déjà contraintes d’agrandir leurs centres de données.

Le gouvernement français a saisi l’occasion du plan France numérique 2012, lancé en octobre 2008, par le secrétariat d’Etat au développement de l’économie numérique pour créer un observatoire des centres de données. A horizon de dix-huit mois environ, il permettra aux entreprises de se comparer entre elles et de les aider à prendre des mesures pour qu’elles diminuent la consommation énergétique de leurs machines, explique en substance Alain Anglade, un des responsables du projet pour qui “les entreprises sont déjà sensibilisées car ce gaspillage commence à leur coûter beaucoup d’argent”. Cette mise en commun devrait également permettre aux entreprises d’anticiper sur la création de nouvelles normes environnementales plus contraignantes au niveau européen.

Parallèlement, le ministère de l’économie et des finances vient de lancer un groupe de réflexion. Baptisé “Green ITW” et dirigé par Michel Petit, membre de l’Académie des sciences, il doit proposer, d’ici à mai, des solutions pour une “utilisation éco-responsable” des centres de données. En clair, comment faire des économies d’énergie sans pénaliser les entreprises dans l’utilisation de leurs outils informatiques. Selon l’étude européenne déjà citée, près de 12 milliards d’euros pourraient être économisés grâce à de nouveaux équipements moins gourmands en électricité et des techniques plus efficaces de ventilation des salles.

L’Allemagne a, de son côté, déjà entrepris de lutter contre le gaspillage énergétique des “data centers”. Depuis l’été dernier, un guide est à disposition des entreprises pour leur faire prendre conscience du problème et les pousser à investir dans des équipements plus efficaces. Bien décidé à montrer l’exemple, le ministère fédéral de l’environnement a annoncé en novembre 2008 avoir baissé la consommation d’électricité de ses propres serveurs de 60 %, soit une économie de CO2 de 44 tonnes.

Particulièrement concernés, les géants de l’informatique cherchent eux aussi déjà à réduire la facture énergétique de leurs data centers devenus gigantesques pour stocker e-mails, vidéos et autres documents disponibles en un seul clic. Récemment, Google, Yahoo ! ou encore Microsoft ont installé certains de leurs sites informatiques sur les bords de grands cours d’eau américains. Ils souhaitent pouvoir refroidir plus facilement leurs machines et utiliser les centrales hydrauliques proches pouvant leur fournir de l’électricité moins chère.

Jouant la carte du développement durable, Google affirme avoir investi 45 millions de dollars dans les énergies renouvelables. Le mastodonte américain a même déposé un brevet pour pouvoir installer des centres informatiques alimentés par l’énergie des vagues et refroidis par l’eau de mer sur des plates-formes flottantes.

Source de l’article

[ad]

Intel test la puissance solaire dans un DataCenter

0

Intel a installé des panneaux solaires dans une usine de Rio Rancho au Nouveau-Mexique afin de tester le potentiel d’utilisation de l’énergie solaire photovoltaïques (PV) pour fournir de l’énergie pour les centres de données.
La gamme constituée de 64 panneaux solaires Sharp va générer 10 kilowatts d’électricité, juste une fraction de la quantité nécessaire pour alimenter la plupart des centres de données. Mais le projet pourrait “potentiellement ouvrir la voie à un programme plus agressif dans l’énergie solaire Intel”, selon Marty Sedler, directeur mondial pour les services publics et l’infrastructure d’Intel.

Les test seront réalisés premièrement dans le cadre des datacenter de type contenaire.

L’énergie solaire n’a pas jusqu’ici été largement utilisé dans les centres de données en raison de la grande quantité d’énergie requise pour alimenter les serveurs et le matériel de refroidissement.
Il exige une très grande installation de panneaux solaires PhotoVoltaique pour produire une fraction de l’énergie requise par la plupart des centres de données.

Lors du dernier salon du CeBIT de Mai 2008, Sun Microsystems a montré un contenaire “Blackbox Solaire” raccordé à un réseau de panneaux solaires d’environ 200 mètres carrés, qui produit environ 10 kilowatts de puissance. C’est à peine assez de puissance pour un rack à haute densité dans une Blackbox.
Selon certaines estimations, il faut jusqu’à 30 km carrés de panneaux solaires pour générer 1 mégawatt de puissance. Un autre obstacle est le coût. Google évangélise une approche “énergie verte”, le projet de loi “Weihl”, a déclaré l’année dernière que l’énergie solaire photovoltaïque coûte actuellement environ 15 à 20 centimes le kilowatt, ce qui est «totalement hors de portée” avec toutes les autres sources d’énergie.

Le seul datacenter actuellement entièrement alimenté par l’énergie solaire PV est AISO (Affordable Internet Services Online), qui exploite une installation d’environ 460 mètres carrés à Romoland (US), en Californie, pour une salle serveurs de 120 mètres carrés.
Le datacenter AISO avec ses 120 panneaux solaires génèrent du courant continu, qui est ensuite géré par le biais d’un onduleur et stocké dans des batteries.

L’année dernière, Intel a utilisé de l’air extérieur pour refroidir un datacenter au Nouveau-Mexique, avec des températures qui se situaient entre 17 et 33 degrés.

Affaire à suivre

[ad]

Regarder la télévision consomme plus que de faire une recherche sur Google

0

Dans une étude 2007, des chercheurs du Lawrence Berkeley National Laboratory ont constaté que les centres de données utilisent 1,5 pour cent de l’énergie aux États-Unis, soit environ la même quantité d’énergie que tous les téléviseurs couleur en Amérique.

Quelle activité consomme moins d’énergie ?

le calcul de la consommation d’énergie des centres de données a été un sujet de conversation le week-end dernier, des blogueurs ont réagi à un article du Times de Londres sur l’examen de l’énergie consommée par les recherches Google.

“Faire deux recherches sur Google à partir d’un ordinateur de bureau peuvent produire environ la même quantité de dioxyde de carbone que faire bouillir de l’eau dans un bouilloire pour une tasse de thé”, a écrit The Times, citant les recherches du physicien de Harvard  Alex Wissner-Gross, qui a dit qu’une recherche sur Google génère 7g de CO2.

Google a immédiatement contesté ces chiffres dans un blog du vice-président senior des opérations Urs Hölzle.

“En termes de gaz à effet de serre, une recherche Google est équivalente à environ 0,2 grammes de CO2″, écrit Urs, ajoutant que “la moyenne d’une voiture qui roule sur un km produit l’équivalent en gaz à effet de serre qu’un milliers de recherches sur Google.”

Comme nous l’avons déjà signalé à maintes reprises, les exploitations (datacenter) Google  sont une des plus économes en énergie dans le monde, explorant de nouvelles approches innovatrices en  conception de centres de données, y compris un centre de données flottant entièrement alimenté par l’énergie des vagues.

Voici une question mathématique à méditer:

– Quelle quantité de CO2 a été généré par les blogueurs pour répondre à l’article de The Times ?

[ad]

Réduction de la production de froid dans un datacenter

0

Réduction de la production de froid dans un datacenter

Par défaut la température de reprise, ou consigne des climatiseurs se trouve aux alentours de 21 °C

Entre les spécifications climatiques actuelles des constructeurs, et les plages climatiques appliquées dans les salles informatiques, il y a un réel décalage. Le fait de climatiser nos salles dans des plages beaucoup plus restreintes que ce qui est nécessaire entraîne des surconsommations énergétiques très importantes.

Pour exemple, l’augmentation de 1°C de la température de reprise dans un datacenter dont la consommation informatique est de 250 kW peut vous faire gagner environ 10 kW/heure !

Aujourd’hui les équipements peuvent supporter des conditions climatiques beaucoup plus étendues que par le passé, sans défaut de fonctionnement, c’est pourquoi il faut revoir la stratégie à adopter au sein des datacenter en terme de reforidissement, regarder les tests effectué au nouveau-mexique par Intel pour vous en convaincre.

Le free cooling est aussi une option très intéressante surtout en ces périodes hivernale, ou la température extérieure est inférieure à celle nécessaire pour refroidir nos salles informatiques.

Il est a noter toutefois que les serveurs actuels régulent la vitesse de rotation des ventilateurs selon la température interne du serveur, si vous ne trouvez pas le bon conpromis de température de reprise de vos climatiseurs, certains serveurs de votre salle risque de consommer d’avantage et du coup le gain obtenu sur la clim n’aura aucun effet.

[ad]

Un cas d’école de l’exploitation des datacenters : la virtualisation

0

Un cas d’école de l’exploitation des datacenters : la virtualisation

Propres à satisfaire des besoins en capacité croissants, les ressources virtualisées soulèvent cependant des problèmes de gestion. L’aptitude à bien exploiter les systèmes virtualisés est déterminante pour l’atteinte des gains espérés.

Nécessité de la virtualisation

Les organisations informatiques qui utilisent des solutions de serveur, de stockage et de système de fichiers virtualisées en tirent de grands avantages. Les entreprises demandent sans cesse de nouvelles applications et fonctionnalités, mais elles ne revoient pas pour autant leur budget informatique en conséquence. Beaucoup se tournent vers la virtualisation pour optimiser les ressources de leurs plates-formes.
Cette démarche, autrefois limitée aux études, s’étend désormais aux systèmes de production, notamment aux infrastructures d’applications et de serveurs Web. Si les ressources virtualisées aident à satisfaire les besoins en capacité croissants, elles engendrent également de nouveaux et sérieux problèmes de gestion. À long terme, l’aptitude à bien gérer les systèmes virtualisés est déterminante pour la réussite des stratégies de virtualisation.

D’après les études de marché, la plupart des entreprises ont adopté ou vont adopter la virtualisation de serveurs. A l’heure actuelle, celle-ci est essentiellement utilisée lors des projets de consolidation de serveurs, de migration de serveurs ou de décloisonnement d’applications, et les entreprises qui y recourent déclarent avoir ainsi réalisé d’importantes économies d’énergie et de capital, tout en augmentant le taux d’utilisation de leurs machines. Pour beaucoup de datacenters, la virtualisation offre également des avantages, notamment :

• Ajout de capacité à la demande pour maintenir de hautes performances en période « de pointe » ou pour exploiter des services temporaires
• Possibilité d’utiliser plusieurs applications sur un même serveur sans beaucoup de puissance d’unité centrale
• Possibilité de réserver des applications ou des ressources à un serveur physique ou à une machine virtuelle
• Prise en charge économique des stratégies de continuité et de reprise après sinistre
• Encombrement réduit et conservation de l’espace (une ressource onéreuse) nécessaire aux racks

De plus, les fournisseurs multiplient aujourd’hui les solutions, ce qui facilite la virtualisation de l’exploitation. Les logiciels ne manquent pas, qu’il s’agisse de VMware, Sun Solaris™ 10, de Microsoft® Virtual Server, d’IBM LPAR, XenSource, ou HP avec Virtual Serveur Environment et Integrity Virtual Machine.

Face à cette diversité de solutions découle le problème numéro un en matière de virtualisation : une gestion industrielle et fiable des différentes ressources qu’elles soient physiques ou virtuelles.

Obstacles à la gestion de la virtualisation

Comme d’autres solutions technologiques appréciées, la virtualisation se répand rapidement, lorsqu’un environnement d’entreprise en a fait l’essai. Pour chaque serveur physique géré, les organisations informatiques dénombrent en moyenne quatre à dix serveurs virtuels, sans parler de ceux qui échappent à la gestion et à la surveillance, par exemple les serveurs utilisés par les équipes de développement. La grande complexité annule rapidement les économies réalisées grâce à la virtualisation, engendrant des coûts de gestion. La prolifération des machines virtuelles nuit également au maintien de la sécurité et de la conformité dans un environnement en mutation accélérée.
Non seulement il faut configurer et administrer les systèmes virtuels comme des serveurs physiques, mais aussi de nouveaux problèmes de gestion apparaissent.

• Multiplicité des outils de gestion. Plusieurs solutions de serveur virtuel nécessitent des outils de gestion spécifiques. Sans fonctions d’audit ou d’authentification centralisées, il faut protéger, surveiller et faire interagir des systèmes de gestion multiples, ce qui accroît la charge de travail des équipes informatiques.
• Différences entre l’environnement physique et l’environnement virtuel. Il est difficile de gérer de la même façon un environnement physique et un environnement virtuel, même s’ils exécutent parfois un système d’exploitation identique. Il faut en effet contrôler et rapprocher un grand nombre de représentations pour associer les serveurs physiques et virtuels aux ressources qu’ils fournissent.
• Manque de visibilité d’une plate-forme à une autre. Qui dit multiplication des systèmes de gestion de serveurs physiques et virtuels dit impossibilité d’optimiser des applications avec leurs données et ressources associées, si elles résident sur plusieurs plates-formes de virtualisation. Visualiser tout un environnement d’application « en un coup d’oeil » n’est plus possible.
• Relations hôte-invité mal maîtrisées. Les environnements virtualisés proposent une représentation limitée des relations hôte-invité. Si les interactions d’applications entre les serveurs physiques et virtuels ne sont pas connues, il se révèle difficile de surveiller l’utilisation et de planifier les capacités.

Mieux unifier pour mieux virtualiser

À long terme, la virtualisation n’est bénéfique que moyennant une gestion intégrée. Un environnement virtuel est bien géré si l’on peut l’administrer avec les processus de l’environnement physique (ou mieux avec des processus améliorés), sans surcroît de coût, de complexité ou de besoin en personnel. En d’autres termes, une bonne solution de gestion de serveurs virtuels doit pouvoir également gérer l’environnement physique, tout en intégrant les propriétés des machines virtuelles.

Une plate-forme intégrée de gestion de la virtualisation vous aide à mettre en ligne, à configurer et à administrer des plates-formes virtuelles hétérogènes, qu’elles soient d’origine HP, VMware, Solaris, Microsoft, Xen ou autres.L’application des mises à jour et des correctifs doit être aussi facile (et même assez simple pour que l’on puisse l’automatiser) sur les serveurs virtuels que sur les serveurs physiques. Vous devez également automatiser la création et la mise en ligne d’un grand nombre de serveurs physiques et virtuels, tout en vous conformant aux stratégies de sécurité.

De la création à la suppression des machines virtuelles, vous devez gérer tout le cycle de vie des serveurs. En tant qu’extensions souples des serveurs physiques, les serveurs virtuels évoluent de manière dynamique. Vous devez pouvoir facilement les créer, les mettre en marche, les arrêter et les supprimer, suivant les besoins.

Vous devez connaître et surveiller les relations unissant les serveurs virtuels entre eux, qu’ils résident sur le même hôte ou non, ainsi qu’à leurs hôtes respectifs.

Vous devez utiliser les mêmes stratégies et pratiques d’excellence sur vos serveurs physiques et virtuels. Idéalement, une solution de gestion intégrée améliore l’administration des deux types de machine.

[ad]

HP réduit la consommation électrique des datacenter

0

Green IT : HP réduit la consommation électrique des datacenter

Les fonctions Dynamic Power Capping du constructeur permettent la réallocation d’électricité et de refroidissement pour une gestion écologique des ressources énergétiques.

Parler green c’est bien, proposer des solutions concrètes et efficaces pour agir c’est mieux ! Si les constructeurs et équipementiers accentuent leurs efforts d’innovation et redoublent leur vigilance pour réduire la consommation électrique, une gestion globale reste indispensable. En effet, la facture d’électricité totalise aussi les consommations des infrastructures et équipements déjà en place.

Jusqu’où légitimer la paranoïa sécuritaire
Les datacenters hébergeant les données et applications critiques de l’entreprise, leurs administrateurs frôlent assez logiquement la paranoïa sécuritaire tous azimuts. Ce qui génère donc de lourds investissements consacrés à la conception d’infrastructures électriques redondantes afin de s’assurer au maximum de la continuité du service informatique, et donc d’une disponibilité optimale des applications et des informations. Des comportements qui poussent souvent les administrateurs informatiques à surdimensionner l’énergie nécessaire pour chaque serveur. Le budget de consommation électrique de ce type de bâtiment faisant partie des dépenses récurrentes indispensables, toute exagération – même pour se rassurer – devient vite pernicieuse.

Superviser et gérer les flux plutôt que tout surdimensionner
Comment enrayer à ce gaspillage d’énergie, tout en diminuant les consommations des serveurs ? HP apporte une réponse efficace à cette situation, grâce aux technologies provenant du rachat du spécialiste américain de la conception de datacenters EYP Mission Critical Facilities en 2007. HP propose aujourd’hui ses fonctionnalités de Dynamic Power Capping pour gérer rationnellement et dynamiquement la consommation électrique de leurs centres informatiques. Ainsi, l’administrateur peut réallouer la puissance électrique et les ressources de refroidissement en fonction des besoins des serveurs, tout en suivant les mesures de consommation en temps réel. Avec ces logiciels de la gamme HP Thermal Logic, inutile de surdimentionner puisqu’il est possible de connaître (et de suivre) les besoins en électricité et en refroidissement de chaque serveur afin de déterminer des limites en fonction de ces mesures.

Des gains immédiats et forcément conséquents
Outre une première économie immédiate liée au surdimensionnement en capacité électrique du datacenter, l’entreprise pourrait économiser plus de 25 % sur la consommation électrique des équipements de son centre informatique. Ce qui représenterait, selon HP, une économie proche de 300 000 dollars par an. Autrement, ces technologies permettent à l’entreprise de multiplier par trois le nombre de serveurs (devenus plus sobres) dans un datacenter en utilisant la même infrastructure et avec la même consommation énergétique. Le constructeur évalue alors l’économie à près de 16 millions de dollars d’investissement pour un datacenter d’un mégawatt.
Considérer un problème dans son ensemble favorise immanquablement un résultat à grande échelle. Et quand il s’agit de consommation de ressources énergétiques, la planète et le portefeuille ne peuvent qu’apprécier !

Pour en savoir plus

[ad]

Deux fournisseurs qui rationalisent leurs data centers

0

Les cordonniers sont les plus mal chaussés a-t-on coutume de dire. Ce proverbe, qui serait issu d’une réflexion de Montaigne dans ses Essais, serait mis à mal dans les cas d’IBM et d’HP.

Les deux fournisseurs ont en effet entrepris un programme de transformation de leurs propres systèmes informatiques avec à la clé une réduction drastique des data centers, mais aussi une augmentation de l’efficacité et une diminution des coûts.

Depuis 1997, IBM a réduit le nombre de ses centres informatiques de 155 à 7, mais sans pour autant réduire le nombre de serveurs dans une proportion comparable.
L’année dernière, IBM s’est lancé donc dans une réduction drastique du nombre de serveurs en décidant de migrer sur 30 mainframes System z9 fonctionnant sous Linux toutes les applications réparties actuellement sur 3900 serveurs.

Fait à noter, l’ensemble des mainframes fonctionneront sous Linux.
Avec l’arrivée des z10, annoncés il y a quelques mois, IBM va encore plus en réduisant à 17 le nombre total de systèmes dans ses data centers. Du côté logiciel, même opération de purge en passant de 15 000 applications à 4 700, induisant d’importants coûts en licences.

Pour gérer tout cela, un seul DSI suffira, là où IBM en avait 128 en 1997.
Cette initiative s’inscrit dans le Projet Big Green annoncé en mai 2007 dans lequel IBM annonçait toute
une série de disposition pour réduire la consommation de ses propres sites, mais aussi des sites de ses
clients.

IBM entend ainsi réduire la consommation de ses centres de 85% et l’empreinte physique de 80%.

De l’informatique à la stratégie
De son côté, HP s’est lancé dans une évolution comparable. Planifiée sur 3 ans, l’initiative a été lancée par Randy Mott, ex DSI de Dell et embauché en 2005 pour mener à bien ce projet de rénovation de l’infrastructure informatique d’HP.

HP vient d’en publier les résultats.

Le premier résultat, peut-être le plus tangible, est une réduction par deux ses coûts informatiques, tout en apportant une infrastructure plus fiable et plus évolutive. « Cette transformation n’est pas une initiative technologique au sein de la DSI, mais bien une stratégie business adoptée par l’entreprise », commente Dandy Mott.
Au cours de l’exercice fiscal 2009, cette consolidation devrait permettre une réduction des coûts d’un
milliard de dollar par rapport au niveau de 2005 alors que pendant le même temps, HP a augmenté son
activité de 25 milliards de dollars de chiffres d’affaires.

Quelques chiffres.
Les chiffres communiqués par HP donnent une idée de l’ampleur de l’opération :
– Les coûts informatiques passeront de 4% du chiffre d’affaires en 2005 à 2 % sur l’exercice 2009;
– La consolidation a permis de passer de 85 date centers à seulement 6 (hors EDS) étendus sur 35000m² et pouvant doubler si nécessaire, notamment en intégrant les acquisitions comme celle d’EDS.

– Réduction de 6000 à 1500 applications;
– Diminution de la consommation énergétique des data centers de 60%;
– Réduction de 40 % du nombre de serveurs tout en augmentant la puissance de traitement de 250%;
– Réduction des coûts en réseau tout en assurant un triplement de la bande passante;
– Elimination des 700 datamarts et création d’un datawarehouse d’entreprise accessible à tous les utilisateurs concernés de l’entreprise, soit environ 32 000 personnes et 50000 l’année prochaine;

Ce datawarehouse est géré avec Neoview.

[ad]

Devrions-nous autoriser l’utilisation de téléphone cellulaires dans les Datacenter ?

0

Cela peut paraitre controversé, mais oui, nous devrions permettre l’utilisation de téléphones cellulaires dans les Datacenter.

Voici le raisonnement qui sous-entend la réponse.

De nombreux opérateurs de datacenter ont eu d’énormes problèmes avec un série de Sun SPARC.

Plus de 4500 incidents ont été répertoriés, plantage système ou tout autre événement étrange.
En même temps, des rumeurs ont commencé a circuler, affirmant que les signaux des télephone cellulaire étaient la cause du problème.

En fait, il s’est avéré que ces incidents inexpliqués étaient liés à l’absence d’un cache miroir sur le SPARC provoquant des erreurs de parité mémoire au niveau du processeur, ce qui provoqué le plantage système de ce fameux SPARC.

[ad]

admin's RSS Feed
Go to Top
%d bloggers like this: