Posts tagged Datacenter

Regarder la télévision consomme plus que de faire une recherche sur Google

0

Dans une étude 2007, des chercheurs du Lawrence Berkeley National Laboratory ont constaté que les centres de données utilisent 1,5 pour cent de l’énergie aux États-Unis, soit environ la même quantité d’énergie que tous les téléviseurs couleur en Amérique.

Quelle activité consomme moins d’énergie ?

le calcul de la consommation d’énergie des centres de données a été un sujet de conversation le week-end dernier, des blogueurs ont réagi à un article du Times de Londres sur l’examen de l’énergie consommée par les recherches Google.

“Faire deux recherches sur Google à partir d’un ordinateur de bureau peuvent produire environ la même quantité de dioxyde de carbone que faire bouillir de l’eau dans un bouilloire pour une tasse de thé”, a écrit The Times, citant les recherches du physicien de Harvard  Alex Wissner-Gross, qui a dit qu’une recherche sur Google génère 7g de CO2.

Google a immédiatement contesté ces chiffres dans un blog du vice-président senior des opérations Urs Hölzle.

“En termes de gaz à effet de serre, une recherche Google est équivalente à environ 0,2 grammes de CO2″, écrit Urs, ajoutant que “la moyenne d’une voiture qui roule sur un km produit l’équivalent en gaz à effet de serre qu’un milliers de recherches sur Google.”

Comme nous l’avons déjà signalé à maintes reprises, les exploitations (datacenter) Google  sont une des plus économes en énergie dans le monde, explorant de nouvelles approches innovatrices en  conception de centres de données, y compris un centre de données flottant entièrement alimenté par l’énergie des vagues.

Voici une question mathématique à méditer:

– Quelle quantité de CO2 a été généré par les blogueurs pour répondre à l’article de The Times ?

[ad]

Un cas d’école de l’exploitation des datacenters : la virtualisation

0

Un cas d’école de l’exploitation des datacenters : la virtualisation

Propres à satisfaire des besoins en capacité croissants, les ressources virtualisées soulèvent cependant des problèmes de gestion. L’aptitude à bien exploiter les systèmes virtualisés est déterminante pour l’atteinte des gains espérés.

Nécessité de la virtualisation

Les organisations informatiques qui utilisent des solutions de serveur, de stockage et de système de fichiers virtualisées en tirent de grands avantages. Les entreprises demandent sans cesse de nouvelles applications et fonctionnalités, mais elles ne revoient pas pour autant leur budget informatique en conséquence. Beaucoup se tournent vers la virtualisation pour optimiser les ressources de leurs plates-formes.
Cette démarche, autrefois limitée aux études, s’étend désormais aux systèmes de production, notamment aux infrastructures d’applications et de serveurs Web. Si les ressources virtualisées aident à satisfaire les besoins en capacité croissants, elles engendrent également de nouveaux et sérieux problèmes de gestion. À long terme, l’aptitude à bien gérer les systèmes virtualisés est déterminante pour la réussite des stratégies de virtualisation.

D’après les études de marché, la plupart des entreprises ont adopté ou vont adopter la virtualisation de serveurs. A l’heure actuelle, celle-ci est essentiellement utilisée lors des projets de consolidation de serveurs, de migration de serveurs ou de décloisonnement d’applications, et les entreprises qui y recourent déclarent avoir ainsi réalisé d’importantes économies d’énergie et de capital, tout en augmentant le taux d’utilisation de leurs machines. Pour beaucoup de datacenters, la virtualisation offre également des avantages, notamment :

• Ajout de capacité à la demande pour maintenir de hautes performances en période « de pointe » ou pour exploiter des services temporaires
• Possibilité d’utiliser plusieurs applications sur un même serveur sans beaucoup de puissance d’unité centrale
• Possibilité de réserver des applications ou des ressources à un serveur physique ou à une machine virtuelle
• Prise en charge économique des stratégies de continuité et de reprise après sinistre
• Encombrement réduit et conservation de l’espace (une ressource onéreuse) nécessaire aux racks

De plus, les fournisseurs multiplient aujourd’hui les solutions, ce qui facilite la virtualisation de l’exploitation. Les logiciels ne manquent pas, qu’il s’agisse de VMware, Sun Solaris™ 10, de Microsoft® Virtual Server, d’IBM LPAR, XenSource, ou HP avec Virtual Serveur Environment et Integrity Virtual Machine.

Face à cette diversité de solutions découle le problème numéro un en matière de virtualisation : une gestion industrielle et fiable des différentes ressources qu’elles soient physiques ou virtuelles.

Obstacles à la gestion de la virtualisation

Comme d’autres solutions technologiques appréciées, la virtualisation se répand rapidement, lorsqu’un environnement d’entreprise en a fait l’essai. Pour chaque serveur physique géré, les organisations informatiques dénombrent en moyenne quatre à dix serveurs virtuels, sans parler de ceux qui échappent à la gestion et à la surveillance, par exemple les serveurs utilisés par les équipes de développement. La grande complexité annule rapidement les économies réalisées grâce à la virtualisation, engendrant des coûts de gestion. La prolifération des machines virtuelles nuit également au maintien de la sécurité et de la conformité dans un environnement en mutation accélérée.
Non seulement il faut configurer et administrer les systèmes virtuels comme des serveurs physiques, mais aussi de nouveaux problèmes de gestion apparaissent.

• Multiplicité des outils de gestion. Plusieurs solutions de serveur virtuel nécessitent des outils de gestion spécifiques. Sans fonctions d’audit ou d’authentification centralisées, il faut protéger, surveiller et faire interagir des systèmes de gestion multiples, ce qui accroît la charge de travail des équipes informatiques.
• Différences entre l’environnement physique et l’environnement virtuel. Il est difficile de gérer de la même façon un environnement physique et un environnement virtuel, même s’ils exécutent parfois un système d’exploitation identique. Il faut en effet contrôler et rapprocher un grand nombre de représentations pour associer les serveurs physiques et virtuels aux ressources qu’ils fournissent.
• Manque de visibilité d’une plate-forme à une autre. Qui dit multiplication des systèmes de gestion de serveurs physiques et virtuels dit impossibilité d’optimiser des applications avec leurs données et ressources associées, si elles résident sur plusieurs plates-formes de virtualisation. Visualiser tout un environnement d’application « en un coup d’oeil » n’est plus possible.
• Relations hôte-invité mal maîtrisées. Les environnements virtualisés proposent une représentation limitée des relations hôte-invité. Si les interactions d’applications entre les serveurs physiques et virtuels ne sont pas connues, il se révèle difficile de surveiller l’utilisation et de planifier les capacités.

Mieux unifier pour mieux virtualiser

À long terme, la virtualisation n’est bénéfique que moyennant une gestion intégrée. Un environnement virtuel est bien géré si l’on peut l’administrer avec les processus de l’environnement physique (ou mieux avec des processus améliorés), sans surcroît de coût, de complexité ou de besoin en personnel. En d’autres termes, une bonne solution de gestion de serveurs virtuels doit pouvoir également gérer l’environnement physique, tout en intégrant les propriétés des machines virtuelles.

Une plate-forme intégrée de gestion de la virtualisation vous aide à mettre en ligne, à configurer et à administrer des plates-formes virtuelles hétérogènes, qu’elles soient d’origine HP, VMware, Solaris, Microsoft, Xen ou autres.L’application des mises à jour et des correctifs doit être aussi facile (et même assez simple pour que l’on puisse l’automatiser) sur les serveurs virtuels que sur les serveurs physiques. Vous devez également automatiser la création et la mise en ligne d’un grand nombre de serveurs physiques et virtuels, tout en vous conformant aux stratégies de sécurité.

De la création à la suppression des machines virtuelles, vous devez gérer tout le cycle de vie des serveurs. En tant qu’extensions souples des serveurs physiques, les serveurs virtuels évoluent de manière dynamique. Vous devez pouvoir facilement les créer, les mettre en marche, les arrêter et les supprimer, suivant les besoins.

Vous devez connaître et surveiller les relations unissant les serveurs virtuels entre eux, qu’ils résident sur le même hôte ou non, ainsi qu’à leurs hôtes respectifs.

Vous devez utiliser les mêmes stratégies et pratiques d’excellence sur vos serveurs physiques et virtuels. Idéalement, une solution de gestion intégrée améliore l’administration des deux types de machine.

[ad]

HP réduit la consommation électrique des datacenter

0

Green IT : HP réduit la consommation électrique des datacenter

Les fonctions Dynamic Power Capping du constructeur permettent la réallocation d’électricité et de refroidissement pour une gestion écologique des ressources énergétiques.

Parler green c’est bien, proposer des solutions concrètes et efficaces pour agir c’est mieux ! Si les constructeurs et équipementiers accentuent leurs efforts d’innovation et redoublent leur vigilance pour réduire la consommation électrique, une gestion globale reste indispensable. En effet, la facture d’électricité totalise aussi les consommations des infrastructures et équipements déjà en place.

Jusqu’où légitimer la paranoïa sécuritaire
Les datacenters hébergeant les données et applications critiques de l’entreprise, leurs administrateurs frôlent assez logiquement la paranoïa sécuritaire tous azimuts. Ce qui génère donc de lourds investissements consacrés à la conception d’infrastructures électriques redondantes afin de s’assurer au maximum de la continuité du service informatique, et donc d’une disponibilité optimale des applications et des informations. Des comportements qui poussent souvent les administrateurs informatiques à surdimensionner l’énergie nécessaire pour chaque serveur. Le budget de consommation électrique de ce type de bâtiment faisant partie des dépenses récurrentes indispensables, toute exagération – même pour se rassurer – devient vite pernicieuse.

Superviser et gérer les flux plutôt que tout surdimensionner
Comment enrayer à ce gaspillage d’énergie, tout en diminuant les consommations des serveurs ? HP apporte une réponse efficace à cette situation, grâce aux technologies provenant du rachat du spécialiste américain de la conception de datacenters EYP Mission Critical Facilities en 2007. HP propose aujourd’hui ses fonctionnalités de Dynamic Power Capping pour gérer rationnellement et dynamiquement la consommation électrique de leurs centres informatiques. Ainsi, l’administrateur peut réallouer la puissance électrique et les ressources de refroidissement en fonction des besoins des serveurs, tout en suivant les mesures de consommation en temps réel. Avec ces logiciels de la gamme HP Thermal Logic, inutile de surdimentionner puisqu’il est possible de connaître (et de suivre) les besoins en électricité et en refroidissement de chaque serveur afin de déterminer des limites en fonction de ces mesures.

Des gains immédiats et forcément conséquents
Outre une première économie immédiate liée au surdimensionnement en capacité électrique du datacenter, l’entreprise pourrait économiser plus de 25 % sur la consommation électrique des équipements de son centre informatique. Ce qui représenterait, selon HP, une économie proche de 300 000 dollars par an. Autrement, ces technologies permettent à l’entreprise de multiplier par trois le nombre de serveurs (devenus plus sobres) dans un datacenter en utilisant la même infrastructure et avec la même consommation énergétique. Le constructeur évalue alors l’économie à près de 16 millions de dollars d’investissement pour un datacenter d’un mégawatt.
Considérer un problème dans son ensemble favorise immanquablement un résultat à grande échelle. Et quand il s’agit de consommation de ressources énergétiques, la planète et le portefeuille ne peuvent qu’apprécier !

Pour en savoir plus

[ad]

Deux fournisseurs qui rationalisent leurs data centers

0

Les cordonniers sont les plus mal chaussés a-t-on coutume de dire. Ce proverbe, qui serait issu d’une réflexion de Montaigne dans ses Essais, serait mis à mal dans les cas d’IBM et d’HP.

Les deux fournisseurs ont en effet entrepris un programme de transformation de leurs propres systèmes informatiques avec à la clé une réduction drastique des data centers, mais aussi une augmentation de l’efficacité et une diminution des coûts.

Depuis 1997, IBM a réduit le nombre de ses centres informatiques de 155 à 7, mais sans pour autant réduire le nombre de serveurs dans une proportion comparable.
L’année dernière, IBM s’est lancé donc dans une réduction drastique du nombre de serveurs en décidant de migrer sur 30 mainframes System z9 fonctionnant sous Linux toutes les applications réparties actuellement sur 3900 serveurs.

Fait à noter, l’ensemble des mainframes fonctionneront sous Linux.
Avec l’arrivée des z10, annoncés il y a quelques mois, IBM va encore plus en réduisant à 17 le nombre total de systèmes dans ses data centers. Du côté logiciel, même opération de purge en passant de 15 000 applications à 4 700, induisant d’importants coûts en licences.

Pour gérer tout cela, un seul DSI suffira, là où IBM en avait 128 en 1997.
Cette initiative s’inscrit dans le Projet Big Green annoncé en mai 2007 dans lequel IBM annonçait toute
une série de disposition pour réduire la consommation de ses propres sites, mais aussi des sites de ses
clients.

IBM entend ainsi réduire la consommation de ses centres de 85% et l’empreinte physique de 80%.

De l’informatique à la stratégie
De son côté, HP s’est lancé dans une évolution comparable. Planifiée sur 3 ans, l’initiative a été lancée par Randy Mott, ex DSI de Dell et embauché en 2005 pour mener à bien ce projet de rénovation de l’infrastructure informatique d’HP.

HP vient d’en publier les résultats.

Le premier résultat, peut-être le plus tangible, est une réduction par deux ses coûts informatiques, tout en apportant une infrastructure plus fiable et plus évolutive. « Cette transformation n’est pas une initiative technologique au sein de la DSI, mais bien une stratégie business adoptée par l’entreprise », commente Dandy Mott.
Au cours de l’exercice fiscal 2009, cette consolidation devrait permettre une réduction des coûts d’un
milliard de dollar par rapport au niveau de 2005 alors que pendant le même temps, HP a augmenté son
activité de 25 milliards de dollars de chiffres d’affaires.

Quelques chiffres.
Les chiffres communiqués par HP donnent une idée de l’ampleur de l’opération :
– Les coûts informatiques passeront de 4% du chiffre d’affaires en 2005 à 2 % sur l’exercice 2009;
– La consolidation a permis de passer de 85 date centers à seulement 6 (hors EDS) étendus sur 35000m² et pouvant doubler si nécessaire, notamment en intégrant les acquisitions comme celle d’EDS.

– Réduction de 6000 à 1500 applications;
– Diminution de la consommation énergétique des data centers de 60%;
– Réduction de 40 % du nombre de serveurs tout en augmentant la puissance de traitement de 250%;
– Réduction des coûts en réseau tout en assurant un triplement de la bande passante;
– Elimination des 700 datamarts et création d’un datawarehouse d’entreprise accessible à tous les utilisateurs concernés de l’entreprise, soit environ 32 000 personnes et 50000 l’année prochaine;

Ce datawarehouse est géré avec Neoview.

[ad]

Devrions-nous autoriser l’utilisation de téléphone cellulaires dans les Datacenter ?

0

Cela peut paraitre controversé, mais oui, nous devrions permettre l’utilisation de téléphones cellulaires dans les Datacenter.

Voici le raisonnement qui sous-entend la réponse.

De nombreux opérateurs de datacenter ont eu d’énormes problèmes avec un série de Sun SPARC.

Plus de 4500 incidents ont été répertoriés, plantage système ou tout autre événement étrange.
En même temps, des rumeurs ont commencé a circuler, affirmant que les signaux des télephone cellulaire étaient la cause du problème.

En fait, il s’est avéré que ces incidents inexpliqués étaient liés à l’absence d’un cache miroir sur le SPARC provoquant des erreurs de parité mémoire au niveau du processeur, ce qui provoqué le plantage système de ce fameux SPARC.

[ad]

Des réacteurs nucléaire miniature pour votre datacenter

0

Une entreprise américaine du Nouveau-Mexique (Santa-Fé) a annoncé être en mesure de commercialiser des mini centrales nucléaires compact (pas plus grande qu’une cuve à mazout), qui sont prévues pour générer environ 25 mégawatts d’énergie.
L’annonce par Hyperion Power Generation a amené certains observateurs de technologie à se demander si l’installation de ces mini-cuve pourrait être une solution alternative pour fournir de l’énergie au datacenter.

nuclear_power_1

Sa puissance serait de 25 MW, ce qui, d’après Hyperion, correspond à la consommation d’environ 20.000 foyers aux Etats-Unis (effectivement estimée à 11.000 kWh/an). Un module HPM pourrait donc alimenter une petite ville.
Au tarif annoncé de 25 millions de dollars (environ vingt millions d’euros), le prix de revient par foyer semble compétitif. Un HPM pourrait aussi être envisagé pour un site industriel, une installation militaire ou pour alimenter des installations dans des lieux isolés. D’ailleurs, affirme l’entreprise, les carnets de commande sont pleins et Hyperion serait déjà sûre de vendre une centaine d’unités. Les premiers exemplaires seront produits en 2013 et les acheteurs se présentant aujourd’hui ne seront livrés qu’en 2014. Entre 2013 et 2023, Hyperion prévoit une production de 4.000 réacteurs.

Risque zéro, affirme le vendeur

La première commande ferme serait venue de la République tchèque, de la part de l’entreprise TES. Une autre proviendrait de Roumanie, mais, interrogés, des responsables du comité national du contrôle de l’énergie nucléaire affirment n’avoir entendu parler de rien de ce genre.

Le réacteur HPM utiliserait de l’uranium faiblement enrichi, c’est-à-dire contenant moins de 20% d’uranium 235, un combustible habituellement utilisé dans les centrales nucléaires. Mais ce réacteur « ne comporte aucune partie mobile, explique John Deal, le président de la société, et il est impossible d’avoir un accident du type de celui Tchernobyl ». Selon Hyperion, la masse critique (au-delà de laquelle se déclenchent des réactions en chaîne) ne peut pas être atteinte.

Par ailleurs, la quantité de combustible nucléaire est faible et l’engin n’est pas destiné à être ouvert durant sa durée de fonctionnement, qui serait de 5 à 10 ans. Au bout de ce laps de temps, cette « pile », comme l’appelle parfois Hyperion, laisserait un résidu de la taille d’une noix de coco qui serait facilement recyclé. Par ailleurs, se servir de cet uranium pour réaliser une bombe atomique serait inenvisageable, explique Hyperion.

Bien des détails techniques manquent pour se faire une idée plus précise des performances et des dangers potentiels mais remarquons qu’Hyperion n’est pas le premier à plancher sur ce sujet. Toshiba a testé un réacteur baptisé 4S (Super Safe, Small and Simple) de petite taille mais toutefois nettement plus grand que le HPM.

nuclear_power_2

L’idée fera-t-elle des émules ?

Source de l’article

[ad]

Nettoyage de salle informatique

1

La salle informatique est le centre névralgique de votre entreprise
L’entretien régulier d’une salle informatique est une nécessité pour réduire les risques de pannes.
Cette opération est préconisée par les constructeurs de matériels informatiques.
Les compagnies d’assurances ne prennent en charge les sinistres et incidents que si, conformément aux normes préconisées par le constructeur, l’entretien régulier de l’implantation d’une salle de traitement informatique est effectué.
Puisque les installations informatiques sont très sensibles aux pollutions, visibles ou invisibles, plusieurs sociétés spécialisées propose et assure un entretien :

* entretien préventif des appareils,
* dépoussiérage du fond de cuvelage,
* évacuation des résidus de travaux, de câbles, gravats …,
* mise à niveau du faux-plancher, planéité,
* nettoyage de la surface, etc ….

les constructeurs préconise tous le nettoyage des salles informatiques :

IBM – Spécifications d’installation des matériels :

La qualité de l’environnement est un facteur important pour le bon fonctionnement de votre équipement informatique. Le sol du local est à nettoyer avec une serpillière humide uniquement, sans additif.

Dans le cas d’un plancher surélevé, et dans le double but de préserver les filtres des unités informatiques et d’assurer un niveau d’hygiène satisfaisant pour le personnel, un nettoyage annuel du plenum par une entreprise spécialisée est indispensable.

Digital – Recueil des spécifications d’installation :

Un nettoyage régulier au moyen d’un aspirateur adapté ou une serpillière humide est conseillé. Il ne faudra en aucun cas procéder par déplacement de la poussière.
L’humidification de la serpillière ou du chiffon ne doit absolument pas être faite avec des produits détergents chlorés ou ammoniaqués. Les produits pouvant avoir une action corrosive sur les matériels sont à proscrire ainsi que les produits favorisant la création de charges électrostatiques (produits aux silicones).

Un nettoyage semestriel du plenum (volume sous plancher technique) doit être programmé.

Bull – Guide de préparation de site :

La poussière ayant un effet néfaste sur le bon fonctionnement de l’ordinateur (risque de détérioration des supports magnétiques) et sur son environnement (colmatage prématuré des filtres internes à la machine ou du conditionnement d’air), la salle informatique doit être nettoyée quotidiennement.
Les sols ne seront pas vitrifiés car le film ainsi créé est isolant et représente un risque au niveau des charges électrostatiques.

Un nettoyage complet incluant les plenums du faux-plancher et du faux-plafond doit être effectué une fois par an par une entreprise spécialisée.

Hewlett Packard – Guide de préparation de site :

Le matériel informatique est sensible aux pollutions de l’air. La poussière présente des dangers multiples pour le matériel électronique : masquage des têtes de lecture des unités de disques, courts-circuits de composants pour les poussières conductrices, altération des contacts, insuffisance de refroidissement des composants, détérioration des parties mécaniques en mouvement. Les autres pollutions de l’atmosphère sont capables de créer des corrosions graves et rapides.

Les aménagements et équipements techniques de la salle seront maintenus en parfait état de fonctionnement, en particulier : la salle sera entièrement nettoyée une fois par an. Ce nettoyage devra porter sur toutes les parois (plancher, faux-plancher, plafond, faux-plafond, murs) et sur les machines.

[ad]

La classification en tiers des datacenter

3

L’objectif des opérateurs de datacenter est d’assurer une disponibilité proche du 100%

DATA_CENTER_CHART

L’image ci-dessus décrit pour chaque tiers, son taux théorique de disponibilité ainsi que ses caractéristiques.

Uptime Institute a défini des niveaux suivant les règles suivantes :

* Tier I: Composé d’un seul circuit électrique pour l’énergie et pour la distribution de refroidissement, sans composants redondants, offre un taux de disponibilité de 99,671%

* Tier II: Composé d’un seul circuit électrique pour l’énergie et pour la distribution de refroidissement, avec des composants redondants, offre un taux de disponibilité de 99,741%

* Tier III: Composé de plusieurs circuit électrique pour l’énergie et pour la distribution de refroidissement, mais seulement un circuit est actif, a des composants redondants, offre un taux de disponibilité de 99,982%

* Tier IV: Composé de plusieurs circuit électrique pour l’énergie et pour la distribution de refroidissement, a des composants redondants, actifs et supporte la tolérance de panne, offre un taux de disponibilité de 99,995%

Les datacenter en Tier I ont beaucoup de points uniques de défaillance ou Single Point Of Failure (SPOF), l’infrastructure doit être complètement arrêté pour des entretiens préventif ou pour des travaux de maintenance annuel.

A contrario, les datacenter Tier IV ont tous les éléments nécessaires redondés ce qui permet de maintenir en fonctionnement le datacenter sans jamais avoir besoin de l’arrêter pour un entretien, une maintenance annuel ou un remplacement d’un élément actif.

[ad]

Bonne pratique en détection de fumée

0

Aujourd’hui, nous allons examiner comment les systèmes de détection d’incendie peuvent être utilisés dans les datacenters pour prévenir les pertes et dommages, on mettra l’accent sur les premiers systèmes de détection de fumée, (VESDA – Very Early Smoke Detection Alarm).

Sans un environnement efficace et sûr, il n’existe aucun moyen d’être assuré de la continuité de l’activité. Pour être assuré que l’environnement est efficace et sûre dans le datacenter, nous dépendons de la surveillance de l’environnement de toutes sortes.

Dans nos datacenters nous surveillons constamment :

* Le bon fonctionnement des équipements
* Augmentation de la consommation d’énergie
* Sécurité
* Température
* Humidité
* Fonctionnement des climatiseurs
* Les fuites d’eau
* Le feux

La surveillance des incendies est d’une importance cruciale, l’effet sur le matériel informatique de l’exposition à la fumée est dramatique. Les images ci-dessous montrent des courts-circuits provoqués par la corrosion induite par la fumée. Au plus tôt nous pouvons éviter que ces fumées ce créent, au plus nous aurons la chance d’éviter ce type de dégats.

corosion

Une autre chose à garder à l’esprit est que le budget alloué pour lutter contre l’incendie ne doit pas être soumis à une coupe budgétaire.
Récemment, un détecteur défectueux a provoqué la décharge accidentel de bouteilles d’argon, ce qui a coûté environ 100k€ pour re-remplir à nouveau les bouteilles de gaz, et ce pour un petit site.

Plus la densité dans nos datacenters augmente, plus le risque d’incendie est probable, car:

* Nous atteignons les limites de la physique en termes de suppression de l’air chaud
* Mauvaise planification – le nombre d’équipements augmente sans gestion des risques
* Introduction de sources d’énergie imprévues
* L’ utilisation d’allée chaude et froide cloisonnées ainsi que d’armoires fermées présente également de nouveaux risques

Correctement installés, les systèmes de détection de fumée sont essentiels à la réussite de l’ exploitation de datacenters moderne permettant :

* Le temps d’étudier et de comprendre la menace
* Le temps de préparer le personnel et les visiteurs
* Le temps d’ étudier les options pour contrôler l’incendie
* Temps de transfert des données sur un système redondant (site de disaster recovery)
* Le temps d’évacuer
* Le temps d’éteindre le feu
* Le temps d’assurer la continuité de l’activité

La détection d’incendie est rendue difficile en raison, de la dilution de la fumée dans les grands espaces ouverts, de la forte vitesse de la circulation et de l’ épuration de l’air à chaque cycle.
La détection ne peut pas être fiable en raison de l’imprévisibilité des flux d’air et de l’emplacement physique des détecteurs dans les zones difficiles d’accès.
Les domaines de difficulté sont les suivants:

* Sous sol et faux plancher
* Plafond et plenum
* Entre les équipements
* Dans les armoires fermées

Il existe deux principaux types de détecteurs d’incendie, le détecteur fixe et le détecteur en tuyau (ASD).
Le premier fixe souffre de quelques problèmes fondamentaux :

* Faible sensibilité – ils sont conçus pour la détection des incendies dans les dernières phases de combustion et les unités sont passifs.
* Ils sont sujets à provoquer des alarmes intempestives
* Pas en mesure de filtrer entre les différents types d’ alarmes
* Perte de sensibilité au fil du temps
* filtre souvent encrassé

Le détecteur en tuyzu ASD a un certain nombre d’avantages au point que la plupart des datacenters moderne l’ utilise.
Le premier est qu’ils sont généralement 1000 fois plus sensiblent que le détecteur fixe et ont un certain nombre de caractéristiques permettant d’être tolérant à la dilution et au fort débit d’air.
En fait, dans de nombreux cas, les détecteurs sont placés dans des zones de forte circulation d’air, tels qu’ à travers les bouches d’aération ou près du retour d’air chaud.
Il est constamment en train d’ échantillonner l’air pour voir s’il contient de la fumée et envoie les résultat à une centrale de détection.
Ces détecteurs surveillent la circulation de l’air et assurent un débit d’air constant. Si des changements dans la circulation de l’air sont détectés, ils seront signalés et un blocage pourra être étudié.

ASD tuyau capteur incendie

Ils surveille l’ensemble de la progression d’un incendie, détecte facilement le feu avant que la fumée soit visible. Il est clair que le meilleur moment pour détecter un incendie est au tout début, le point où les dommages sont réduits au minimum et les options au maximum, et c’est là où le système en tuyau vous offre un avantage indéniable.

Le mouvement de l’air produit par les climatiseurs interfère sur la dispersion de la fumée et complique sa détection passive. Le mouvement de l’air, le filtrage et l’introduction de la qualité de l’air au cours du cycle de climatisation sont autant de causes de dilution de la fumée et rendent la tâche de détection plus difficile.

Le refroidissement de l’air diminue la température et dissout la fumée. Cela nuit à la performance des détecteurs de chaleur. Cela signifie également que la fumée est moins dynamique et se déplace non pas au plafond où des détecteurs conventionnels sont installés, mais directement au retour d’air vers les clims.

HVAC

Nombreux systèmes de climatiseurs sont conçus pour recueillir tout l’air de la chambre et après traitement le retourne vers la salle informatique – alors pourquoi ne pas profiter de ce lieu pour la détection ?
Cela ne fonctionne vraiment qu’ avec le système à tuyau, pour le système plus traditionnel (fixe) cela ne fonctionne pas bien à cause du débit d’air trop élevé.

Le système à tuyau est généralement plus rentable, parce que les trous peuvent être positionnés comme requis par les normes (au plafond), ainsi que là ou la fumée ira lorsque la clim est active. Un détecteur peut souvent être utilisé pour les deux applications.

capteur incendie

Les bonnes pratiques pour réduire les coûts énergétiques recommandent d’utiliser de l’air frais de l’extérieur.
L’air éxterieur présente un certain nombre de risques réels – l’air extérieur peut être contaminés et menacer le bon fonctionnement des équipements – il devrait donc être surveillé.

soufflage d'air frais

La photo ci-dessus montre l’emplacement des tuyaux autour de la ventilation d’où émmane l’air frais éxterieur.

Il existe un certain nombre d’emplacements qui nécessitent une détection de fumée, mais difficiles d’accès pour l’installation et la maintenance:

* Faux plancher
* Faux plafond (plenum)
* Endroit qui font obstacle à la circulation de l’air normal
* Sous les chemins de câble
* Dans les armoires fermées

localisation des capteurs incendie

La plupart des codes de prévention des incendies recommandent une augmentation du nombre de détecteurs selon les changements de pression de l’air, cependant, il n’existe pas de restriction sur le nombre de détecteurs à mettre en place.

plenum

Les faux-planchers ainsi que les faux-plafonds des datacenters contiennent habituellement de grandes quantités de câblage électrique. Cela crée un risque d’incendie, de ce fait, ces zones doivent être protégées.
La détection de l’air par tuyau (ASD) est bien adaptée à ces zones car les détecteurs peuvent être positionnés soit à l’intérieur ou à l’extérieur de la zone protégée là où la maintenance est la plus facile.

faux-plancher

La photo ci-dessous met en évidence la grande quantité et la haute densité de câbles, et le risque inhérent à l’augmentation de la densité de la chaleur. Si un feu se produit, un incendie se répandra très rapidement.

chemin de câble

Avec l’introduction d’armoire entièrement close les solutions pour de la haute densité (essentiellement serveurs lame) il est nécessaire de mettre en place une détection dédiés à l’intérieur de l’armoire, sinon la fumée ne sera détecté qu’après que l’incendie ait consummé l’armoire.

faux plafond

Télécharger la nouvelle réglementation concernant les détecteurs ioniques
Decret détecteurs ioniques (PDF)

[ad]

IBM et RackForce construisent un GigaCenter

0

IBM a confirmé aujourd’hui qu’il travaillera avec Rackforce Corp. pour développer un centre de données “GREEN” à haute densité en Colombie-Britannique.

GigaCenter, sera un bâtiment 14.000 m² et l’hydro-l’éléctricité sera fournie par la rivière Columbia.

Le nouveau bâtiment sera le plus grand centre de données au Canada et parmi les plus efficaces du monde.

Bien que l’annonce d’aujourd’hui n’a pas cité les objectifs de densité, les rapports précédents sur le projet suggèrent que l’installation sera en mesure de pouvoir tenir compte de charge d’environ 7 kiloWatts par m², soit 14 kiloWatts par rack.

“Notre ambition est de construire un centre de données sécurisé dans un endroit sûr et de répondre à une préoccupation de plus en plus exigente en cas de sinistre causé par des événements naturels comme les tremblements de terre et les inondations», a déclaré Tim Dufour, président de RackForce. “Nous savions qu’il y avait une possibilité de fournir aux sociétés nord-américaines un centre de données qui pourraient faire tout cela. En collaboration avec IBM dans le cadre d’une approche Green Data Center, nous avons été en mesure de concevoir l’installation pour optimiser l’énergie. “

Source DataCenter Knowledge

[ad]

Go to Top
%d bloggers like this: