Posts tagged Google

Trois idées pour reconquérir notre souveraineté numérique

0

Seules des propositions radicales empêcheront l’économie de l’Internet de prospérer au détriment des Etats et des personnes.
L’instauration d’une « dataxe » prélevée sur les collecteurs de données extraeuropéens en est une.
 

544426_0202623483861_web_tete

 

La souris, qu’est-ce que c’est ? »Depuis l’interrogation de Jacques Chirac devant un ordinateur en 1996, on peine à se souvenir d’une marque d’intérêt prononcé de l’exécutif pour l’économie de l’Internet en France. De ce point de vue, le séminaire gouvernemental sur le numérique jeudi dernier à Gennevilliers vient marquer une vraie rupture. Il était temps : deux études et un rapport récents rappellent à quel point la révolution numérique en cours est devenue la première force de transformation de l’économie et de la société françaises. En 2011, une étude de McKinsey chiffrait à 20% la part de la croissance économique réalisée par Internet dans les pays développés (à 25% pour la France). Ces quinze dernières années, Internet aurait détruit 500.000 emplois en France, pour en créer 1,2 million.

Qui dit mieux, en termes de chiffres ? Le BCG, qui a publié en novembre 2012 une étude sur la valeur de nos données personnelles numériques, estime que, pour la seule Union européenne, l’exploitation de ces données – celles que vous confiez, « volens nolens », à Facebook, Google, Amazon et autres capteurs d’informations lorsque vous surfez sur Internet -générera une valeur de 1.000 milliards d’euros. L’équivalent du prochain budget de l’Union européenne sur sept ans.

Formidable, mais pour qui donc ? Pour vous ? Non. Pour les gouvernements ? Encore moins. Il suffit de se rapporter à la très décalée devise de Google (« don’t be evil ») et aux impôts sur bénéfices que paye cette société en Europe (à peu près nuls : les bénéfices remontent dans le paradis fiscal irlandais, et repassent par le paradis fiscal néerlandais, avant de disparaître dans les Bermudes), pour comprendre que les entreprises prospérant sur l’utilisation de vos données personnelles ne souhaitent aucunement partager ce gâteau à 1.000 milliards d’euros.

Dans ce contexte, le rapport gouvernemental Collin et Colin, récemment publié, vient dresser un constat éclairant : les acteurs de l’économie Internet, celle qui va faire notre croissance économique, se sont organisés pour s’affranchir complètement des États et des individus. S’est installée une forme tacite d’expropriation des données et richesses individuelles, qu’il convient de corriger. Leurs analyses montrent comment, en ignorant ce phénomène de marchandisation des données, au nom de principes vertueux (nos données ne sauraient être des marchandises), nous avons laissé s’échapper une valeur considérable. Leurs propositions pour « reterritorialiser » les données, et tenter de fiscaliser des établissements fictifs (« taxer les fantômes » : pas de siège, pas d’usine, pas d’employés pour le moteur de recherche Google), sont un premier pas dans la bonne direction.

Mais, si l’on veut aller vite et ne pas laisser l’économie de l’Internet prospérer au détriment des États et des personnes, il faut une proposition plus radicale. Elle existe, et s’inscrit dans la tradition pionnière de la France, dans le registre du droit d’auteur imaginé par Beaumarchais en 1777. Cette idée radicale se trouve dans une contribution de Pierre Bellanger, PDG de Skyrock, au rapport Collin & Colin (« la liberté compétitive »). Elle est très simple :

Les données personnelles sont la propriété des personnes ; or, « la propriété étant un droit inviolable et sacré, nul ne peut en être privé » (article 17 de la déclaration des droits de l’homme de 1789).

Les collecteurs de données personnelles (les « serveurs ») doivent être fixés au territoire où s’effectue la collecte – le pillage à distance, c’est fini : si Facebook, Amazon, Google etc. veulent collecter les données personnelles de 500 millions d’Européens, les serveurs seront installés en Europe, sous droit et contrôle européens.

Si un collecteur de données personnelles européennes veut les transférer hors d’Europe, il en a le droit. Mais il lui faudra payer une taxe (« dataxe »). Toute entreprise contrevenant à ce dispositif ne pourra plus avoir accès au marché européen. En attendant l’établissement d’une telle dataxe, pour laquelle les unités de mesure existent déjà (autour des « datagrammes » de Louis Pouzin, polytechnicien français à l’origine de découvertes ayant permis la naissance d’Internet), rappelons qu’elle pourrait connaître le même sort que la TVA, cette autre invention française incongrue (en 1954) qui finit par être copiée dans le monde entier.

Il n’est pas nécessaire d’attendre l’éveil de la Commission européenne sur ces sujets pour lancer cette initiative : la reconquête de la souveraineté numérique de nos États doit être une priorité pour la France et l’Union européenne. Il ne s’agit pas de stigmatiser tel ou tel acteur nord-américain, mais bien d’édicter une règle commune à tous, qui nous permettra de pleinement tirer profit de la révolution numérique en cours. Une révolution pour laquelle la France dispose d’atouts majeurs dans les domaines qui feront la croissance et les emplois de demain : processus manufacturiers par impression en 3D, e-learning, intelligence artificielle, et autres activités stratégiques qui feront l’objet de chroniques prochaines…

Source : Chronique d’ Edouard Tétreau, du journal Les Echos

 

Data Center Best Practices

0

Le sommet, Energy Efficient Data Center Summit en avril a réuni un grand nombre de leaders de l’industrie, concernant la mise en place de bonnes pratiques pour l’exploitation des centres de données et une séance de questions-réponses mettant en vedette Kenneth Brill du Uptime Institute, James Hamilton d’Amazon Web Services, Olivier Sanche d’eBay et Bill Tschudi de Lawrence Berkeley National Labs.

Le groupe fut animé par Luiz Barroso, un éminent ingénieur chez Google.

La discussion fut très intéressante sur des sujets comme : les niveaux de  fiabilité et l’importance relative du matériel et des logiciels en differnet types de centres de données.

Cette vidéo dure environ 30 minutes.

Ne manquez pas les autres couverture de Google sur notre site :

* A l’intérieur d’un datacenter Google
* Google dévoile le type d’architecture d’un de leur serveur WEB
* Google les datacenter les plus efficace du monde
* Google pense créer des datacenter flottant


Datacenter Full FreeCooling Google

0

Google a ouvert en Belgique un datacenter qui ne sera refroidit qu’à l’air libre.

Google mise sur le climat belge pour refroidir son centre de données, en se basant sur la température moyenne de cette région belge (Saint-Ghislain), seulement 7 jours de l’année la température dépasserait le seuil critique.

En cas de température trop élevée, soit 26 degrés selon Google, l’entreprise désactivera les équipements du centre, transférant la charge de travail à d’autres centres informatiques.
La construction du site de Saint-Ghislain a débuté en 2008

A l’intérieur d’un Datacenter de Google

0

Google va bientôt publier des vidéos d’un grand nombre de sessions présenté à la Google Data Center Efficiency Summit qui a eu lieu mercredi, à Mountain View, Californie.

En attendant, voici un avant-goût avec une vidéo d’un centre de données Google, qui utilise des conteneurs de transport pour stocker les serveurs et le stockage.

Le sommet a été un événement pour les ingénieurs et les cadres supérieurs du métier, avec comme sujet, les innovations pour améliorer l’efficacité des centres de données.

Google a été un des premier à les utiliser car il a construit cette installation fin  2005.

Le “Hangar” est rempli de 45 conteneurs, certains sont stockés sur les autres.

Chaque conteneur peut contenir jusqu’à 1160 serveurs et utilize 250 kilowatts d’énergie électrique.

La densité est de 8 kW par m² et la température des allées chaude ne dépasse pas les 27 degrés celsius.

Cette vidéo dure environ 5 minutes et 45 secondes.

[ad]

Google : Les datacenters les plus efficacent du monde

0

Google divulgue aujourd’hui les détails sur l’efficacité énergétique de leurs Datacenters, ce qui confirme que leur mode de fonctionnement est le plus efficace au monde.
Google a dit qu’ils ont une efficacité d’usage (PUE – Power Usage Effectiveness) de l’ordre de 1,21 à travers six de leurs datacenters, et l’un d’eux obtient un PUE de 1,13, le plus bas jamais publié et juste au-dessus de l’efficacité parfaite qui est de 1,0.

“Aujourd’hui, nous croyons que notre exploitation de datacenters est la plus efficace au monde », explique Google.
«Grâce à l’efficacité de nos efforts nous économisons des centaines de millions de kWhs (kilowattheures) d’électricité, nous réduisons nos dépenses d’exploitation par des dizaines de millions de dollars, évitons ainsi l’émission de dizaines de milliers de tonnes de CO2, et des centaines de millions de litres d’eau “.

Un datacenter typique a un PUE de 2.0 ou supérieur, le plus faible est celui de Sun à Santa Clara, Californie, avec un PUE de 1,28.

Comparez cela à ce tableau de suivi du PUE des six derniers datacenters Google qui ont été construient. La valeur du PUE se trouve sur l’axe de gauche:

Pue des datacenter google

Nous avons réduit l’overhead énergétique des datacenters Google de l’ordre de 21% par rapport à la moyenne de 96% rapporté par l’EPA“, a écrit Google dans une nouvelle section de son site Web dédié à l’efficacité des Data Center.

“En d’autres termes, par rapport à la norme des autre datacenters, nous avons réduit les frais généraux par quatre.

À notre connaissance, aucun autre datacenter d’envergure n’a jamais fonctionné de manière aussi efficace. En fait, l’un de nos centres de données en cours d’exécution a un overhead énergétique encore plus bas de 15%, soit une amélioration de l’efficacité de l’ordre de six fois. ”

Google ajoute un information intéressante : “Sur le temps nécessaire pour faire une recherche Google, votre ordinateur personnel utilisera plus d’énergie que nous utilisons pour répondre à votre requête.”

Google est connu pour garder secret ses opérations de datacenter. La récente divulgation de ses données concernant le PUE arrive à un moment ou d’autre sociétés partagent l’information sur l’efficacité énergétique de leurs datacenters.

Digital Realty Trust (DLR) a commencé à publier ses informations sur le PUE de ses installations, suivi par plus de 200 autres qui participent à un partage des données avec la US Environmental Protection Agency.

PUE est l’émergence d’un standard promu par The Green Grid ainsi que d’autres exploitants de datacenters, permettant de mesurer le rapport entre la puissance utilisée par les équipements hébergés en salle serveurs et la puissance nécessaire pour pouvoir faire fonctionner ces équipements.

PUE permet aux gestionnaires de datacenter de mesurer combien d’énergie est nécessaire pour la salle serveur et celle nécessaire pour d’autre équipements tels que le refroidissement et l’éclairage.

Source DatacenterKnowledge

[ad]

Comment Google compte puiser de l’énergie dans l’océan

La récente demande de brevet pour un Data Center flottant par Google a déclenché beaucoup de discussions au sein de l’industrie des Data Center.

Une des plus intéressantes facettes du concept est l’emploi de l’action des vagues pour produire de l’électricité, fournissant potentiellement une source d’énergie qui est à la fois écologique et bon marché.

Le concept de Google est basé sur les réseaux électriques de Pelamis, une société britannique qui a développé d’énormes “serpents de mer” composé d’une série de cylindre flottant.

La première expérience commerciale sera réalisé cette semaine au large des côtes du Portugal, et offrira jusqu’à à 2,25 mégawatts d’énergie électrique.

Voici une brève vidéo offrant plus de détails sur la production d’électricité par les Pelamis .

Cette vidéo dure environ 1 minute.

[ad]

Google pense créer des datacenters flottants

2

Google, qui continue à étudier des solutions alternatives pour réduire les coûts liés à l’exploitation des datacenters décrit dans une demande de dépôt de brevet un nouveau concept de construction de datacenters.

L’océan peut fournir suffisamment d’énergie pour alimenter et refroidir les serveurs et les équipements, et ce, tout en réalisant des économies sur les dépenses immobilières et les impôts fonciers.

Mais Google peut-il vraiment répondre aux défis opérationnels d’un de centre de données flottant océanique? L’un des plus grands points d’interrogation est la capacité de survivre à des catastrophes naturelles.

Comment se prémunir d’un ouragan ? Ou d’un tsunami ? surtout que ces deux dernières semaines plusieurs ouragans ont frappé les côtes des États-Unis.

Le centre de données flottant décrit par Google serai situé entre 3 et 7 milles des côtes, dans environ 50 à 70 mètres d’eau, et disposerait d’un réseau de 40 ou plus de “Pelamis Wave Energy Converters”.

pelamis

Il s’agit de convertisseurs d’énergie qui utilisent le mouvement de l’eau pour produirent de l’énergie.

Le pelamis est une chaine de cylindres reliés par des charnières semi-immergées, ils font environ 140 mètres de longueur chacuns.

Ce type de DC semble moins solide que les plates-formes pétrolières et étant mobiles que pourrait-il arriver si le cyclone Gustave passai par là avec des rafales de vents à 200 km/h ?

Le dépôt de brevet cite également la mobilité du centre de données flottant comme un avantage par rapport aux centres de données traditionnels.

Les avantages notable sont, pouvoir déplacer le DC lorsque le délai légal d’occupation d’un espace expire, variation saisonnière ou pouvoir se déplacer selon la demande.

Google a toujours gardé secret la manière dont sont faits ses centre de données ainsi que la technologie utilisée, reste à voir si ce concept est uniquement un brevet ou si Google ce lance vraiment dans l’exploitation de centres de données flottants.

Pelamis

[ad]

Go to Top
%d bloggers like this: