La voiture autonome ? Une catastrophe écologique Celia Izoard pour Reporterre
▻https://reporterre.net/La-voiture-autonome-Une-catastrophe-ecologique
L’industrie automobile prépare activement la généralisation des véhicules autonomes. Problème : leur mise en œuvre à grande échelle aurait des conséquences écologiques très néfastes.
Dans le principe, la prouesse technologique consistant à remplacer par des machines les innombrables opérations complexes qu’effectue une personne au volant paraît difficilement compatible avec l’idée de sobriété. Un des derniers modèles, présenté en janvier au dernier Consumer’s Electronic Show de Las Vegas, le SUV Range Rover équipé par l’entreprise Valeo, comporte pas moins de quatre ou cinq caméras, huit lidars (qui permettent de mesurer les distances à partir d’un faisceau laser), plusieurs radars longue portée, un ordinateur central de grande puissance, une caméra trifocale sur le pare-brise et d’autres capteurs. La généralisation de ces véhicules impliquerait, pour abaisser les coûts de façon acceptable, le lancement d’une production de masse de tous ces objets, en supplément de l’électronique déjà présente dans les véhicules actuels. Aux États-Unis, la National Mining Association rappelle régulièrement aux décideurs que « la sophistication croissante des produits de l’industrie automobile va faire exploser la demande en métaux et la compétition pour ces ressources » [1]. En clair, impossible d’obtenir la matière première de tous ces superalliages sans provoquer une augmentation de l’activité minière, qui compte parmi les industries les plus polluantes [2].
Deuxième problème : la croissance exponentielle des #données (le #data). La conduite automatisée repose sur de gigantesques volumes d’informations que les divers capteurs transmettent aux algorithmes de traitement d’images. Selon Brian Krzanich, PDG d’Intel, un véhicule autonome va générer et consommer, pour huit heures de conduite, environ 40 téraoctets de données, soit l’équivalent de 40 disques durs d’ordinateur. « En circulation, chacun de ces véhicules produira autant de données que 3.000 utilisateurs d’ #internet », précise-t-il [3]. Or la facture énergétique du traitement et du stockage du big data est déjà préoccupante. En France, les #datacenters consommaient déjà en 2015 plus d’électricité que la ville de Lyon. En 2017, ils ont consommé à eux seuls 3 % de l’électricité produite dans le monde, soit 40 % de plus qu’un pays comme le Royaume-Uni [4].
« L’autonomie apparente du propriétaire d’une automobile recouvrait sa radicale dépendance »
Enfin, la généralisation des véhicules autonomes nécessite le déploiement de la #5G et le renouvellement des infrastructures routières. « Il est probable que l’environnement deviendra plus standardisé et proactif à mesure que sera développée une infrastructure plus communicante, résume un article de la Harvard Business Review. Il faut s’imaginer des transmetteurs radio à la place des feux rouges, des réseaux sans fil permettant aux véhicules de communiquer entre eux et avec les infrastructures, et des unités de bord de route fournissant des informations en temps réel sur la météo, le trafic, et d’autres paramètres [5]. »
L’Union européenne finance plusieurs projets de ce type via le programme #Codecs, notamment le projet #Cooperative_ITS_Corridor, une autoroute expérimentale connectée desservant #Amsterdam, #Francfort et #Vienne. Une portion test de 8 km est déjà équipée d’une « unité de bord de route » (comprenant une antenne 5G et des ordinateurs) tous les 500 m et d’une caméra tous les 100 m. On imagine la quantité de matériel nécessaire pour équiper ne serait-ce que toutes les autoroutes d’Europe ! Le projet est loin d’être marqué par la sobriété, et moins encore si l’on imagine « des caméras avec des unités de communication (...) installées sur les feux rouges pour avertir le conducteur du passage “au vert” », comme les auteurs du Livre blanc #Mobility_Nation, le rapport du Boston Consulting Group remis au gouvernement pour accélérer l’essor du #transport_autonome [6].
On peut dès lors s’interroger sur la dénomination de ces véhicules : autonomes, vraiment ? André Gorz montrait déjà en 1973 à quel point l’automobile, qui dépend d’un approvisionnement en pétrole et d’une infrastructure gigantesque, reposait sur une autonomie largement fictive : « Ce véhicule allait obliger [l’automobiliste] à consommer et à utiliser une foule de services marchands et de produits industriels que seuls des tiers pouvaient lui fournir. L’autonomie apparente du propriétaire d’une automobile recouvrait sa radicale dépendance [7]. » La démonstration paraît encore plus probante pour ces véhicules qui ne pourraient « rouler tout seuls » qu’à la condition de modifier radicalement leur environnement en déployant autour d’eux un ensemble de macrosystèmes techniques.
« Un moment de confort, dépourvu de stress, qui offre au consommateur son espace privé, des horaires flexibles, et presque aucune tâche de conduite »
Pour les entreprises, les véhicules dits autonomes participent pourtant de la « #mobilité_durable ». Leur argumentaire a largement été repris par le gouvernement : dans les « Neuf solutions de la nouvelle France industrielle » du président macron, les véhicules autonomes figurent en bonne place dans le volet « #mobilité_écologique ». Quels sont les arguments ? D’une part, l’interconnexion des véhicules et des infrastructures va réduire les embouteillages en permettant d’ajuster les itinéraires en temps réel. Ensuite, la conduite autonome, plus fluide, consommerait moins d’ #énergie. Surtout, le transport autonome serait porteur de la fameuse révolution de l’ #autopartage : on pourrait délaisser son véhicule personnel au profit des services de #robots-taxis en #covoiturage. Mais en analysant cette promesse, on constate qu’elle sert surtout à contrebalancer le principal problème que pose le transport autonome : le redoutable #effet_rebond, tel que les économies d’énergie procurées par une technique vont susciter l’augmentation de la consommation.
Selon un rapport de Morgan Stanley, il paraît vraisemblable que les premiers véhicules autonomes opérationnels à grande échelle seront des #camions de transport routier. Ils seraient pilotés à distance sur des routes complexes et en conduite automatique sur autoroute ; ces camions pourraient circuler en convois, avec un seul chauffeur à la tête de plusieurs véhicules. Étant donné que la paie des chauffeurs représente environ 40 % du coût du transport, les grandes entreprises du secteur s’attendent à une baisse historique des prix, qui donnerait à la route un avantage certain par rapport au #ferroviaire [8]. Que ce soit pour du fret ou de la livraison, on aurait là une incitation à augmenter le nombre de marchandises en circulation, pour le plus grand profit des monopoles de la vente en ligne. Et comment les particuliers, les actifs surmenés par exemple, résisteraient-ils à la tentation de se faire livrer tout et n’importe quoi à domicile ?
Selon ce même rapport, les véhicules autonomes pourraient concurrencer les transports en commun, d’une part en diminuant de deux tiers le coût d’un #taxi, d’autre part en rendant la voiture personnelle plus attractive : « Si l’automobile devient un moment de confort, dépourvu de stress, qui offre au consommateur son espace privé, des horaires flexibles, et presque aucune tâche de conduite, le consommateur pourrait échapper aux désagréments des transports publics en optant pour la “conduite” d’un véhicule autonome personnel. » La voiture autonome renforcerait ainsi le phénomène de suburbanisation, rendant acceptable de vivre plus loin de son travail en permettant à beaucoup de commencer leur journée dès l’aube dans une sorte de bureau privatif mobile. Elle permettrait à de nouveaux usagers — enfants, personnes très âgées — de se déplacer facilement, ce qui augmenterait encore, comme l’a confirmé une étude de l’université de Leeds, le nombre de véhicules sur les routes [9]. En gros, concluent les chercheurs, à partir du moment où il ne sera plus nécessaire de toucher le volant, les effets négatifs se multiplieront.
« Au plan environnemental, la voiture autonome est a priori catastrophique, puisqu’elle va faciliter le recours à l’automobile », confirme Bertrand-Olivier Ducreux, du service transport et mobilités de l’Agence pour l’environnement et la maîtrise de l’énergie (Ademe). Ce service est notamment chargé de l’appel à projets « expérimentation du véhicule routier autonome » qui subventionne les entreprises du secteur via le plan d’investissement d’avenir. « La position de l’ #Ademe, c’est de tenter d’orienter les véhicules autonomes vers une mobilité vertueuse, en faisant en sorte qu’ils soient utilisés comme un service d’autopartage. L’idéal, pour nous, c’est une navette de six, huit places sans conducteur. » Par exemple, un véhicule Uber sans chauffeur qui viendrait chercher plusieurs clients effectuant des trajets semblables.
« Une solution efficace serait de réserver les véhicules autonomes aux systèmes de transport collectif plutôt qu’aux particuliers »
En admettant l’idée de confier l’avenir des transports collectifs à Uber et autres géants du net, la promotion de ces robots-taxis pourrait-elle suffire à enrayer ce qui ressemble à une étape de plus vers la #surconsommation ? Pour Thomas Le Gallic, chercheur en prospective au sein du laboratoire Ville Mobilité Transport, le pari est risqué. « Les études concluent que les véhicules autonomes pourraient aussi bien doubler que diviser par deux la consommation d’énergie associée à la mobilité des personnes. Mais l’augmentation semble plus probable, parce que les gens seront incités à faire des trajets plus longs. Pour moi, une solution efficace serait de réserver les véhicules autonomes aux systèmes de transport collectif plutôt qu’aux particuliers. Mais ce n’est pas la tendance qui se dessine. »
Ainsi, loin de l’étiquette « mobilité écologique » sous laquelle les pouvoirs publics investissent dans les véhicules autonomes, il faudrait inverser le constat : pour que cette innovation ne soit pas catastrophique, il faudrait une politique extrêmement volontariste.
Cela impliquerait que le gouvernement, de manière assez invraisemblable, décide de rendre la voiture personnelle prohibitive pour la remplacer par une ambitieuse politique de transports publics et de navettes. Est-ce vraiment le projet ? L’État prévoit-il de se donner les moyens de limiter drastiquement les ventes des constructeurs automobiles ? Est-ce vraiment ce qu’Emmanuel Macron avait en tête, lors de son discours de mars 2018 sur l’ #intelligence_artificielle, quand il déclarait vouloir mener la « bataille essentielle » de la voiture autonome parce que « la #France est une grande nation automobile, et nous y avons notre rôle historique » ?
En mai 2018, l’État avait déjà dépensé près de 200 millions d’euros pour subventionner la #recherche en véhicules autonomes [10]. C’est sans commune mesure avec ce que pourrait ensuite coûter la mise en œuvre de la 5G, la refonte des infrastructures routières, les mesures de #cybersécurité, soit les investissements publics colossaux nécessaires à leur déploiement, auxquels il faut ajouter le coût social de la mise au chômage de plusieurs centaines de milliers de chauffeurs professionnels.
Si l’objectif est de mener la « révolution de l’autopartage » et d’en finir avec la voiture personnelle, a-t-on besoin des véhicules autonomes ? Ces investissements ne pourraient-ils pas tout aussi bien servir à mener une aussi ambitieuse politique de transports collectifs avec conducteurs en finançant les trains, les bus et les navettes que réclament les habitants des campagnes et de la France périurbaine pour délaisser leur voiture personnelle ?
Notes
[1] « Minerals Drive the Auto Industry », American Mining Association, 10/02/14.
[2] Cf. Revue Z, n° 12, « Trésors et conquêtes », Agone, 2018.
[3] « Just one autonomous car will use 4000 GB of data per day », Network World, 7/12/16.
[4] « Quand le stockage de données consommera plus d’énergie que le monde n’en produit », L’Usine nouvelle, 29/06/18.
[5] « To Make Self-Driving Cars Safe, We Also Need Better Roads and Infrastructure », 14/08/18.
[6] « Réinventer la mobilité urbaine et périurbaine à l’horizon 2030 », novembre 2017. Le Boston Consulting Group est une émanation du Forum économique mondial financé par 1.000 multinationales réalisant un chiffre d’affaires supérieur à 3 milliards d’euros.
[7] « L’idéologie sociale de la bagnole », Le Sauvage, automne 1973.
[8] Blue Paper on Autonomous Cars, 2013.
[9] « Self-driving Cars : Will They Reduce Energy Use ? », University of Leeds, 2016 ; « Will Self-driving Cars Be Good or Bad for the Planet ? », geekwire.com, 25/02/16.
[10] Développement des véhicules autonomes : orientations stratégiques pour l’action publique, mai 2018.
Des impacts énergétiques et sociaux de ces data-centers qu’on ne voit pas
▻http://maisouvaleweb.fr/impacts-energetiques-sociaux-de-data-centers-quon-ne-voit
L’ADEME, via le projet Enernum, vient de publier une étude approfondie sur les impacts à la fois énergétiques et sociétaux de l’installation et du déploiement des data centers, en France et ailleurs. Ce travail vient confirmer les conclusions du Think tank The Shift Project qui alertait déjà des coûts carbone importants de ces infrastructures qui soutiennent tous nos usages numériques. Par delà les chiffres, l’ADEME replace les data-centers dans leur contexte humain et géographique et interroge la (...)
]]>Huge Solar Farms to ‘Match’ Google Data Center Energy Use in Southeast
▻https://www.datacenterknowledge.com/energy/largest-solar-farms-ever-built-google-power-its-southeast-data-
▻https://www.datacenterknowledge.com/sites/datacenterknowledge.com/files/solar+array%20las%20vegas%202016%20getty_0.jpg
As the world’s largest corporate buyer of renewable energy, Google has been leading the charge by tech giants to make their data center energy use carbon-neutral. Those efforts have resulted in a massive amount of new renewable generation capacity to be built in the US and Europe, and at least one project in South America.
Alphabet/Google/Aerial Innovations
Google data center under construction in Clarksville, Tennessee
“Last year, we shared our long-term objective to source carbon-free electricity around the clock for each of our data centers,” Amanda Corio, Google’s senior lead for energy and infrastructure, wrote in a blog post announcing the latest solar projects. “These new solar projects will bring us substantially closer to that goal in the Southeastern US.”
In a deal with the Tennessee Valley Authority, the company has agreed to buy the two new solar farm’s entire output. It didn’t say where the remaining power in the 413MW renewable energy deal would come from. Each of the solar farms described in the blog post is expected to have generation capacity of about 150MW.
Since it’s not always possible to power a data center directly with renewable energy generated by a specific wind or solar farm, Google’s focus has been on “matching” its energy consumption with renewables. That means that it buys a kilowatt hour of energy from a renewable source built specifically for Google for every kilowatt hour of energy consumed by its data centers, Urs Hölzle, Google’s senior VP of technical infrastructure, explained in a blog post last year:
We say that we “matched” our energy usage because it’s not yet possible to “power” a company of our scale by 100 percent renewable energy. It’s true that for every kilowatt-hour of energy we consume, we add a matching kilowatt-hour of renewable energy to a power grid somewhere. But that renewable energy may be produced in a different place, or at a different time, from where we’re running our data centers and offices. What’s important to us is that we are adding new clean energy sources to the electrical system, and that we’re buying that renewable energy in the same amount as what we’re consuming, globally and on an annual basis.
The new solar projects in Hollywood, Alabama, and Yum Yum, Tennessee, will be built by NextEra Energy Resources and Invenergy, which partner with TVA. By buying their output, Google expects to match the energy consumption of its upcoming data centers in the region with renewables “from day one.”
]]>Octave Klaba sur la panne de OVH
▻http://travaux.ovh.net/?do=details&id=28247
Comment by OVH - Friday, 10 November 2017, 00:27AM
Bonjour,
Ce matin à 7h23, nous avons eu une panne majeure sur notre site de Strasbourg (SBG) : une coupure électrique qui a mis dans le noir nos 3 datacentres SBG1, SBG2 et SBG4 durant 3h30. Le pire scénario qui puisse nous arriver.
Le site de SBG est alimenté par une ligne électrique de 20kV composée de 2 câbles qui délivrent chacun 10MVA. Les 2 câbles fonctionnent ensemble, et sont connectés à la même source et sur le même disjoncteur chez ELD (Strasbourg Électricité Réseaux). Ce matin, l’un des 2 câbles a été endommagé et le disjoncteur a coupé l’alimentation des datacentres.
Le site SBG est prévu pour fonctionner, sans limite de temps, sur les groupes électrogènes. Pour SBG1 et SBG4, nous avons mis en place, un premier système de 2 groupes électrogènes de 2MVA chacun, configurés en N+1 et en 20kV. Pour SBG2, nous avons mis en place 3 groupes en N+1 de 1.4MVA chacun. En cas de coupure de la source externe, les cellules haute tension sont reconfigurées automatiquement par un système de bascule motorisé. En moins de 30 secondes, les datacentres SBG1, SBG2 et SBG4 sont ré-alimentés en 20KV. Pour permettre toutes ces bascules sans couper l’alimentation électrique des serveurs, nous disposons d’onduleurs (UPS) sachant fonctionner sans aucune alimentation durant 8 minutes.
Ce matin, le système de basculement motorisé n’a pas fonctionné. L’ordre de démarrage des groupes n’a pas été donné par l’automate. Il s’agit d’un automate NSM (Normal Secours Motorisé), fournit par l’équipementier des cellules haute-tension 20kV. Nous sommes en contact avec lui, afin de comprendre l’origine de ce dysfonctionnement. C’est toutefois un défaut qui aurait dû être détecté lors des tests périodiques de simulation de défaut sur la source externe. Le dernier test de reprise de SBG sur les groupes date de la fin du mois mai 2017. Durant ce dernier test, nous avons alimenté SBG uniquement à partir des groupes électrogènes durant 8H sans aucun souci et chaque mois nous testons les groupes à vide. Et malgré tout, l’ensemble de ce dispositif n’a pas suffi aujourd’hui pour éviter cette panne.
Vers 10h, nous avons réussi à basculer les cellules manuellement et nous avons recommencé à alimenter le datacentre à partir des groupes électrogènes. Nous avons demandé à ELD de bien vouloir déconnecter le câble défectueux des cellules haute tension et remettre le disjoncteur en marche avec 1 seul des 2 câbles, et donc limité à 10MVA. La manipulation a été effectuée par ELD et le site a été ré-alimenté vers 10h30. Les routeurs de SBG ont été joignables à partir de 10h58.
Depuis, nous travaillons, sur la remise en route des services. Alimenter le site en énergie permet de faire redémarrer les serveurs, mais il reste à remettre en marche les services qui tournent sur les serveurs. C’est pourquoi chaque service revient progressivement depuis 10h58. Notre système de monitoring nous permet de connaitre la liste de serveurs qui ont démarré avec succès et ceux qui ont encore un problème. Nous intervenons sur chacun de ces serveurs pour identifier et résoudre le problème qui l’empêche de redémarrer.
A 7h50, nous avons mis en place une cellule de crise à RBX, où nous avons centralisé les informations et les actions de l’ensemble des équipes. Un camion en partance de RBX a été chargé de pièces de rechange pour SBG. Il est arrivé à destination vers 17h30. Nos équipes locales ont été renforcées par des équipes du datacentre de LIM en Allemagne et de RBX, ils sont tous mobilisés sur place depuis 16H00. Actuellement, plus de 50 techniciens travaillent à SBG pour remettre tous les services en route. Nous préparons les travaux de cette nuit et, si cela était nécessaire, de demain matin.
Prenons du recul. Pour éviter un scénario catastrophe de ce type, durant ces 18 dernières années, OVH a développé des architectures électriques capables de résister à toutes sortes d’incidents électriques. Chaque test, chaque petit défaut, chaque nouvelle idée a enrichi notre expérience, ce qui nous permet de bâtir aujourd’hui des datacentres fiables.
Alors pourquoi cette panne ? Pourquoi SBG n’a pas résisté à une simple coupure électrique d’ELD ? Pourquoi toute l’intelligence que nous avons développée chez OVH, n’a pas permis d’éviter cette panne ?
La réponse rapide : le réseau électrique de SBG a hérité des imperfections de design liées à la faible ambition initialement prévue pour le site.
La réponse longue :
En 2011, nous avons planifié le déploiement de nouveaux datacentres en Europe. Pour tester l’appétence de chaque marché, avec de nouvelles villes et de nouveaux pays, nous avons imaginé une nouvelle technologie de déploiement de datacentres, basée sur les containers maritimes. Grâce à cette technologie, développée en interne, nous avons voulu avoir la souplesse de déployer un datacentre sans les contraintes de temps liées aux permis de construire. A l’origine, nous voulions avoir la possibilité de valider nos hypothèses avant d’investir durablement dans un site.
C’est comme ça que début 2012, nous avons lancé SBG avec un datacentre en containers maritimes : SBG1. Nous avons déployé 8 containers maritimes et SBG1 a été opérationnel en seulement 2 mois. Grâce à ce déploiement ultra rapide, en moins de 6 mois nous avons pu valider que SBG est effectivement un site stratégique pour OVH. Fin 2012, nous avons décidé de construire SBG2 et en 2016, nous avons lancé la construction de SBG3. Ces 2 constructions n’ont pas été faites en containers, mais ont été basées sur notre technologie de « Tour » : la construction de SBG2 a pris 9 mois et SBG3 sera mis en production dans 1 mois. Pour pallier aux problèmes de place début 2013, nous avons construit très rapidement SBG4, l’extension basée encore sur les fameux containers maritimes.
Le problème est qu’en déployant SBG1 avec la technologie basée sur les containers maritimes, nous n’avons pas préparé le site au large scale. Nous avons fait 2 erreurs :
1) nous n’avons pas remis le site SBG aux normes internes qui prévoient 2 arrivées électriques indépendantes de 20KV, comme tous nos sites de DCs qui possèdent plusieurs doubles arrivées électriques. Il s’agit d’un investissement important d’environ 2 à 3 millions d’euros par arrivée électrique, mais nous estimons que cela fait partie de notre norme interne.
2) nous avons construit le réseau électrique de SBG2 en le posant sur le réseau électrique de SBG1, au lieu de les rendre indépendant l’un de l’autre, comme dans tous nos datacentres. Chez OVH, chaque numéro de datacentre veut dire que le réseau électrique est indépendant d’un autre datacentre. Partout sauf sur le site de SBG.
La technologie basée sur les containers maritimes n’a été utilisée que pour construire SBG1 et SBG4. En effet, nous avons réalisé que le datacentre en containers n’est pas adapté aux exigences de notre métier. Avec la vitesse de croissance de SBG, la taille minimale d’un site est forcément de plusieurs datacentres, et donc d’une capacité totale de 200.000 serveurs. C’est pourquoi, aujourd’hui, pour déployer un nouveau datacenter, nous n’utilisons plus que 2 types de conceptions largement éprouvées et prévues pour le large scale avec de la fiabilité :
1) la construction de tours de 5 à 6 étages (RBX4, SBG2-3, BHS1-2), pour 40.000 serveurs.
2) l’achat des bâtiments (RBX1-3,5-7, P19, GRA1-2, LIM1, ERI1, WAW1, BHS3-7, VIH1, HIL1) pour 40.000 ou 80.000 serveurs.
Même si l’incident de ce matin a été causé par un automate tiers, nous ne pouvons nous dédouaner de la responsabilité de la panne. A cause du déploiement initial basé sur les containers maritimes, nous avons un historique à rattraper sur SBG pour atteindre le même niveau de normes que sur les autres sites d’OVH.
Cet après-midi, nous avons décidé du plan d’actions suivant :
1) la mise en place de la 2ème arrivée électrique, totalement séparée, de 20MVA ;
2) la séparation du réseau électrique de SBG2 vis-à-vis de SBG1/SBG4, ainsi que la séparation du futur SBG3 vis-à-vis de SBG2 et SBG1/SBG4 ;
3) la migration des clients de SBG1/SBG4 vers SBG3 ;
4) la fermeture de SBG1/SBG4 et la désinstallation des containers maritimes.
Il s’agit d’un plan d’investissement de 4-5 millions d’euros, que nous mettons en route dès demain, et qui, nous l’espérons, nous permettra de restaurer la confiance de nos clients envers SBG et plus largement OVH.
Les équipes sont toujours en train de travailler sur la remise en route des derniers clients impactés. Une fois l’incident clos, nous appliquerons les SLA prévus dans nos contrats.
Nous sommes profondément désolés pour la panne générée et nous vous remercions des encouragements que vous nous témoignez durant cet incident.
Amicalement
Octave
#OVH #Panne #Datacenters
]]>Los centros de procesamiento de datos (datacenters) en 2009
▻https://visionscarto.net/centros-de-datos-2009
Título: Los centros de procesamiento de datos (datacenters) en 2009 Palabras-clave: #Internet #Digital #Informática #Datacenters Apparición: - Autor: Philippe Rekacewicz Fecha de creación: 2009 Fuentes: Gateway; Alcatel; Telegeography, Washington DC; Telia; Banco Mundial; Unión internacional de telecomunicaciones (UIT); Datacenter Map
]]>Les centres de données - ou datacenters - en 2009
▻https://visionscarto.net/centres-de-donnees
Titre : Les centres de données (datacenters) en 2009 Mots-clés : #Internet #Numérique #Informatique #Datacenters Apparition : - Auteurs : Philippe Rekacewicz Date de création : 2009 Sources : Gateway ; Alcatel ; Telegeography Incorporation, Washington DC ; Telia ; Banque mondiale ; Union internationale des télécommunications (UIT) ; Datacenter Map
]]>Mining bitcoin : How #bitcoin miners work — Quartz
▻https://qz.com/1054805/what-its-like-working-at-a-sprawling-bitcoin-mine-in-inner-mongolia
▻https://qzprod.files.wordpress.com/2017/08/bitcoin-social-image.jpg?quality=80&strip=all&w=1600
▻https://www.youtube.com/watch?v=yGeim9E24Wk
#photo #Mongolie_intérieure #Chine #énergie #datacenters (sans data)
]]>Alibaba to Use Own Immersion Cooling Tech in Cloud Data Centers | Data Center Knowledge
▻http://www.datacenterknowledge.com/archives/2017/06/14/alibaba-to-use-own-immersion-cooling-tech-in-cloud-data-centers
Alibaba said it plans to contribute the technology to the Open Compute Project, an open source hardware and data center design effort started about six years ago by Facebook. The Chinese company officially joined OCP this week.
Its data center cooling technology has reached production stage, the company said, and will soon be ready for deployment in Alibaba’s cloud data centers.
The concept of submerging servers in dielectric fluid to improve data center cooling efficiency isn’t new. There are several companies selling solutions that use it on the market, the more prominent examples being Green Revolution Cooling and Iceotope.
]]>Visionscarto a publié hier une carte de synthèse assez simple sur le développement (global) d’#Internet
]]>N. Virginia Landgrab Continues : Next Amazon Data Center Campus ? | Data Center Knowledge
▻http://www.datacenterknowledge.com/archives/2017/03/08/n-virginia-landgrab-continues-next-amazon-data-center-campus
L’industrialisation de l’informatique : achats de terres, construction de datacenters géants... jusqu’à découvrir la situation de la Silicon Valley : le terrain est trop cher, alors on reconstruit sur plusieurs étages
The competition for land with entitlements suitable for large campuses in red-hot Northern Virginia data center market continues unabated.
Corporate Office Property Trust, a publicly traded REIT that’s built a lot of shell buildings for Amazon data centers in the region, appears to be in the process of entitling land for another data center campus. Northern Virginia is home to the largest cluster of Amazon Web Services data centers.
#datacenters #vectorialisme #impact_environnement #accaparement_des_terres
]]>Contre les data centers
▻http://souriez.info/Contre-les-data-centers
Les Amis d’Orwell ont reçu vendredi 16 décembre trois membres du collectif Urbaxion 93 qui ont obtenu l’annulation de l’autorisation d’installation d’un data center à La Courneuve (93). Les data centers (centres de stockage des données numériques) fleurissent en région parisienne et tout particulièrement en Seine-Saint-Denis (93). La communauté d’agglomération Plaine commune regroupe près de 15 data centers, soit la plus forte concentration d’Europe. Ces bâtiments accueillent des centaines de serveurs (...)
▻http://lacourneuve4routes.free.fr/?tag=interxion
▻http://amaanda.free.fr/2016Orwell/Orwell161216.mp3
Les nuages de la finance, rue de l’Inspecteur
►https://lundi.am/Les-nuages-de-la-finance-rue-de-l-inspecteurs
Invasion cybernétique au Québec
« ▻http://www.urbacon.net/wp-content/uploads/2015/03/Communiqu%C3%A9_d%C3%A9but-construction-Centre-de-donn%C3%A9es-de-Mtl_janvi »
« ▻http://affaires.lapresse.ca/economie/quebec/201503/13/01-4851768-un-premier-grand-centre-de-donnees-a-montreal.php »
« ▻http://www.bloomberg.com/news/articles/2014-07-15/wall-street-grabs-nato-towers-in-traders-speed-of-light-quest »
« ▻http://www.zones-sensibles.org/livres/6-5 »
« ▻http://www.rootdatacenter.com/data-center/)%20https://www.youtube.com/watch?time_continue=118&v=UNScwHZijVY »
« ▻http://www.nytimes.com/2012/09/23/technology/data-centers-waste-vast-amounts-of-energy-belying-industry-image.html?_r=1 »
« ▻http://www.computerworld.com/article/2598562/data-center/data-centers-are-the-new-polluters.html »
« ▻http://www.theguardian.com/environment/2015/sep/25/server-data-centre-emissions-air-travel-web-google-facebook-greenhouse- »
« ▻http://www.theregister.co.uk/2013/08/16/it_electricity_use_worse_than_you_thought »
« ▻http://www.lapresse.ca/le-soleil/affaires/techno/201506/02/01-4874613-microsoft-ouvrira-un-centre-de-donnees-a-quebec.php »
« ▻http://branchez-vous.com/2013/10/30/la-nsa-aurait-infiltre-les-centres-de-donnees-de-google-et-yahoo »
« ▻http://www.investquebec.com/international/fr/secteurs-activite-economique/technologies-information-communications/centres-de-donnees.html »
« ▻http://blogues.radio-canada.ca/rive-sud/2013/04/26/centre-donnees-ovh-beauharnois »
« ▻http://branchez-vous.com/2015/09/16/videotron-investit-40-millions-dans-centre-de-donnees-montreal »
« ▻http://www.tvanouvelles.ca/2013/06/26/les-centres-de-donnees-une-manne-pour-le-quebec-1 »
« ▻http://www.cnet.com/news/facebook-turns-on-data-center-at-edge-of-the-arctic-circle »
« ▻http://thehackernews.com/2016/02/microsoft-underwater-datacenter.html »
« ▻http://www.littor.al/2016/02/les-nuages-de-la-finance-rue-de-linspecteur »
Where Are Amazon’s Data Centers ?, by Ingrid Burrington - The Atlantic
▻http://www.theatlantic.com/technology/archive/2016/01/amazon-web-services-data-center/423147
The incoherent banality of northern Virginia also felt like a fitting aesthetic conclusion to this journey to see the cloud. If driving across America in search of the Internet has taught me anything, it’s that the suburban sprawl of northern Virginia (and Silicon Valley, north Utah, eastern Kansas, and central Iowa) looks exactly like the #Internet as we live with it today: it looks like a landscape in equal measure blandly sinister and weirdly poetic, a place whose significance is not really born of grand ambitions but of conniving and coincidence, of political machinations hitting against material reality, of easily discarded histories that only achieve coherence after sifting through sediment.
très jolie #enquête_géographique à la recherche des #datacenters d’#Amazon en Virginie du Nord
]]>Global geography of Google Data Centers | Panethos
▻https://panethos.wordpress.com/2015/06/27/global-geography-of-google-data-centers
As Google continues to grow, Panethos thought it would be interesting to see where their data centers are geographically situated around the planet. Enjoy!
Here’s a weblink to a map created showing these locations: ▻https://www.zeemaps.com/edit/ZzqsVqTQ9ks98clePqx4vQ
Asia
Changhua County, Taiwan – opened in 2013
Hong Kong, China – project canceled in 2013
Singapore, Singapore – opened in 2013
Europe
Dublin, Ireland – opened in 2012
Hamina, Finland – opened in 2011
Saint-Chislain, Belgium – opened in 2010
Eernshaven, Netherlands (Groningen) – under construction – to be operational in 2016
North America
Berkeley County, South Carolina (Charleston) – opened in 2009 and expanded in 2013
Council Bluffs, Iowa (Omaha) – two centers opened in 2009 and in 2013
Lenoir, North Carolina (Hickory) – opened in 2009
Lithia Springs, Georgia (Atlanta) – opened in 2003
Mayes County, Oklahoma (Tulsa) – two centers opened in 2010 and 2013
Stevenson, Alabama (Chattanooga) – construction to start in 2016
The Dalles, Oregon (Portland) – opened in 2008
South America
Quilicura, Chile (Santiago) – opened in 2015
]]>La vie d’un paquet #IP pendant son trajet sur l’#Internet, avec photos des lieux par lesquels il passe.
]]>“Zombie” Servers and Inefficiency Drive Energy Waste at Data Centers
▻http://news.nationalgeographic.com/news/energy/2014/08/140826-nrdc-data-center-energy-waste
The high energy demand of those servers is well documented, but up to 30 percent of them are drawing power without actually doing anything.
These “zombie,” or comatose, servers are among the examples of energy waste documented in a report about U.S. data centers released Tuesday by the Natural Resources Defense Council (NRDC). If those facilities were to cut electricity consumption by 40 percent—half of what is possible using the tools now available to improve efficiency—the electricity savings would amount to $3.8 billion and 39 billion kilowatt-hours, according to the report.
(...) Large companies such as Google, Facebook, eBay, and Microsoft are already highly efficient, a result of major resources and huge scale, but their share of electricity use is just 5 percent of total data center consumption in the United States.
“Our concern is more about the other 95 percent”
]]> L’envers des data centers (1/3) : Ordiland en Seine-Saint-Denis
▻http://www.mediapart.fr/journal/france/050814/lenvers-des-data-centers-13-ordiland-en-seine-saint-denis?onglet=full
Au nord de Paris, en Seine-Saint-Denis, se multiplient les data centers, ces hangars de serveurs indispensables au fonctionnement d’Internet. Leur besoin en énergie est colossal : ils représentent un quart de la puissance électrique supplémentaire du Grand Paris d’ici 2030. Des riveraines se plaignent de leur impact sur leur vie quotidienne.
Outre les problèmes environnementaux, on y apprend que les data centers peuvent aussi causer des nuisances sonores et esthétiques, que leur construction s’arrange parfois avec le droit, qu’il n’y a aucune transparence... Bref, c’est très intéressant.
#Cloud_computing #Data_center #Environnement #Interxion #Numérique #Paris #Urbanisme #Économie_numérique
]]>#Bitcoin : hors circuit monétaire, système financier global
▻http://www.franceculture.fr/emission-ce-qui-nous-arrive-sur-la-toile-bitcoin-hors-circuit-monetair
(Que nous arrive-t-il sur la Toile ?) Comme partout, des hauts et des bas. Et ceci est particulièrement valable pour le cours du Bitcoin, dont on a beaucoup parlé il y a quelques jours parce que la monnaie virtuelle décentralisée a atteint un sommet inédit à près de 1 000 dollars le bitcoin, avant de perdre la moitié de sa valeur ces jours derniers, dans la foulée...
#monnaie #capitalisme #Fed #Ayn_Rand #shameless_autopromo cette semaine je remplace @xporte
Into the Bitcoin Mines
▻https://www.youtube.com/watch?feature=player_embedded&v=VDK90WWh8Ck
On the flat lava plain of Reykjanesbaer, Iceland, near the Arctic Circle, you can find the mines of Bitcoin.
Google Serves 25 Percent of North American Internet Traffic | Wired Enterprise | Wired.com
▻http://www.wired.com/wiredenterprise/2013/07/google-internet-traffic #plo
Everyone knows Google is big. But the truth is that it’s huge. On an average day, #Google accounts for about 25 percent of all consumer #internet_traffic running through North American ISPs.
That’s a far larger slice of than previously thought, and it means that with so many consumer devices connecting to Google each day, it’s bigger than Facebook, Netflix, and Instagram combined. It also explains why Google is building #datacenters as fast as it possibly can. Three years ago, the company’s services accounted for about 6 percent of the internet’s traffic.
]]>Free ne bride pas YouTube, mais a un souci de congestion
▻http://www.numerama.com/magazine/26563-free-ne-bride-pas-youtube-mais-a-un-souci-de-congestion.html
Si l’#ARCEP n’a pas relevé de pratiques discriminatoires dans les échanges entre le #FAI et les services de #Google, l’autorité a « constaté l’existence d’une congestion des capacités d’#interconnexion de Free avec ses opérateurs de transit de données ».
La question qui se pose est donc la suivante : #Free en fait-il assez dans l’investissement de son réseau pour limiter la congestion ?
]]>#data Centers Grand Tour (This Data Belongs Here) - Silvio Lorusso, 2013
▻http://data-centers-grand-tour.net
]]>Une cartographie (encore bien incomplète) des data centers à travers le monde. Tags : internetactu fing internetactu2net data
The states with the most #datacenters are also the most disaster-prone [maps] — Tech News and Analysis
▻http://gigaom.com/2013/01/10/the-states-with-the-most-data-centers-are-also-the-most-disaster-prone-maps
Tubes : A journey to the center of the Internet, par Andrew Blum (chez Harper Collins), ISBN 978-0-06-199493-7
Contrairement à ce qu’on pourrait croire en prêtant attention aux niaiseries comme le discours sur le « virtuel » ou sur le « cloud », l’Internet n’est pas un concept évaporé. Il s’appuie sur de grosses et lourdes machines, qui sucent beaucoup d’électricité, et qui sont hébergées dans de grands bâtiments industriels. Ceux-ci sont connectés par des liens bien physiques, les ondes radio étant marginales. C’est cet enracinement physique de l’Internet que décrit Andrew Blum. L’auteur vivait autrefois dans l’ignorance de l’endroit où passait son trafic Internet. Il a compris la #physicalité du réseau lorsqu’un écureuil insolent a eu l’audace de ronger son accès Internet. Blum est alors parti visiter la planète pour trouver les lieux physiques d’Internet.
►http://www.bortzmeyer.org/tubes.html
#câbles_sous-marins #datacenters #points_d'échange
Voir aussi ►http://seenthis.net/messages/100385 ►http://seenthis.net/messages/100279 ►http://seenthis.net/messages/44394 ►http://seenthis.net/messages/27102 ►http://seenthis.net/messages/103312
]]>Data Centers Waste Vast Amounts of Energy, Belying Industry Image - NYTimes.com
►http://www.nytimes.com/2012/09/23/technology/data-centers-waste-vast-amounts-of-energy-belying-industry-image.html?pagew
Google’s data centers consume nearly 300 million watts and Facebook’s about 60 million watts.
“You do have to take into account that the explosion of data is what aids and abets this,” said Mr. Taylor of the Uptime Institute. “At a certain point, no one is responsible anymore, because no one, absolutely no one, wants to go in that room and unplug a server.”
]]>Data Centers in Rural Washington State Gobble Power - NYTimes.com
▻http://www.nytimes.com/2012/09/24/technology/data-centers-in-rural-washington-state-gobble-power.html?nl=todaysheadlines
#datacenters
Robert Bryce : Renewable Energy Can’t Run the Cloud - WSJ
►http://online.wsj.com/article/SB10001424052702303610504577420251668850864.html
Data centers now consume about 1.3% of all global electricity. That amount of energy, about 277 terawatt-hours per year, exceeds the electricity use of dozens of countries, including Australia and Mexico.
And that quantity of energy will continue to grow. (...)
The mismatch between the power demands of Big Data and the renewable-energy darlings of the moment are obvious. U.S. data centers are now consuming about 86 terawatt-hours of electricity per year, or about 43 times as much electricity as is produced by all the solar-energy projects in America.
#green #technologie #énergie #datacenters via @renaud
Data centers in Va. and elsewhere have major carbon footprint, report says - The Washington Post
►http://www.washingtonpost.com/national/health-science/data-centers-in-va-and-elsewhere-have-major-carbon-footprint-report-says/2012/04/17/gIQAd4t3NT_story.html
In 2007 data centers and mobile communications used 623 billion kilowatt hours of electricity; put another way, if the industry were a country, it would rank fifth in the world in terms of electricity demand, behind the U.S., China, Russia and Japan.
#datacenters #green #it
]]>Qui a dit que Google n’était pas vert (ou bleu ?)
Google : Latest Data Center Cooled With Ocean Water
►http://www.businessinsider.com/googles-latest-data-center-is-cooled-entirely-with-ocean-water-2011
Matt Rosoff | May 24, 2011, 5:35 PM | 6,813 | comment 13
Google has opened the kimono a little bit on its data center design since Facebook launched its open-source data center project a couple months ago.
First, there was an unprecedented video showing how Google handles security at its data centers.
]]>Comme vous le voyez…
#Google [...] a fait une vidéo dédiée à rassurer ses clients
il y a de la #poésie dans ce sous-titre :
(vu sur ►http://gonzague.me/securite-datacenters-google #sécurité #datacenters #physicalité)
]]>Greenpeace slams Apple over datacenter pollution | Apple Intelligence
►http://www.9to5mac.com/63214/greenpeace-slams-apple-over-datacenter-pollution
The report entitled “How Dirty is Your Data: A Look at the #Energy Choices That Power Cloud Computing” analyzes power consumption and pollution generated by super #datacenters operated by #Apple, #Facebook, #IBM and others. Apple, whose latest 500,000 square feet datacenter in North Carolina is either operational or about to flip the switch, ranked last in the report. Most datacenters use “dirty energy”, #Greenpeace said.
]]>