• Evaluation de l’#impact_environnemental du #numérique en France

    Cette étude vise à mettre à jour les données de l’étude menée avec l’#Arcep en 2020 sur l’évaluation de l’impact environnemental du numérique en France, aujourd’hui et demain. En effet, n’avait été pris en compte dans les hypothèses de l’étude de 2020, que les #data_centers situés sur le territoire français. Or une partie importante des usages en France sont hébergés à l’étranger (environ 53 %) ce qui représente des impacts très loin d’être négligeables. Par ailleurs, entre 2020 et 2022, le mix entre les télévisions #OLED et #LCD-LED a varié au profit des télévisions OLED plus grandes et plus impactantes ainsi que les usages notamment due à l’arrivée massive de l’#IA.


    https://librairie.ademe.fr/changement-climatique/7880-evaluation-de-l-impact-environnemental-du-numerique-en-france.h

    #rapport #France #impact #intelligence_artificielle

  • L’accélération de l’#IA pose déjà des questions de #pénuries d’#eau et d’#énergie

    Le Royaume-Uni comme les États-Unis viennent de présenter de nouveaux plans pour soutenir la mise en place d’#infrastructures pour l’IA dans leurs territoires. Mais actuellement, aux États-Unis, de nouvelles #centrales au gaz sont ouvertes pour répondre aux demandes d’énergie de l’IA. Au Royaume-Uni, l’implantation par le gouvernement de sa « première zone de croissance de l’IA » près d’un nouveau réservoir pose la question des priorités d’#accès_à_l'eau.

    Ce mardi 14 janvier et six jours avant la passation de pouvoir à Donal Trump, Joe Biden a publié un décret pour l’investissement des États-Unis dans des infrastructures. « Je signe aujourd’hui un décret historique visant à accélérer la vitesse à laquelle nous construisons la prochaine génération d’infrastructures d’IA ici aux États-Unis, de manière à renforcer la compétitivité économique, la sécurité nationale, la sécurité de l’IA et l’énergie propre », affirme-t-il.

    Selon certaines estimations, la consommation énergétique de l’IA devrait être multipliée par 4 à 9 d’ici 2050 et la consommation d’énergie des #data_centers aux États-Unis est déjà très carbonée.

    Le #gaz comme source d’énergie future aux États-Unis

    Mais, malgré les différentes annonces d’investissements dans le nucléaire par les géants du numérique, les États-Unis seraient plutôt à l’aube d’un boom de la construction de #centrales_électriques au gaz naturel, selon le Financial Times. Le journal économique américain explique que « les grandes entreprises technologiques se tournent vers les #combustibles_fossiles pour répondre aux énormes besoins en #électricité de la révolution de l’intelligence artificielle, ce qui met en péril les objectifs en matière de climat ».

    Le journal cite le cabinet de conseil en énergie #Enverus qui prévoit qu’au moins 80 centrales électriques au gaz seront construites aux États-Unis d’ici à 2030. Le Financial Times estime la capacité supplémentaire de ces centrales à 46 gigawatts, « soit la taille du réseau électrique norvégien et près de 20 % de plus que ce qui a été ajouté au cours des cinq dernières années ». Et selon Corianna Mah, analyste pour Enverus interrogée par le journal, « le gaz croît en fait plus rapidement aujourd’hui, et à moyen terme, que jamais auparavant ». Aucun des projets qu’Enverus a listés ne prévoit d’être équipé d’un système de capture de dioxyde de carbone.

    Approvisionnement de l’eau dans un lac de barrage prévu pour la population britannique

    De son côté, le gouvernement du Royaume-Uni vient d’annoncer une stratégie nationale pour faire de son pays un leader en matière d’intelligence artificielle. Dedans, il prévoit entre autres des « Zones de croissance de l’IA » (#IA_growth_zones), « des zones bénéficiant d’un meilleur accès à l’électricité et d’un soutien pour les autorisations de planification, afin d’accélérer la mise en place d’une infrastructure d’IA sur le sol britannique », comme l’explique le communiqué du Secrétariat d’État à la science, à l’innovation et à la technologie.

    Mais des questions se posent sur l’emplacement prévu de la première « #zone_de_croissance ». Situé à Culham, au siège de l’Autorité britannique de l’énergie atomique (UKAEA), cet endroit est aussi celui du premier nouveau lac de barrage construit depuis 30 ans aux Royaume-Uni, « qui était censé fournir de l’eau aux habitants du sud-est de l’Angleterre, qui souffre d’un grave problème d’approvisionnement en eau », explique le Guardian.

    Le journal britannique souligne que cette région est celle qui, selon l’agence environnementale nationale, est la plus sensible du pays aux manques d’eau. Entre les réserves d’eau disponibles et la demande attendue sans compter les data centers, le sud-est du pays sera confronté à un déficit potentiel de plus de 2,5 milliards de litres par jour d’ici 2050.

    Du côté énergétique, le gouvernement britannique a mis en place un Conseil de l’énergie de l’IA qui doit travailler avec les entreprises du secteur pour « pour comprendre les demandes et les défis énergétiques » liés à l’intelligence artificielle. Il parie encore sur la possibilité de mettre en place des #SMR (#réacteurs_nucléaires_modulaires).

    « L’expansion de l’IA a été un sujet de préoccupation pour #National_Grid [entreprise de distribution de l’électricité et du gaz notamment au Royaume-Uni], mais la vitesse à laquelle la demande de calcul de l’IA augmente a pris tout le monde par surprise et, à moins que nous n’équilibrions correctement les compromis ci-dessus, avec des politiques appropriées, toute l’énergie verte et bon marché dont nous disposons sera utilisée par les grandes entreprises technologiques, ce qui privera les familles qui souffrent déjà de la pauvreté énergétique », explique Gopal Ramchurn, chercheur de l’université de Southampton, interrogé par le Guardian.

    La #France s’appuie sur son #nucléaire, mais des tensions sont présentes

    Quant à la France, l’instabilité politique ne permet pas d’y voir très clair dans la politique du pays concernant l’IA. Lors de son discours de politique générale, le premier Ministre François Bayrou a évoqué l’IA lorsqu’il a annoncé la création d’un fonds spécial « entièrement [consacré] à la réforme de l’État ». Ce fonds sera financé par des actifs « en particulier immobiliers, qui appartiennent à la puissance publique, de façon à pouvoir investir, par exemple, dans le déploiement de l’intelligence artificielle dans nos services publics ».

    Lors de ses vœux, le Président de la Région Normandie Hervé Morin a évoqué la volonté de sa région d’être référente en matière d’intelligence artificielle et d’accueillir des data centers sur trois ou quatre points du territoire. Il a mis en avant « son potentiel énergétique décarboné », faisant référence aux centrales nucléaires de Flamanville, Paluel et Penly et à l’EPR situé lui aussi à Flamanville.

    Mais RTE tirait récemment un signal d’alarme sur le foisonnement de projets de data centers prévus pour l’IA. Si l’entreprise affirmait en novembre à l’Usine Nouvelle avoir « assez d’électricité pour répondre à la croissance des besoins », elle pointait aussi du doigt une « course à la capacité » et un manque de planification :« plusieurs projets ont été abandonnés en raison de tensions sur la distribution de l’énergie », ajoutait-il.

    https://next.ink/165467/lacceleration-de-lia-pose-deja-des-questions-de-penuries-deau-et-denergie

    #intelligence_artificielle #AI #énergie_nucléaire

    • Pourquoi l’IA générative consomme-t-elle tant d’énergie ?

      #DeepSeek défraye la chronique en proposant un modèle dont les #performances seraient comparables à celles des modèles préexistants, pour un coût très réduit en termes de puissance de calcul et de données, et donc une #consommation_énergétique moindre. Quand on sait que Microsoft a indiqué une hausse de 29,1 % d’émission de carbone sur l’année 2023 et que différentes grandes entreprises du numérique investissent dans des capacités de production d’électricité, le tout en lien avec l’essor de l’#IA_générative, l’enjeu est de taille. Pourquoi l’IA générative consomme-t-elle tant ? Décryptage.

      Les grands modèles de langage (Large Language Models ou LLM), comme ChatGPT (OpenAI), Gemini (Google/DeepMind) ou encore les modèles génératifs d’images comme #Midjourney, sont devenus en très peu de temps des outils incontournables avec des usages qui ne cessent de s’amplifier et de se diversifier. Il est vrai que la fluidité des échanges avec ChatGPT impressionne, et que les promesses de développement sont enthousiasmantes.

      Néanmoins, ces promesses cachent des coûts de calcul, et donc énergétiques, considérables. Or, aujourd’hui l’idée dominante dans l’industrie des modèles génératifs est : « Plus grand est le modèle, mieux c’est. » Cette compétition s’accompagne d’une croissance de la consommation énergétique et, donc, de l’empreinte écologique qui ne peut plus être ignorée et qui questionne quant à sa pérennité et sa viabilité pour la société.
      Pourquoi un tel coût ?

      Un modèle génératif de texte comme un chatbot est un ensemble de paramètres numériques ajustés à partir de données pour accomplir une tâche spécifique. L’architecture dominante s’appuie sur les « transformers ».

      Les #transformers prennent une séquence en entrée, par exemple un prompt (soit votre question), pour la transformer numériquement. En empilant les couches de transformers, le modèle multiplie ces transformations afin de construire la réponse en prolongeant son entrée. Cet empilement de couches confère au modèle son efficacité et fait croître le nombre de paramètres. C’est pourquoi un modèle tel que GPT-4 contient au moins 1 tera (1 000 milliards) de paramètres et nécessite donc au moins 2 tera octets (To) de mémoire vive pour être utilisable.

      Que ce soit pour l’entraînement, pour le stockage des données et des paramètres, ou pour le calcul d’une réponse, des infrastructures de calcul de plus en plus puissantes sont donc indispensables. En d’autres termes, contrairement à ce que l’on croit souvent, ce n’est pas juste pour entraîner le modèle que ces techniques sont très coûteuses.

      Des données émerge la « connaissance »

      Avant tout, un modèle génératif doit être « appris ». Pour cela des données (textes, images, sons, etc.) lui sont présentées à maintes reprises afin d’ajuster ses paramètres. Plus il y a de paramètres, plus la phase d’apprentissage est coûteuse en données, mais aussi en temps et en énergie.

      Ainsi, pour un LLM (grand modèle de langage), on parle par exemple de l’ordre de la dizaine de trillions de données (environ 10 trillions pour GPT-4 et 16 trillions pour Gemini) et aux alentours de trois mois de préapprentissage sur environ 20 000 puces A100 de NVIDIA pour le dernier-né d’OpenAI. Ces modèles les plus performants sont en fait une combinaison de plusieurs énormes modèles (les « Mixture of Experts »), GPT-4 étant ainsi le résultat de 16 experts de 110 milliards de paramètres, selon les rares informations disponibles.

      Après cette phase d’apprentissage, le modèle est déployé afin de répondre aux utilisateurs dans une phase dite d’« inférence ». Pour faire face à la demande (ces systèmes construits pour répondre à plusieurs personnes en même temps) avec un temps de réponse satisfaisant, le modèle est alors dupliqué sur différents clusters de calcul. Un article de recherche constate également que les architectures génératives polyvalentes consomment significativement plus d’énergie à l’inférence que les systèmes spécifiques à une tâche, même à taille de modèle équivalente.

      Ce survol des besoins en termes de calcul donne une idée des ordres de grandeur qui se cachent derrière nos interactions — qui semblent si rapides et efficaces — avec ces énormes modèles. Il permet surtout de poser différemment la question de l’évaluation de ces modèles, en y incluant la question de la soutenabilité en termes énergétiques et écologiques. Des travaux récents proposent ainsi un modèle pour évaluer les impacts environnementaux de la fabrication des cartes graphiques et une analyse multicritère des phases d’entraînement et d’inférence des modèles d’apprentissage automatique.
      Obsolescence et frugalité

      Ainsi les grands modèles génératifs nécessitent des infrastructures matérielles colossales.

      Au-delà de considérations économiques, il a été montré que passé un certain point, les gains de performances ne justifient pas une telle explosion du nombre de paramètres. Toutes les applications ne nécessitent pas d’énormes modèles et des approches plus modestes peuvent être aussi performantes, plus rapides et moins coûteuses.

      Sur le plan environnemental, l’apprentissage et l’inférence de modèles massifs ont un coût énergétique qui nécessitent réflexion. Les travaux de certains auteurs soulignent la complexité de mesurer avec précision l’empreinte carbone de ces grands modèles, tout en montrant leur impact considérable : 50,5 tonnes équivalent CO2 (CO2 eq) pour un modèle de 176 milliards de paramètres, appris en 2023… et pratiquement considéré comme obsolète aujourd’hui. Pour rappel, si un Français moyen rejette actuellement environ 10 tonnes CO2 eq par an, l’objectif à l’horizon 2050 pour respecter l’engagement des accords de Paris est d’environ 2 tonnes CO₂ eq par Français et par an.

      Quant à la phase d’inférence (ou d’utilisation, quand on pose une question à GPT), lorsqu’elle est réalisée des millions de fois par jour, comme c’est le cas pour un assistant conversationnel, elle peut engendrer un coût énergétique considérable, parfois bien supérieur à celui de l’entraînement.

      Ainsi, un outil développé en 2019 a permis d’estimer qu’une inférence de ChatGPT 3.5 produisait environ 4,32 grammes de CO2.

      À l’heure où les assistants conversationnels sont peut-être en passe de remplacer les moteurs de recherche standards (Google, Bing, Qwant), la question de son utilisation se pose, car ces derniers ont un coût 10 à 20 fois moindre (0,2 gramme de CO2 la recherche, d’après Google).

      Enfin, la concentration de pouvoir entre quelques acteurs disposant des ressources nécessaires pour développer ces modèles — data centers, données, compétences — pose des problèmes scientifiques en limitant la diversité des recherches, mais aussi stratégiques et politiques.
      Les recherches en IA frugale

      La frugalité consiste à se fixer dès le départ une enveloppe de ressources (calcul, mémoire, données, énergie) et à concevoir des modèles capables de s’y adapter. L’idée n’est pas de sacrifier les performances, mais de privilégier la sobriété : optimiser chaque étape, du choix de l’architecture à la collecte des données, en passant par des méthodes d’apprentissage plus légères, afin de réduire l’empreinte environnementale, d’élargir l’accès à l’IA et de favoriser des applications réellement utiles.

      La recrudescence de travaux de recherche sur ce thème illustre la volonté de penser l’IA sous l’angle de la sobriété. Il s’agit ainsi de replacer la pertinence, l’impact sociétal et la soutenabilité au cœur de la recherche.

      Concrètement, de nombreuses pistes émergent. Sur le plan de l’apprentissage, il s’agit d’explorer des alternatives algorithmiques au paradigme actuel, hérité du milieu des années 1980 et qui n’a jamais été remis en question alors même que les quantités de données et la puissance de calcul n’ont plus rien à voir avec celles qui prévalaient aux débuts de ces modèles.

      Ainsi, au-delà des optimisations techniques, une réflexion méthodologique de fond s’impose, tant le contexte scientifique a évolué depuis les années 1980. Cette réflexion est au cœur, par exemple, du projet Sharp, financé par le programme France 2030. L’étude d’architectures plus compactes et spécialisées est également abordée avec le projet Adapting du même programme.

      Les mathématiques appliquées peuvent jouer un rôle clé en proposant des « représentations parcimonieuses », des méthodes de factorisation, ou en optimisant l’usage de données faiblement annotées.

      Ainsi, en travaillant avec des contraintes de ressources, ces recherches visent un développement en IA plus frugal et donc durable, ainsi que plus accessible, et indépendant de l’hyperconcentration du marché. Elles limitent les externalités négatives — environnementales, éthiques, économiques — liées à la course effrénée vers le gigantisme.

      Mais pour atteindre ces objectifs, il est aussi important d’avancer sur les critères et les méthodes d’évaluations en IA : avec le paradigme dominant actuel, la dimension de frugalité peine encore à s’imposer, que ce soit du côté de la recherche ou industriel. Il ne faut d’ailleurs pas confondre la récente explosion des outils de DeepSeek avec de la frugalité, les coûts en calcul et en données étant eux aussi extrêmement élevés, avec des méthodes probablement éthiquement répréhensibles.

      Ainsi, le monde académique doit mieux intégrer cette dimension afin d’améliorer la visibilité et la valorisation des travaux qui visent la frugalité.
      L’IA que nous développons est-elle vraiment utile ?

      La frugalité en IA n’est pas un simple concept, mais une nécessité face aux enjeux actuels. Les travaux récents sur son empreinte carbone illustrent l’urgence de repenser nos méthodes. Avant même d’envisager les manières de rendre l’IA plus sobre, il est légitime de se demander si l’IA que nous développons est vraiment utile.

      Une approche plus frugale, mieux pensée et mieux orientée, permettra de construire une IA tournée vers le bien commun, s’appuyant sur des ressources maîtrisées, plutôt que sur la surenchère permanente en taille et en puissance de calcul.

      Cet article a été écrit dans le cadre de la troisième édition des Dauphine Digital Days qui a eu lieu à l’Université Paris Dauphine — PSL, du 18 au 20 novembre 2024.

      https://theconversation.com/pourquoi-lia-generative-consomme-t-elle-tant-denergie-247406

  • « Nous assistons à une escalade de la #prédation_minière »

    Une nouvelle #ruée_minière a commencé et touche aussi la #France. Au nom de la lutte contre la crise climatique, il faudrait extraire de plus en plus de #métaux. Celia Izoard dénonce l’impasse de cette « #transition » extractiviste. Entretien.

    Basta/Observatoire des multinationales : Il est beaucoup question aujourd’hui de renouveau minier en raison notamment des besoins de la transition énergétique, avec la perspective d’ouvrir de nouvelles mines en Europe et même en France. Vous défendez dans votre #livre qu’il ne s’agit pas du tout d’un renouveau, mais d’une trajectoire de continuité. Pourquoi ?

    #Celia_Izoard : Les volumes de #métaux extraits dans le monde aujourd’hui augmentent massivement, et n’ont jamais cessé d’augmenter. Ce qui est parfaitement logique puisqu’on ne cesse de produire de nouveaux objets et de nouveaux équipements dans nos pays riches, notamment avec la #numérisation et aujourd’hui l’#intelligence_artificielle, et qu’en plus de cela le reste du monde s’industrialise.

    En conséquence, on consomme de plus en plus de métaux, et des métaux de plus en plus variés – aussi bien des métaux de base comme le #cuivre et l’#aluminium que des métaux de spécialité comme les #terres_rares. Ces derniers sont utilisés en très petite quantité mais dans des objets qui sont partout, comme les #smartphones, et de façon trop dispersive pour permettre le #recyclage.

    Et la production de tous ces métaux devrait continuer à augmenter ?

    Oui, car rien ne freine cette production, d’autant plus qu’on y ajoute aujourd’hui une nouvelle demande qui est un véritable gouffre : celle de métaux pour le projet très technocratique de la transition. « Transition », dans l’esprit de nos élites, cela signifie le remplacement des #énergies_fossiles par l’#énergie_électrique – donc avec des #énergies_renouvelables et des #batteries – avec un modèle de société inchangé. Mais, par exemple, la batterie d’une #voiture_électrique représente souvent à elle seule 500 kg de métaux (contre moins de 3 kg pour un #vélo_électrique).

    Simon Michaux, professeur à l’Institut géologique de Finlande, a essayé d’évaluer le volume total de métaux à extraire si on voulait vraiment électrifier ne serait-ce que la #mobilité. Pour le #lithium ou le #cobalt, cela représenterait plusieurs décennies de la production métallique actuelle. On est dans un scénario complètement absurde où même pour électrifier la flotte automobile d’un seul pays, par exemple l’Angleterre ou la France, il faut déjà plus que la totalité de la production mondiale. Ce projet n’a aucun sens, même pour lutter contre le #réchauffement_climatique.

    Vous soulignez dans votre livre que l’#industrie_minière devient de plus en plus extrême à la fois dans ses techniques de plus en plus destructrices, et dans les #nouvelles_frontières qu’elle cherche à ouvrir, jusqu’au fond des #océans et dans l’#espace

    Oui, c’est le grand paradoxe. Les élites politiques et industrielles répètent que la mine n’a jamais été aussi propre, qu’elle a surmonté les problèmes qu’elle créait auparavant. Mais si l’on regarde comment fonctionne réellement le #secteur_minier, c’est exactement l’inverse que l’on constate. La mine n’a jamais été aussi énergivore, aussi polluante et aussi radicale dans ses pratiques, qui peuvent consister à décapiter des #montagnes ou à faire disparaître des #vallées sous des #déchets_toxiques.

    C’est lié au fait que les teneurs auxquelles on va chercher les métaux sont de plus en plus basses. Si on doit exploiter du cuivre avec un #filon à 0,4%, cela signifie que 99,6% de la matière extraite est du #déchet. Qui plus est, ce sont des #déchets_dangereux, qui vont le rester pour des siècles : des déchets qui peuvent acidifier les eaux, charrier des contaminants un peu partout.

    Les #résidus_miniers vont s’entasser derrière des #barrages qui peuvent provoquer de très graves #accidents, qui sont sources de #pollution, et qui sont difficilement contrôlables sur le long terme. Nous assistons aujourd’hui à une véritable #escalade_technologique qui est aussi une escalade de la #prédation_minière. La mine est aujourd’hui une des pointes avancées de ce qu’on a pu appeler le #capitalisme_par_dépossession.

    Comment expliquer, au regard de cette puissance destructrice, que les populations occidentales aient presque totalement oublié ce qu’est la mine ?

    Il y a un #déni spectaculaire, qui repose sur deux facteurs. Le premier est la religion de la #technologie, l’une des #idéologies dominantes du monde capitaliste. Nos dirigeants et certains intellectuels ont entretenu l’idée qu’on avait, à partir des années 1970, dépassé le #capitalisme_industriel, qui avait été tellement contesté pendant la décennie précédente, et qu’on était entré dans une nouvelle ère grâce à la technologie. Le #capitalisme_post-industriel était désormais avant tout une affaire de brevets, d’idées, d’innovations et de services.

    Les mines, comme le reste de la production d’ailleurs, avaient disparu de ce paysage idéologique. Le #mythe de l’#économie_immatérielle a permis de réenchanter le #capitalisme après l’ébranlement des mouvements de 1968. Le second facteur est #géopolitique. Aux grandes heures du #néo-libéralisme, le déni de la mine était un pur produit de notre mode de vie impérial. Les puissances occidentales avaient la possibilité de s’approvisionner à bas coût, que ce soit par l’#ingérence_politique, en soutenant des dictatures, ou par le chantage à la dette et les politiques d’#ajustement_structurel. Ce sont ces politiques qui ont permis d’avoir par exemple du cuivre du #Chili, de #Zambie ou d’#Indonésie si bon marché.

    Les besoins en métaux pour la #transition_climatique, si souvent invoqués aujourd’hui, ne sont-ils donc qu’une excuse commode ?

    Invoquer la nécessité de créer des mines « pour la transition » est en effet hypocrite : c’est l’ensemble des industries européennes qui a besoin de sécuriser ses approvisionnements en métaux. La récente loi européenne sur les métaux critiques répond aux besoins des grosses entreprises européennes, que ce soit pour l’#automobile, l’#aéronautique, l’#aérospatiale, les #drones, des #data_centers.

    L’argument d’une ruée minière pour produire des énergies renouvelables permet de verdir instantanément toute mine de cuivre, de cobalt, de lithium, de #nickel ou de terres rares. Il permet de justifier les #coûts_politiques de la #diplomatie des #matières_premières : c’est-à-dire les #conflits liés aux rivalités entre grandes puissances pour accéder aux #gisements. Mais par ailleurs, cette transition fondée sur la technologie et le maintien de la #croissance est bel et bien un gouffre pour la #production_minière.

    Ce discours de réenchantement et de relégitimation de la mine auprès des populations européennes vous semble-t-il efficace ?

    On est en train de créer un #régime_d’exception minier, avec un abaissement des garde-fous réglementaires et des formes d’extractivisme de plus en plus désinhibées, et en parallèle on culpabilise les gens. La #culpabilisation est un ressort psychologique très puissant, on l’a vu durant le Covid. On dit aux gens : « Si vous n’acceptez pas des mines sur notre territoire, alors on va les faire ailleurs, aux dépens d’autres populations, dans des conditions bien pires. » Or c’est faux. D’abord, la #mine_propre n’existe pas.

    Ensuite, la #loi européenne sur les #métaux_critiques elle prévoit qu’au mieux 10% de la production minière soit relocalisée en Europe. Aujourd’hui, on en est à 3%. Ce n’est rien du tout. On va de toute façon continuer à ouvrir des mines ailleurs, dans les pays pauvres, pour répondre aux besoins des industriels européens. Si l’on voulait vraiment relocaliser la production minière en Europe, il faudrait réduire drastiquement nos besoins et prioriser les usages les plus importants des métaux.

    Peut-on imaginer qu’un jour il existe une mine propre ?

    Si l’on considère la réalité des mines aujourd’hui, les procédés utilisés, leur gigantisme, leur pouvoir de destruction, on voit bien qu’une mine est intrinsèquement problématique, intrinsèquement prédatrice : ce n’est pas qu’une question de décisions politiques ou d’#investissements. L’idée de « #mine_responsable » n’est autre qu’une tentative de faire accepter l’industrie minière à des populations en prétendant que « tout a changé.

    Ce qui m’a frappé dans les enquêtes que j’ai menées, c’est que les industriels et parfois les dirigeants politiques ne cessent d’invoquer certains concepts, par exemple la #mine_décarbonée ou le réemploi des #déchets_miniers pour produire du #ciment, comme de choses qui existent et qui sont déjà mises en pratique. À chaque fois que j’ai regardé de plus près, le constat était le même : cela n’existe pas encore. Ce ne sont que des #promesses.

    Sur le site de la nouvelle mine d’#Atalaya à #Rio_Tinto en #Espagne, on voir des panneaux publicitaires alignant des #panneaux_photovoltaïques avec des slogans du type « Rio Tinto, la première mine d’autoconsommation solaire ». Cela donne à penser que la mine est autonome énergétiquement, mais pas du tout. Il y a seulement une centrale photovoltaïque qui alimentera une fraction de ses besoins. Tout est comme ça.

    Le constat n’est-il pas le même en ce qui concerne le recyclage des métaux ?

    Il y a un effet purement incantatoire, qui consiste à se rassurer en se disant qu’un jour tout ira bien parce que l’on pourra simplement recycler les métaux dont on aura besoin. Déjà, il n’en est rien parce que les quantités colossales de métaux dont l’utilisation est planifiée pour les années à venir, ne serait-ce que pour produire des #batteries pour #véhicules_électriques, n’ont même pas encore été extraites.

    On ne peut donc pas les recycler. Il faut d’abord les produire, avec pour conséquence la #destruction de #nouveaux_territoires un peu partout sur la planète. Ensuite, le recyclage des métaux n’est pas une opération du saint-Esprit ; il repose sur la #métallurgie, il implique des usines, des besoins en énergie, et des pollutions assez semblables à celles des mines elles-mêmes.

    L’accent mis sur le besoin de métaux pour la transition ne reflète-t-il pas le fait que les #multinationales ont réussi à s’approprier ce terme même de « transition », pour lui faire signifier en réalité la poursuite du modèle actuel ?

    Le concept de transition n’a rien de nouveau, il était déjà employé au XIXe siècle. À cette époque, la transition sert à freiner les ardeurs révolutionnaires : on accepte qu’il faut des changements, mais on ajoute qu’il ne faut pas aller trop vite. Il y a donc une dimension un peu réactionnaire dans l’idée même de transition.

    Dans son dernier livre, l’historien des sciences #Jean-Baptiste_Fressoz [Sans transition - Une nouvelle histoire de l’énergie, Seuil, 2024] montre que la #transition_énergétique tel qu’on l’entend aujourd’hui est une invention des #pro-nucléaires des États-Unis dans les années 1950 pour justifier des #investissements publics colossaux dans l’#atome. Ils ont tracé des belles courbes qui montraient qu’après l’épuisement des énergies fossiles, il y aurait besoin d’une #solution_énergétique comme le #nucléaire, et qu’il fallait donc investir maintenant pour rendre le passage des unes à l’autre moins brutal.

    La transition aujourd’hui, c’est avant tout du temps gagné pour le capital et pour les grandes entreprises. Les rendez-vous qu’ils nous promettent pour 2050 et leurs promesses de #zéro_carbone sont évidemment intenables. Les technologies et l’#approvisionnement nécessaire en métaux n’existent pas, et s’ils existaient, cela nous maintiendrait sur la même trajectoire de réchauffement climatique.

    Ces promesses ne tiennent pas debout, mais elles permettent de repousser à 2050 l’heure de rendre des comptes. Ce sont plusieurs décennies de gagnées. Par ailleurs, le terme de transition est de plus en plus utilisé comme étendard pour justifier une #croisade, une politique de plus en plus agressive pour avoir accès aux gisements. Les pays européens et nord-américains ont signé un partenariat en ce sens en 2022, en prétendant que certes ils veulent des métaux, mais pour des raisons louables. La transition sert de figure de proue à ces politiques impériales.

    Vous avez mentionné que l’une des industries les plus intéressées par la sécurisation de l’#accès aux métaux est celle de l’#armement. Vous semblez suggérer que c’est l’une des dimensions négligées de la guerre en Ukraine…

    Peu de gens savent qu’en 2021, la Commission européenne a signé avec l’#Ukraine un accord de partenariat visant à faire de ce pays une sorte de paradis minier pour l’Europe. L’Ukraine possède de fait énormément de ressources convoitées par les industriels, qu’ils soient russes, européens et américains. Cela a joué un rôle dans le déclenchement de la #guerre. On voit bien que pour, pour accéder aux gisements, on va engendrer des conflits, militariser encore plus les #relations_internationales, ce qui va nécessiter de produire des #armes de plus en plus sophistiquées, et donc d’extraire de plus en plus de métaux, et donc sécuriser l’accès aux gisements, et ainsi de suite.

    C’est un #cercle_vicieux que l’on peut résumer ainsi : la ruée sur les métaux militarise les rapports entre les nations, alimentant la ruée sur les métaux pour produire des armes afin de disposer des moyens de s’emparer des métaux. Il y a un risque d’escalade dans les années à venir. On évoque trop peu la dimension matérialiste des conflits armés souvent dissimulés derrière des enjeux « ethniques ».

    Faut-il sortir des métaux tout comme il faut sortir des énergies fossiles ?

    On a besoin de sortir de l’extractivisme au sens large. Extraire du pétrole, du charbon, du gaz ou des métaux, c’est le même modèle. D’ailleurs, d’un point de vue administratif, tout ceci correspond strictement à de l’activité minière, encadrée par des #permis_miniers. Il faut cesser de traiter le #sous-sol comme un magasin, de faire primer l’exploitation du sous-sol sur tout le reste, et en particulier sur les territoires et le vivant.

    Concrètement, qu’est ce qu’on peut faire ? Pour commencer, les deux tiers des mines sur la planète devraient fermer – les #mines_métalliques comme les #mines_de_charbon. Ça paraît utopique de dire cela, mais cela répond à un problème urgent et vital : deux tiers des mines sont situées dans des zones menacées de #sécheresse, et on n’aura pas assez d’#eau pour les faire fonctionner à moins d’assoiffer les populations. En plus de cela, elles émettent du #CO2, elles détruisent des territoires, elles déplacent des populations, elles nuisent à la #démocratie. Il faut donc faire avec une quantité de métaux restreinte, et recycler ce que l’on peut recycler.

    Vous soulignez pourtant que nous n’avons pas cessé, ces dernières années, d’ajouter de nouvelles technologies et de nouveaux objets dans notre quotidien, notamment du fait de l’envahissement du numérique. Réduire notre consommation de métaux implique-t-il de renoncer à ces équipements ?

    Oui, mais au préalable, quand on dit que « nous n’avons pas cessé d’ajouter des nouvelles technologies polluantes », il faut analyser un peu ce « nous ». « Nous » n’avons pas choisi de déployer des #caméras_de_vidéosurveillance et des #écrans_publicitaires partout. Nous n’avons pas choisi le déploiement de la #5G, qui a été au contraire contesté à cause de sa consommation d’énergie.

    La plupart d’entre nous subit plutôt qu’elle ne choisit la #numérisation des #services_publics, instrument privilégié de leur démantèlement et de leur privatisation : l’usage de #Pronote à l’école, #Doctissimo et la télémédecine dont la popularité est due à l’absence de médecins, etc. Dans le secteur automobile, la responsabilité des industriels est écrasante. Depuis des décennies, ils ne cessent de bourrer les véhicules d’électronique pour augmenter leur valeur ajoutée.

    Ces dernières années, ils ont massivement vendu d’énormes voitures électriques parce qu’ils savaient que le premier marché de la voiture électrique, c’était d’abord la bourgeoisie, et que les bourgeois achèteraient des #SUV et des grosses berlines. Donc quand je dis que nous devons réduire notre #consommation de métaux, j’entends surtout par-là dénoncer les industries qui inondent le marché de produits insoutenables sur le plan des métaux (entre autres).

    Mais il est vrai que nous – et là c’est un vrai « nous » - devons réfléchir ensemble aux moyens de sortir de l’#emprise_numérique. Du point de vue des métaux, le #smartphone n’est pas viable : sa sophistication et son caractère ultra-mondialisé en font un concentré d’#exploitation et d’#intoxication, des mines aux usines d’assemblage chinoises ou indiennes.

    Et bien sûr il a des impacts socialement désastreux, des addictions à la #surveillance, en passant par la « #surmarchandisation » du quotidien qu’il induit, à chaque instant de la vie. Là-dessus, il faut agir rapidement, collectivement, ne serait-ce que pour se protéger.

    https://basta.media/nous-assistons-a-une-escalade-de-la-predation-miniere
    #extractivisme #minières #électrification #acidification #contamination #hypocrisie #relocalisation #prédation #guerre_en_Ukraine #militarisation #déplacement_de_populations #dématérialisation #industrie_automobile

  • AI tools consume up to 4 times more water than estimated

    A new report shows that artificial intelligence tools, including ChatGPT, are using up to four times more water than previously believed. This discovery raises concerns about the sustainability of #data_centers as AI continues to expand.

    Researchers from the University of California, Riverside found that processing 10 to 50 queries on AI chatbots can consume up to 2 liters of water, far exceeding the earlier estimate of half a liter (https://www.thetimes.com/uk/technology-uk/article/thirsty-chatgpt-uses-four-times-more-water-than-previously-thought-bc0pqsw). The increase is attributed to the intense cooling needs of data centers, where the servers generate significant heat.

    According to Microsoft, the energy and water demands of AI models are much higher than anticipated. Between 2023 and 2024, Google, Microsoft, and Meta have reported water usage increases of 17%, 22.5%, and 17% respectively, further highlighting the growing environmental footprint of AI.

    This is not just a U.S. issue. In the U.K., planned data centers are expected to consume as much water as a city the size of Liverpool. Meanwhile, in Ireland, data centers now account for 21% of the country’s electricity consumption.

    OpenAI CEO Sam Altman recently presented a proposal to the White House to build at least five massive data centers, with plans for unprecedented energy expansions. However, critics argue that the energy production process for AI remains inefficient, with 60% of resources wasted.

    While tech companies pledge to offset their water usage by 2030, critics warn that these efforts may not sufficiently address water scarcity in regions where AI data centers are located.

    https://san.com/cc/ai-tools-consume-up-to-4-times-more-water-than-estimated
    #eau #chatgpt #IA #AI #intelligence_artificielle #centre_de_données

    • AI programs consume large volumes of scarce water

      Every time you run a ChatGPT artificial intelligence query, you use up a little bit of an increasingly scarce resource: fresh water. Run some 20 to 50 queries and roughly a half liter, around 17 ounces, of fresh water from our overtaxed reservoirs is lost in the form of steam emissions.

      Such are the findings of a University of California, Riverside, study that for the first time estimated the water footprint from running artificial intelligence, or AI, queries that rely on the cloud computations done in racks of servers in warehouse-sized data processing centers.

      Google’s data centers in the U.S. alone consumed an estimated 12.7 billion liters of fresh water in 2021 to keep their servers cool — at a time when droughts are exacerbating climate change — Bourns College of Engineering researchers reported in the study, published online by the journal arXiv as a preprint. It is awaiting its peer review.

      Shoalei Ren, an associate professor of electrical and computer engineering and the corresponding author of the study, explained that data processing centers consume great volumes of water in two ways.

      First, these centers draw electricity from power plants that use large cooling towers that convert water into steam emitted into the atmosphere.

      Second, the hundreds of thousands of servers at the data centers must be kept cool as electricity moving through semiconductors continuously generates heat. This requires cooling systems that, like power plants, are typically connected to cooling towers that consume water by converting it into steam.

      “The cooling tower is an open loop, and that’s where the water will evaporate and remove the heat from the data center to the environment,” Ren said.

      Ren said it is important to address the water use from AI because it is fast-growing segment of computer processing demands.

      For example, a roughly two-week training for the GPT-3 AI program in Microsoft’s state-of-the-art U.S. data centers consumed about 700,000 liters of freshwater, about the same amount of water used in the manufacture of about 370 BMW cars or 320 Tesla electric vehicles, the paper said. The water consumption would have been tripled if training were done in Microsoft’s data centers in Asia, which are less efficient. Car manufacturing requires a series washing processes to remove paint particle and residues, among several other water uses.

      Ren and his co-authors — UCR graduate students Pengfei Li and Jianyi Yang, and Mohammad A. Islam of the University of Texas, Arlington — argue big tech should take responsibility and lead by example to reduce its water use.

      Fortunately, AI training has scheduling flexibilities. Unlike web search or YouTube streaming that must be processed immediately, AI training can be done at almost any time of the day. To avoid wasteful water usage, a simple and effective solution is training AI models during cooler hours, when less water is lost to evaporation, Ren said.

      “AI training is like a big very lawn and needs lots of water for cooling,” Ren said. “We don’t want to water our lawns during the noon, so let’s not water our AI (at) noon either.”

      This may conflict with carbon-efficient scheduling that particularly likes to follow the sun for clean solar energy. “We can’t shift cooler weather to noon, but we can store solar energy, use it later, and still be `green’,” Ren said.

      “It is truly a critical time to uncover and address the AI model’s secret water footprint amid the increasingly severe freshwater scarcity crisis, worsened extended droughts, and quickly aging public water infrastructure,” reads the paper, which is titled “Making AI Less ‘Thirsty:’ Uncovering and Addressing the Secret Water Footprint of AI Models.”

      https://news.ucr.edu/articles/2023/04/28/ai-programs-consume-large-volumes-scarce-water

  • Les data centers menacés d’obsolescence à cause de l’essor de l’IA
    https://www.latribune.fr/technos-medias/informatique/les-data-centers-menaces-d-obsolescence-a-cause-de-l-essor-de-l-ia-1007271

    Jusqu’à 80% des data centers seraient inadaptables aux besoins délirants de l’intelligence artificielle, alertent des acteurs du secteur. Pour tenter de répondre à la consommation insatiable des grands modèles d’OpenAI et Meta, ces infrastructures deviennent de plus en plus gigantesques, créant des tensions inédites sur le foncier, notamment à Marseille.

    • https://www.npr.org/2024/09/20/nx-s1-5120581/three-mile-island-nuclear-power-plant-microsoft-ai

      Three Mile Island, the power plant near Middletown, Pa., that was the scene of the worst commercial nuclear accident in U.S. history, will reopen to power #Microsoft's #data_centers, which are responsible for powering the tech giant’s cloud computing and artificial intelligence programs.

      Constellation #Energy, which bills itself as America’s largest producer of “clean, #carbon-free energy,” announced Friday that it had signed its largest-ever power purchase agreement with Microsoft.

      “Powering industries critical to our nation’s global economic and technological competitiveness, including data centers, requires an abundance of energy that is carbon-free and reliable every hour of every day, and #nuclear_plants are the only energy sources that can consistently deliver on that promise,” said Joe Dominguez, Constellation Energy’s president and CEO.

      The deal will create approximately 3,400 jobs and bring in more than $3 billion in state and federal taxes, according to the company. It also said the agreement will add $16 billion to Pennsylvania’s GDP.

      The agreement will span 20 years, and the plant is expected to reopen in 2028. It will be renamed the Crane Clean Energy Center in honor of Chris Crane, who died in April and served as the CEO of Constellation’s former parent company.

      #Pennsylvania’s nuclear energy industry plays a critical role in providing safe, #reliable, #carbon_free #electricity that helps reduce emissions and grow Pennsylvania’s economy,” Gov. Josh Shapiro said.

      Unlike power plants using fossil fuels, like coal or natural gas, nuclear plants do not directly release carbon dioxide or other greenhouse gas emissions driving global warming.

      The partial nuclear reactor meltdown at Three Mile Island happened on March 28, 1979, when one of the plant’s two reactors’ cooling mechanisms malfunctioned. The #reactor that will be reopened to power Microsoft’s data centers was not involved in the accident.

      #AI #IA
      #Intelligence_artificielle #Consommation_énergétique

    • “Before it was prematurely shuttered due to poor economics, this plant was among the safest and most reliable nuclear plants on the grid, and we look forward to bringing it back with a new name and a renewed mission to serve as an economic engine for Pennsylvania," Dominguez said.

      Ben tiens. Il a juste une conception des générateurs de vapeur foireuse qui fait qu’en cas de brèche sur le circuit primaire ils se vident en quelques dizaines de secondes, privant le dit circuit d’une source d’évacuation de l’énergie. Précisément un des problèmes lors de l’accident.

  • Data centers : leur consommation d’eau va exploser
    https://reporterre.net/Data-centers-leur-consommation-d-eau-va-exploser

    L’équation est pourtant assez simple. Les data centers, toujours plus nombreux et plus grands, concentrent des machines qui produisent de la chaleur et qu’il faut refroidir. Différentes techniques existent et se font concurrence. La climatisation classique, mais aussi l’utilisation de circuits d’eau — ouverts, avec rejet d’eaux usées, ou fermés — pour refroidir l’air à l’intérieur des installations, ou bien des systèmes dits « adiabatiques » par pulvérisation d’eau.

    « Ce qui est assez paradoxal, c’est qu’au moment où l’on met en place des indicateurs pour mesurer l’efficacité énergétique des data centers, comme le PUE [Power Usage Effectivness, rapport entre l’énergie totale consommée par un centre de données et l’énergie consommée par ses seuls équipements informatiques] une solution pour avoir un bon PUE et se présenter comme plus “vert”, c’est d’utiliser plus d’eau et moins d’électricité », explique Clément Marquet, coordinateur du groupe de travail Politiques environnementales du numérique au Centre national de la recherche scientifique (CNRS).

    « On est conscients que la consommation d’eau est un sujet énorme, dit l’urbaniste Cécile Diguet, coautrice d’une étude sur le développement des data centers en Île-de-France et de l’ouvrage Sous le feu numérique (avec Fanny Lopez). On sait que les opérateurs de data centers font des forages dans les nappes, plus ou moins déclarés. On voit que, en Île-de-France, il y a des nappes de plus en plus fragilisées, notamment dans l’Essonne. Mais personne n’a encore creusé la question à ma connaissance. »

    Si cette problématique vient s’ajouter à celle de l’artificialisation des sols et de la consommation vertigineuse d’énergie des data centers, elle pourrait devenir une préoccupation majeure avec le déploiement de l’intelligence artificielle. « C’est le gros sujet derrière tout ça, affirme le sociologue Clément Marquet. Avec l’IA, on utilise des ordinateurs qui consomment 5 à 10 fois plus d’électricité et cette électricité est dissipée en chaleur par les ordinateurs. Pour l’heure, on ne connaît pas de solution aussi bon marché que l’eau. » Déjà aujourd’hui, les conflits d’usage autour des data centers se multiplient aux États-Unis, en Uruguay, aux Pays-Bas, en Irlande ou bien encore Espagne, avec le mouvement « Tu nube seca mi rio » (« Ton nuage assèche ma rivière »).

    Si les industriels s’en remettent à leur credo technosolutionniste, à savoir améliorer l’efficacité de leurs systèmes de refroidissement, le seul horizon soutenable reste celui de la frugalité, selon le chercheur en sciences de l’information Olivier Ertzscheid.

    Il établit un parallèle entre fermes de l’agriculture intensive et fermes de serveurs, deux modèles qui partagent selon lui un même ADN extractiviste : « L’affrontement central dans les conflits d’usage à venir [autour de l’accès à l’eau] se fera autour de deux lignes de front : d’un côté le lobby technologique, ses data centers et ses fermes de serveurs, et de l’autre le lobby de l’agriculture industrielle [...]. Le point de convergence des deux modèles est qu’ils concourent à un appauvrissement et à un épuisement des sols autant qu’au stress hydrique des populations avoisinantes. Et que, pour l’essentiel, ils s’en moquent. »

    #Data_centers #Ecologie #Numérique #Eau

  • Le diesel des data centers pourrait sauver la Suisse du black-out cet hiver RTS - Pascal Jeannerat

    La puissance de production cumulée des 90 data centers commerciaux de Suisse équivaut à celle d’un réacteur nucléaire. La branche est prête à engager ses génératrices de secours pour soutenir le réseau cet hiver et éviter les délestages.

    Entre 300 et 400 Mégawatts : telle est l’estimation que l’Association suisse des data centers a confiée à la RTS pour l’ensemble de ses génératrices installées. « C’est à peu près l’équivalent d’un réacteur comme Beznau », précise son président Sergio Milesi. Cette puissance s’explique par le fait que les data centers, gros consommateurs de courant, sont également équipés de doubles redondances y compris pour leur approvisionnement électrique de secours.

    Déjà opérationnels
    Certains centres de données comme celui de Green à Lupfig (AG) sont déjà reliés et synchronisés au réseau électrique et capables d’y injecter du courant. « C’est un service-système que nous fournissons à Swissgrid, le gestionnaire du réseau qui peut activer lui-même à distance les génératrices. Tout est automatisé », explique son directeur général Roger Süess à la RTS. Au total, sur l’ensemble de ses data centers en Suisse, l’entreprise dispose à elle seule d’un parc de génératrices allant de 2 à 3,5 MW pour un total de 35 MW.

    En Suisse, la plupart des grands data centers sont capables de synchroniser leurs machines sur la fréquence du réseau et d’y fournir leur production. « Certains autres nécessiteraient de s’équiper en conséquence, précise le président de l’Association suisse des data centers, mais c’est techniquement possible ». Sergio Milesi indique que la branche dans son ensemble est favorable à cette contribution, sous certaines conditions qui sont actuellement en discussion avec la Confédération.

    Levée de restrictions
    Selon les normes actuelles, l’utilisation des génératrices de secours est limitée à cinquante heures par an en raison de leurs nuisances sonores. Il faudrait relever ce seuil, argumente Roger Süess, qui en appelle aussi à une exemption de la taxe CO2 : « Si nous aidons comme cela à produire du courant en période de pénurie, il faudrait peut-être nous en dispenser », plaide-t-il, conscient que les émissions de CO2 des génératrices diesel représenteraient une lourde charge.

    Concernant le prix auquel la branche consentirait à vendre ses kilowattheures, la réponse est unanime : à prix coûtant. « L’objectif est simplement de pouvoir couvrir les coûts : carburant, garantie de livraison, frais supplémentaires d’exploitation, pas de faire des bénéfices ! », affirme Roger Süess. Pour lui, face à la pénurie, les data centers font partie de la solution, pas du problème : « C’est une opération gagnant-gagnant », résume Sergio Milesi, qui relève que les génératrices de secours représentent des millions de francs d’investissement qui dorment pratiquement toute l’année. Roger Süess abonde : « Le prix d’une génératrice, c’est un nombre à sept chiffres ! »

    Accord à bout touchant
    Cette réserve de secours intéresse la Confédération. « Leurs groupes de secours sont modernes et remplissent généralement les normes environnementales », répond l’Office fédéral de l’énergie, qui parle de discussions positives. « Nous avons identifié quelques défis à surmonter pour assurer l’exploitation des groupes de secours - à savoir, leur intégration dans le réseau électrique ainsi que leur approvisionnement en carburant ».

    La branche s’attend à voir les conditions de mise en œuvre réglées dans une ordonnance « d’ici deux à trois semaines » pour consultation. Cette capacité de production s’ajoute à la première réserve de secours déjà mise sur pied par la Confédération. C’est à quelques centaines de mètres du data center de Lupfig, à Birr (AG), que cette réserve vient d’être conclue jusqu’en 2026 avec l’entreprise américaine General Electric. Un contrat de location de huit turbines tricombustibles fonctionnant au diesel, au gaz ou à l’hydrogène pour une puissance totale de 250 MW a été signé. Objectif : pallier la potentielle pénurie de courant redoutée dès février 2023.

    Polluant mais transitoire
    Ce recours aux énergies fossiles pourrait être très utile cet hiver, mais il n’enchante pas pour autant le directeur général de Green. « Si on regarde ce que la Suisse innovante offre comme possibilités dans l’hydraulique, l’éolien, le solaire, ou avec les Ecoles polytechniques sur les nouvelles sources d’énergie, j’espère bien que c’est avec ça que nous trouverons les solutions d’avenir, sans devoir encore nous tourner vers ces génératrices », répond Roger Süess.

    Même credo au sein de l’association : « Nous regardons de près les nouvelles technologies concernant l’électricité, qui est un facteur très important pour notre branche. Et je pense que l’hydrogène va jouer un rôle central dans ce secteur, y compris pour le stockage de l’électricité », conclut Sergio Milesi. En attendant, si l’hiver est froid et sec, s’il ne voit pas le retour rapide de la puissance électrique nucléaire française, il risque bien de plomber le bilan CO2 de la Suisse.

    #data_centers #nuisances #bruit #pollution #co2 #pénuries #énergie #réseau_électrique #électricité #Suisse

  • Ce Vendredi : Grèves : le métro de Londres pratiquement à l’arrêt Figaro avec AFP

    La paralysie fait suite à une grève des cheminots, qui réclament une augmentation des salaires face une inflation record.

    Le métro de Londres était quasi paralysé vendredi et le reste du réseau de transports en commun fortement perturbé par une grève pour les salaires face à une inflation au plus haut au Royaume-Uni, au lendemain d’un débrayage massif de cheminots.

    « Il n’y a pratiquement aucun service » dans le métro de Londres, même si « deux lignes offrent une circulation réduite » avec un train toutes les 15 minutes environ, a indiqué à l’AFP une porte-parole de l’opérateur de transports publics TfL. Le trafic des bus, surchargés en raison du repli de nombreux Londoniens sur ce mode de transport, était aussi perturbé.


    Plus gros mouvement de grève depuis des décennies
    Devant la station Blackhorse Road (Nord-Est de Londres), des gens rassemblés attendent l’ouverture de l’Overground, réseau de trains de banlieue qui fonctionne vendredi en service réduit. « Overground seulement, pas de métro aujourd’hui », crie à la cantonade un salarié non-gréviste à l’attention des voyageurs dont un grand nombre n’est pas au courant de la grève. « Je vais être en retard au travail, je dois me rendre dans le centre de Londres », lance une jeune femme qui sort en courant de la station et se précipite vers les arrêts de bus attenants.

    Si de nombreux usagers des trains jeudi se montraient compréhensifs envers les grévistes du rail, certains Londoniens en retard se montraient moins cléments vendredi. « Je comprends le message (que les grévistes) veulent faire passer à leurs patrons, mais (...) Londres est une grande ville et de nombreuses personnes ont besoin de se rendre à leur travail », critique Catherine Ondo, une vendeuse âgée de 25 ans. « Je ne sais pas comment je vais me rendre au travail », se désole Greg Skalski, 43 ans, employé dans la construction. Il dénonce « les tarifs de TfL qui ont fortement augmenté » et estime que les salaires de l’opérateur public sont déjà au-dessus de la moyenne du pays.

    Le Royaume-Uni connaît ces jours-ci une nouvelle salve de débrayages massifs dans les transports, la poste, les ports, le plus gros mouvement de grève depuis des décennies face à l’inflation. Un nouveau jour de grève est notamment prévu dans les trains samedi. Les négociations avec la multitude d’opérateurs ferroviaires privés du secteur sont dans l’impasse, selon les syndicats. Ces derniers ont par ailleurs rejeté une offre de hausse salariale de 8% sur deux ans de Network Rail, entreprise publique de gestion des lignes ferroviaires, qu’ils accusent d’être conditionnée à des licenciements massifs.

    Le ministre des Transports Grant Shapps, accusé par les syndicats de bloquer la situation, reproche de son côté aux organisations syndicales de refuser des réformes pour moderniser le rail. Il pourrait passer en force, a-t-il assuré vendredi sur Sky News. « Si nous ne pouvons pas mettre en place ces modernisations, nous devrons (les) imposer », a-t-il dit. Liz Truss, la favorite dans la course à la succession de Boris Johnson à Downing Street, a aussi fait preuve de fermeté envers les syndicats sur Twitter. « En tant que Premier ministre, je ne laisserai pas notre pays être rançonné par des syndicalistes militants », a-t-elle écrit. Le maire travailliste de Londres, Sadiq Khan, qui a autorité sur les transports londoniens et qui est engagé depuis des mois dans un bras de fer sur leur financement avec l’exécutif, s’est dit de son côté « inquiet que le gouvernement ne pousse délibérément (les syndicats) à la grève à Londres », dans des déclarations à Sky News.

    #Londres #grèves #inflation #métro #transports #grève #travail #Salaires #Syndicats #néo_libéralisme

    • La consommation d’eau des data centers microsoft source d’inquiétudes  Elsa Bembaron - Le figaro
      https://www.lefigaro.fr/secteur/high-tech/la-consommation-d-eau-des-data-centers-source-d-inquietudes-20220819

      Alors que l’Europe est frappée par la sécheresse, un rapport paru aux Pays-Bas dénonce la hausse de la consommation d’eau de centres de données de Microsoft.

      Cela ne pouvait pas tomber plus mal. Alors que l’Europe est frappée par une des pires sécheresses de son histoire, la presse néerlandaise se fait l’écho d’un rapport accablant pour les centres de stockage de données. L’année dernière, un centre de stockage de données géant de Microsoft, situé dans le nord du pays, a avalé 84 millions de litres d’eau, soit 4 à 7 fois plus que ce qui avait été initialement annoncé par l’Américain. Révélé par un média local, Noordhollands Dagblad https://www.noordhollandsdagblad.nl/cnt/dmf20220810_68483787 , confirmé par le gouvernement des Pays-Bas, l’affaire suscite de nombreuses inquiétudes.

      La hausse de la consommation d’eau inquiète d’autant plus, qu’elle pourrait encore s’aggraver cette année. En effet, comme la plupart des centres de stockage de données de dernière génération, celui de Microsoft utilise l’air ambiant pour rafraîchir ses serveurs. Cette technique, dite du « air cooling », permet de réaliser de substantielle économie d’énergie, puisqu’elle limite le record à la climatisation. Mais pour fonctionner, il faut que la température extérieure soit inférieure à 25 degrés. Quand la chaleur monte, il faut continuer à rafraîchir les installations, très sensibles aux variations. Pour cela, Microsoft a recours à des systèmes de refroidissement à eau. Et plus il fait chaud, plus de data centers consomment de l’eau. L’année dernière, la température a excédé les 25 degrés dans la région concernée pendant six jours. Été 2022, ce seuil fatidique a déjà été franchi six fois au cours depuis début août selon les données disponibles sur le site weatheronline.

      De quoi continuer à alimenter le débat sur l’empreinte environnemental des data centers. Actuellement, ils consommeraient 4% de l’électricité produite dans le monde selon Wavestone... contribuant ainsi indirectement au réchauffement climatique ! Plus que jamais, la question de l’efficacité énergétique est brûlante. Mais d’autres questions se posent, notamment liées aux usages du numérique, aux habitudes de consommation de chacun.

      #Eau #gaspillage #microsoft #big_data #data_centers #chaleurs #électricité #réchauffement_climatique #Données

    • Troisième jour de grève dans les transports britanniques face à l’inflation Par AFP, édité par Victor de Thier
      https://www.rtbf.be/article/troisieme-jour-de-greve-dans-les-transports-britanniques-face-a-l-inflation-110

      Les transports au Royaume-Uni sont affectés samedi par une nouvelle journée de grève pour les salaires, après un premier débrayage de cheminots jeudi et une grève dans le métro de Londres vendredi, face à une forte inflation.

      En pleines vacances scolaires, environ un train sur cinq seulement a circulé samedi en raison de cette grève à l’appel des syndicats Rail, Maritime and Transport (RMT), Transport Salaried Staffs Association (TSSA) et Unite qui réclament une hausse de salaires adaptée à l’augmentation du coût de la vie.


      . . . . . . .
      La grève de samedi a perturbé notamment les déplacements des touristes, des fans de football se rendant aux matchs et des festivaliers. Elle devrait aussi affecter la circulation des trains dimanche matin.
      . . . . . .
      Dimanche, les dockers du port de Felixstowe (est de l’Angleterre) - le plus gros pour le fret dans le pays - démarrent une grève de huit jours, menaçant de mettre à l’arrêt une grande partie du trafic de marchandises du pays.

      Côté rail, Mick Lynch, secrétaire général du RMT, a déclaré que les grévistes avaient le soutien du public affirmant : ils sont « juste derrière nous ».

      « Je pense que le public britannique en a assez d’être arnaqué par ce gouvernement et par les entreprises britanniques, avec des entreprises comme BP et British Gas qui font des profits énormes alors que les gens ont du mal à gagner leur vie », a-t-il déclaré samedi sur la BBC.
      . . . . . . .

  • Quelles sont ces nouvelles technologies qui se cachent derrière la 5G ? (Et demain, la 6G) La Tribune, Serge Abiteboul et Gérard Berry
    https://www.latribune.fr/opinions/tribunes/quelles-sont-ces-nouvelles-technologies-qui-se-cachent-derriere-la-5g-8949

    La 5G est en cours de déploiement, revenons sur ce qui la différencie des générations de télécommunications précédentes.

    On peut transmettre des messages en utilisant des ondes électromagnétiques. Par exemple, un téléphone cellulaire échange des messages avec une station radio le plus souvent située en haut d’un pylône ou sur un toit. On utilise pour cela des ondes de différentes fréquences ; les plus basses se propagent plus loin, les plus hautes exigent de plus petites antennes ; les encore plus hautes sont très peu utilisées pour l’instant.

    Les premiers réseaux cellulaires étaient analogiques. Ils sont devenus numériques avec la 2G, qui a aussi introduit les SMS. Avec le nouveau millénaire, la 3G a fait entrer la téléphonie mobile dans le monde d’Internet. Avec des débits bien plus grands joints à l’explosion des smartphones, la 4G a apporté la vidéo en bonne définition.

    Tous les 10 ans environ, un nouveau standard et une nouvelle génération de téléphones cellulaires arrivent qui transforment les usages ; récemment, c’était la 5G.

    On assiste depuis l’arrivée de la 2G a une progression exponentielle des données transportées par le réseau, et une augmentation massive du nombre d’objets connectés (téléphone, télévision, télésurveillance, voitures connectées, etc). C’est permis par les avancées scientifiques et technologiques qui ont amélioré les « tuyaux » où circulent les données. De fait, les usages absorbent tout ce que la technologie propose. Il faut noter que la partie essentielle de cette connectivité vient de la fibre optique, dont nous ne parlerons pas.

    Les technologies de la téléphonie cellulaire ont apporté des solutions efficaces et abordables pour une couverture de service de communications globale, reliant des lieux éloignés, les zones rurales, les voies de transports routiers ou ferroviaires. En cela, elles participent à la réduction de la fracture numérique territoriale.

    La 5G amène une vraie disruption. On aimerait pointer une avancée scientifique à sa base, mais en fait elle repose sur toute une gamme d’innovations. Le monde du téléphone cellulaire est un monde de normes : il fonctionne parce que les opérateurs se mettent d’accord, dans un cadre qui s’appelle le 3GPP, sur des normes qui vont permettre, par exemple, à un paquet de bits de passer de votre téléphone au cœur de la Lozère, à l’ordinateur d’une amie dans son bureau à Rio. Ceci demande de regrouper tout un paquet d’avancées scientifiques et techniques avant de lancer une nouvelle norme. La 5G est donc plutôt comme un couteau multi-lames, où chaque lame est soit une techno venant de la 4G, mais améliorée, soit une nouvelle techno sortie des labos dans les dix dernières années.

    Les fonctionnalités de la 5G
    La 5G va permettre des améliorations techniques principalement dans quatre directions : le débit, la latence, la densité et la virtualisation.

    Un aspect très visible dans les communications cellulaires est la quantité d’information échangée dans une unité de temps : le débit. Si le débit est trop faible, je ne peux pas visionner un film, ou je ne le fais qu’avec une qualité très médiocre. Avec la 5G, on peut s’attendre à ce que « le débit de pic » soit jusqu’à 10 fois supérieur à celui de la 4G, quasiment celui d’une fibre optique ordinaire. En fait, les débits vont surtout augmenter grâce à de nouvelles fréquences que la téléphonie mobile va coloniser avec la 5G, qui sont des fréquences hautes entre 1GHz et 6 GHz et des fréquences encore plus hautes dites « millimétriques » au-dessus de 6 GHz.

    Mais ne rêvons pas : dans le cellulaire, on partage les fréquences entre les différents opérateurs, et pour chaque opérateur avec les gens autour de nous : le voisin qui regarde un match de rugby, la voisine qui passe sa soirée sur un jeu vidéo en réseau, etc. Donc que vont observer les utilisateurs que nous sommes ? Nous allons voir la situation s’améliorer dans les zones très denses où les réseaux cellulaires sont déjà saturés ou le seraient à court terme sans la 5G. Nous ne verrons pas vraiment de changement dans les zones peu denses déjà couvertes par la 4G, peut-être des téléchargements plus rapides de vidéos. Et si nous voyons une belle amélioration dans une zone blanche où il n’y avait quasiment rien, ce sera plus sûrement du fait de l’arrivée de réseaux 4G.

    La deuxième direction d’amélioration est la latence, c’est-à-dire le temps pour un aller-retour entre le téléphone et le serveur d’applications, qui se compte aujourd’hui en dizaines de millisecondes. Avec la 5G, on va mesurer la latence en millisecondes. Pour visionner un film, peu importe. Mais pour un jeu vidéo, pour de la réalité augmentée, pour réaliser à distance une opération chirurgicale, ça peut faire la différence entre possible ou impossible. Le but est que l’ensemble du système offre une réactivité beaucoup plus importante jointe à une garantie forte de transmission du message.

    La troisième dimension est la densité. On parle de communications de machines à machines et de services nécessitant un nombre massif d’objets à faible consommation énergétique et faibles débits (l’Internet des objets). Un des objectifs est de pouvoir gérer un million d’objets au kilomètre carré. Dans cette dimension, la 5G est en compétition avec des techniques dites 0G comme Sigfox et Lora. Traditionnellement, pour la communication des objets, on distinguait des objets bon marché, bas de gamme, qui utilisaient le 0G, et des objets plus exigeants en 4G. La 5G a la prétention de pouvoir couvrir toute la gamme avec un même standard.

    Attention, tout cela ne se fera pas en un jour. La 5G arrive par étapes, parce qu’il faut installer partout de nouveaux composants radio, mais aussi parce que, pour qu’elle fonctionne au mieux, il va falloir transformer les logiciels des "cœurs de réseaux".

    L’efficacité énergétique a été prise comme objectif depuis les débuts de la conception de la 5G. Une rupture avec les générations précédentes est annoncée. On vise une division par au moins dix du coût énergétique du gigaoctet transporté. Comme nous le verrons, cela n’empêche pas d’avoir des craintes légitimes sur l’effet de cette technologie sur l’environnement.

    Pour la sécurité informatique, le sujet est contrasté : elle est plus prise en compte que pour la 4G ce qui améliore les choses. Par contre, la surface des attaques possibles explose comme nous le verrons, en particulier à cause de l’extension des aspects logiciels des réseaux, ouvrant la porte à d’autres possibilités d’attaque. De fait, le contrôle de la sécurité se déplace du matériel au logiciel. De plus, cela conduit à réaliser une surveillance en temps réel pour détecter les attaques et être prêt à y remédier. L’utilisation de plus en plus massive de l’intelligence artificielle complique la tâche : d’une part, parce que les logiciels des réseaux s’appuyant sur cette technologie auront des comportements plus difficiles à prévoir, et d’autre part, parce que les attaquants eux-mêmes pourront s’appuyer sur l’IA. A contrario, les systèmes de détection d’attaque pourront eux aussi inclure de l’IA.

    Pour ce qui est des innovations scientifiques et techniques sur lesquelles se fonde la 5G, elles peuvent se regrouper en deux classes : radios et logicielles.

    Les innovations techniques logicielles
    La virtualisation
    Traditionnellement, les réseaux des télécoms s’appuient sur des machines dédiées : différents niveaux de routeurs, firewalls, etc. L’idée est de transporter cela sur des architectures logicielles comme celles des plates-formes du web. On parle donc de convergence entre systèmes informatiques et systèmes de communication. Mis à part les éléments purement électroniques de radio, dès qu’on passe en numérique, on se place sur un réseau de machines génériques (de calcul, de stockage, de connexion) capables de réaliser toutes les différentes fonctions de façon logicielle. Par exemple, plutôt que d’installer un routeur physique qui gère l’acheminement des messages pour un réseau virtuel, on déploiera un routeur virtuel sur un ordinateur générique du réseau, que l’on pourra configurer suivant les besoins. Pour ce qui est de la virtualisation des fonctionnalités véritablement radio, cette convergence est à relativiser, car, pour des questions de performances, on doit souvent utiliser des accélérations matérielles.

    Edge Computing
    Les services sont implantés aujourd’hui dans des data centers parfois très loin de leurs utilisateurs. Ce cloud computing induit des coûts de transport pour les messages et introduit une latence incompressible même si les communications sont hyper-rapides. L’idée est d’installer de petits data centers dans le réseau plus près des utilisations. Pour des applications, par exemple, de contrôle de machines ou de réalité augmentée, cela permet de gagner un temps précieux pour la détection d’événement et le contrôle.

    Network slicing
    Une limite actuelle de la technologie cellulaire est l’impossibilité de garantir la qualité du service. Le network slicing permet de réserver virtuellement une tranche de fréquences pour un service particulier, ou plus précisément d’offrir une certaine garantie de service. Dans certaines configurations ou pour certains usages ayant des exigences spécifiques, le service est en position de monopole et n’a donc pas à partager avec d’autres services. Quand on contrôle à distance une machine-outil de précision, on veut, par exemple, garantir un délai maximum de quelques millisecondes entre la commande exercée par le pilote et sa réception par la machine. Pour ce faire, on ne peut pas être en compétition avec d’autres services. En ondes millimétriques, le réseau concerné peut être de faible surface, par exemple, limité à un site industriel.

    Les innovations techniques radios
    Avec le « massive MIMO » (multiple input, multiple output), chaque antenne consiste en un grand nombre de petites antennes. Chaque petite antenne de la station focalise les ondes vers un utilisateur qu’elle suit. Plus précisément, des ondes émises par différents éléments de l’antenne se combinent intelligemment pour réaliser le rayon qui cible un utilisateur particulier. Cela évite l’arrosage très large de l’environnement que font les antennes classiques. C’est une techno plus complexe, mais qui permettra des économies d’énergie une fois bien maitrisée. Et on peut utiliser plusieurs antennes distantes pour une même communication, améliorant encore la focalisation.

    L’utilisation de fréquences plus élevées, les bandes millimétriques comme la 26 GHz envisagée en France. Cela permet d’augmenter les fréquences utilisables pour les communications et surtout d’arriver dans des bandes où les disponibilités de fréquences sont importantes. L’utilisation simultanée de différentes technologies et fréquences. Vous pouvez par exemple déjà téléphoner depuis chez vous en cellulaire ou en wifi (voix sur wifi). Votre téléphone doit choisir et le passage de l’un à l’autre est compliqué, et de nos jours très lent. Les futures générations de téléphones faciliteront de telles utilisations simultanées de plusieurs technos et fréquences afin d’améliorer les services, par exemple en évitant de tomber dans un "trou" lors du passage de l’une à l’autre.

    Le mode TDD (Time Division Duplexing)
    On partage de mêmes fréquences avec une répartition dans le temps des phases montantes (du téléphone vers la station) et descendantes (de la station au téléphone). Cela permet de ne pas choisir a priori un partage des fréquences entre le trafic montant et descendant. La meilleure utilisation des fréquences est un élément clé de l’utilisation des réseaux cellulaires, car c’est une ressource rare à partager entre tous les utilisateurs.

    Les « petites cellules » (small cells)
    La techno permet d’utiliser les bandes très hautes (par exemple, 26 GHz) qui sont disponibles en très grandes quantités. Mais les messages s’y propagent beaucoup moins loin, quelques centaines de mètres au plus. On va donc utiliser de toutes petites antennes (les cellules) sur des lampadaires, des abribus, etc. C’est une technologie pour centre-ville et lieux très fréquentés comme des stades ou des festivals.

    Les communications de terminal à terminal
    Cela permet à des terminaux de communiquer directement entre eux sans passer par le système de l’opérateur. On peut continuer à communiquer même quand le réseau est saturé ou quand il dysfonctionne, par exemple en cas de catastrophe naturelle ou d’attaque informatique.

    La radio cognitive
    L’idée est de pouvoir mieux utiliser les fréquences, en se glissant temporairement quand c’est possible dans des fréquences non-utilisées.
    Pour ce qui est de la radio cognitive et des communications de terminal à terminal, si ces deux aspects participent bien de la vision de la 5G, ils ne semblent pas encore vraiment mures à ce stade.

    Et demain, la 6G
    S’il n’est déjà pas simple de dire ce que sera la 5G en cours de déploiement, il devient carrément surréaliste de décrire une technologie encore dans les laboratoires de recherche, la 6G : nous ne sommes pas futurologues ! Nous nous contenterons donc d’en présenter les grands traits. Techniquement, tout en visant encore plus de débit, la 6G vise le "plus fin" : de plus petites antennes (small cells), et de plus petits data centers (edge). Nous serons en permanence connectés au réseau cellulaire et dans de mêmes standards, même quand ce sera par satellite. Le réseau doit se mettre à notre service, nous "humains", probablement de plus en plus immergés dans un monde de robots (ce qu’individuellement nous ne souhaitons pas forcément, mais c’est un autre sujet) ; on parle de réalité virtuelle et augmentée (qui démarrent), d’holographie pour des réunions à distance. Et la 6G doit permettre aussi de bien suivre les objets se déplaçant à haute vitesse ou en environnement compliqué.

    En fait, la 6G permettra l’aboutissement des promesses de la 5G en rendant possible les communications entre un nombre massif de machines de tout genre peut-être des millions au km2). Si la 5G a déjà été conçue avec la sobriété énergétique comme objectif, la 6G ira encore plus loin dans cette direction.

    Bien sûr, l’intelligence artificielle sera hyperprésente, ce serait-ce que parce que les systèmes de communication et leur sécurité seront devenus trop complexes pour les simples humains que nous sommes.

    La 6G règlera tous les problèmes des réseaux cellulaires, elle sera capable de tout, pourquoi pas de faire le café... Vous ne voyez pas bien où ça nous mène. Eh bien, nous non plus. C’est bien pour cela qu’il est indispensable de suivre tout cela de près, parce que nous aurons des choix sociétaux peut-être essentiels à faire sur des sujets comme le niveau de robotisation de nos vies, la sécurité ou l’environnement.

    Par Serge Abiteboul https://theconversation.com/profiles/serge-abiteboul-212213 , Directeur de recherche à Inria, membre de l’Académie des Sciences, Inria et Gérard Berry https://theconversation.com/profiles/gerard-berry-1281347 , Professeur émérite en informatique, Collège de France

    Pour aller plus loin : « La 5G et les réseaux de communications mobiles » https://www.academie-sciences.fr/fr/Rapports-ouvrages-avis-et-recommandations-de-l-Academie/5g-reseaux-communications-mobiles.html , rapport du groupe de travail de l’Académie des sciences sur les réseaux du futur, 12 juillet 2021

    #5g #technologisme #internet_des_objets #objets_connectés #domotique #écologie #santé #surveillance #technologie #smartphone #domination #critique_techno #algorithme #nécrotechnologies #données #sciences #actualités_scientifiques

  • Les employés de Facebook ne peuvent pas entrer dans les bureaux – les badges ne fonctionnent pas non plus Sénégal direct - Moussa Gaye
    https://senegaldirect.com/les-employes-de-facebook-ne-peuvent-pas-entrer-dans-les-bureaux-les-b

    Certains des employés qui se sont précipités dans les bureaux pour évaluer personnellement l’étendue des dégâts n’ont pas pu accéder aux bâtiments car leurs badges numériques ont cessé de fonctionner, ce qui les a empêchés d’accéder aux zones de serveurs et d’agir personnellement sur les machines des bâtiments.


    Il n’y a pas que les réseaux sociaux qui ne fonctionnent pas : toute l’entreprise de Mark Zuckerberg est hors ligne. Le pépin qui empêche des millions d’utilisateurs dans le monde d’accéder à Facebook, Instagram et WhatsApp empêche également les travailleurs du géant de Menlo Park de résoudre la situation et même d’entrer dans leurs bureaux. Le New York Times rapporte cela, citant des sources internes de Facebook selon lesquelles l’ampleur de l’accroc technique serait si grande qu’elle impliquait également des systèmes internes. Y compris les lecteurs de badges qui, ne reconnaissant pas les employés, n’ouvrent pas les portes. Ainsi, les premiers ingénieurs qui se sont précipités sur le site n’ont pas pu entrer car les systèmes physiques ne fonctionnaient pas.

    La plupart des systèmes internes ont cessé de fonctionner, y compris les services de messagerie et de partage d’informations. Les calendriers, les outils de liste de tâches et d’autres services utilisés par les employés ont cessé de répondre, tout comme certains appareils liés aux systèmes informatiques de l’entreprise, notamment les lecteurs de badges. Les travailleurs ont expliqué qu’ils avaient des difficultés à passer des appels depuis les téléphones de l’entreprise et à recevoir des courriels de personnes extérieures à l’entreprise. La plateforme de collaboration interne, Workplace, a également cessé de fonctionner. Beaucoup se sont donc tournés vers la concurrence, utilisant LinkedIn, Zoom et Discord pour continuer à travailler.

    Certains des employés qui se sont précipités dans les bureaux pour évaluer personnellement l’étendue des dégâts n’ont pas pu accéder aux bâtiments car leurs badges numériques ont cessé de fonctionner, ce qui les a empêchés d’accéder aux zones de serveurs et d’agir personnellement sur les machines des bâtiments. Selon le responsable des opérations de sécurité de Facebook, le problème actuel est un risque élevé pour les personnes, un risque modéré pour les actifs de l’entreprise et un risque élevé pour la réputation de Facebook. Une petite équipe d’employés a été envoyée au centre de données de Santa Clara pour réinitialiser manuellement les serveurs de l’entreprise.

     #facebook #Messenger #Instagram #WhatsApp #data_centers #algorithme #surveillance #bigdata #publicité #données #instagram #marketing #gafam #sécurité #serveurs

    • Vidéo : voici ce qui a provoqué la panne de Facebook (et Instagram, et WhatsApp) zdnet.fr
      https://www.zdnet.fr/actualites/voici-ce-qui-a-provoque-la-panne-de-facebook-et-instagram-et-whatsapp-39930251

      Technologie : Ne vous attendez pas à une solution immédiatement, ça risque de durer un bon moment. On vous explique, tout ceci est lié à un mystérieux protocole nommé BGP.

      Maj 05/10/2021 à 06h38  : Les différents services de Facebook touché par la panne sont désormais rétablis, la panne aura duré 6 heures. L’entreprise a commencé à communiquer sur la panne. Il s’agit d’un changement de configuration des routeurs principaux" qui a provoqué un effet en cascade de paralysie des datacenters de l’entreprise.

      Le vieux dicton du dépannage de réseau dit que si quelque chose ne va pas, "c’est le DNS". Et bien cette fois, le serveur de noms de domaine (DNS) semble être un simple symptôme de la cause fondamentale de la panne globale de Facebook. La véritable cause est qu’il n’y a pas de routes Border Gateway Protocol (BGP) fonctionnelles vers les sites de Facebook.
      https://www.youtube.com/watch?v=rnlGuMtGEtQ


      BGP est le protocole de passerelle extérieure standardisé utilisé pour échanger des informations de routage et d’accessibilité entre les systèmes autonomes (SA) de premier niveau d’Internet. La plupart des gens, et même la plupart des administrateurs réseau, n’ont jamais besoin d’utiliser BGP.

      Beaucoup de gens ont remarqué que Facebook n’était plus répertorié dans le DNS. En effet, il y a même eu des messages humoristiques proposant de vous vendre le domaine Facebook.com.

      Le vice-président de Cloudflare, Dane Knecht, a été le premier à signaler le problème BGP qui est sous-jacent à cette panne géante. Cela signifie, comme l’a tweeté Kevin Beaumont, responsable du centre des opérations de sécurité de Microsoft, qu’en l’absence d’annonces BGP pour vos serveurs de noms DNS, le DNS s’effondre. Et donc personne ne peut vous trouver sur Internet. Même chose pour WhatsApp. Facebook s’est en quelque sorte déplateformisé de sa propre plateforme."

      Oups.

      Aussi ennuyeux que cela puisse l’être pour vous, cela peut être encore plus ennuyeux pour les employés de Facebook. Selon certaines informations, les employés de Facebook ne peuvent pas entrer dans leurs bâtiments parce que leurs badges et portes "intelligentes" ( ahah, peut-être est il temps de remplacer enfin intelligent par connecté ) ont également été désactivés par cette panne de réseau. Si cela est vrai, les employés de Facebook ne peuvent littéralement pas entrer dans le bâtiment pour tenter de réparer la ou les pannes.

      Facebook a depuis précisé que ces difficultés techniques ont également affecté ses outils internes, rendant d’autant plus difficile son travail pour résoudre la situation.

      Plus tard dans la nuit, Facebook a communiqué sur les origines de panne. “Nos équipes d’ingénierie ont appris qu’un changement de configuration des routeurs principaux qui coordonnent le trafic entre nos centres de données a entraîné des difficultés techniques aboutissant à l’arrêt de toute communication. Cette interruption des échanges du réseau a eu des effets en cascade sur la façon dont nos centres de données communiquent, provoquant la panne de nos services” expliquait l’entreprise.

      Quelques heures avant, l’utilisateur de Reddit u/ramenporn, qui prétendait être un employé de Facebook travaillant à ramener le réseau social d’entre les morts, avait signalé, avant de supprimer son compte et ses messages, que "le DNS pour les services de FB a été affecté et c’est probablement un symptôme du problème réel, à savoir que l’échange de trafic BGP avec les #routeurs d’échange de trafic de Facebook a été interrompu, très probablement en raison d’un changement de #configuration entré en vigueur peu de temps avant que les pannes ne surviennent)". 


      Un changement de configuration erroné effectué via une interface web
      Il poursuit : "Des personnes essaient maintenant d’accéder aux routeurs d’échange de trafic pour mettre en œuvre des correctifs, mais les personnes ayant un accès physique sont distinctes de celles qui savent comment s’authentifier auprès des systèmes et de celles qui savent ce qu’il faut faire, de sorte qu’il y a maintenant un défi logistique pour unifier toutes ces connaissances. Une partie de cette situation est également due à la diminution des effectifs dans les centres de données en raison des mesures de lutte contre la pandémie."

      Ramenporn a également déclaré qu’il ne s’agissait pas d’une attaque, mais d’un changement de configuration erroné effectué via une interface web. Ce qui est vraiment dégoûtant — et pourquoi Facebook est toujours hors service quelques heures plus tard — c’est que, puisque BGP et DNS sont hors service, "la connexion au monde extérieur est hors service, l’accès à distance à ces outils n’existe plus, donc la procédure d’urgence est d’obtenir un accès physique aux routeurs d’échange de trafic et de faire toute la configuration localement". Bien sûr, les techniciens sur place ne savent pas comment faire et les administrateurs réseau principaux ne sont pas sur place. En bref, c’est un grand gâchis.

      Conséquence de cette panne, le cours de Facebook a perdu plus de 6 % à la bourse de New York. Selon l’entreprise, il n’y a aucun signe montrant que les données des utilisateurs aient pu être compromises.
      Pour rappel, le réseau social le plus populaire du monde s’est effondré lundi 4 octobre 2021 vers 8h45, heure californienne (soit 17h45, heure française). Mais il n’y a pas que Facebook : Instagram, WhatsApp et Facebook Messenger ont également été touchés par la panne.

      Les services de statut de sites web comme DownForEveryoneOrJustMe et DownDetector signalaient alors que Facebook était hors service. Le problème touchait l’intégralité des services de l’entreprise dans le monde entier. En France également, les différents sites avaient cessé de fonctionner, tout comme les applications du groupe.

      #BGP #DNS

  • Black Friday" : le numérique, un colossal gouffre énergétique Nina SCHRETR -23 Novembre 2018 - Sciences et Avenir
    https://www.sciencesetavenir.fr/high-tech/reseaux-et-telecoms/black-friday-le-numerique-un-gouffre-energetique_129653

    Le numérique compte désormais pour 3,5 % des émissions de gaz à effet de serre (contre 2,5 % en 2013), alerte l’association française The Shift Project. Dans un nouveau rapport, ce think tank de la transition carbone estime que l’inflation énergétique s’élève de 9 % chaque année. Si rien ne change, la consommation en énergie doublera d’ici à 2025. Les responsables ? Les pays développés, qui multiplient les appareils numériques et recourent massivement à la vidéo, qui compte pour 81 % des données échangées en 2017. Ainsi un Américain possède-t-il en moyenne 10 périphériques connectés (téléphone, tablette, montres…), contre un seul pour un Indien. La production d’ordinateurs, l’utilisation des data centers et celle des terminaux informatiques représentent plus de la moitié de la facture énergétique du numérique.


    © Bruno Bourgeois pour Sciences et Avenir

    Par ailleurs, des scientifiques de l’université d’Hawaii (États-Unis) ont établi que si le bitcoin, cette monnaie virtuelle, venait à être aussi vite adopté que d’autres innovations telles que les ordinateurs ou les cartes de crédit, il engendrerait à lui seul une hausse de 2 °C de la température du globe en seulement vingt ans.

    #énergie #climat #électricité #environnement #changement_climatique #économie #black_friday #bitcoin #data_centers #numérique

  • Microsoft Plumbs Ocean’s Depths to Test Underwater Data Center
    http://www.nytimes.com/2016/02/01/technology/microsoft-plumbs-oceans-depths-to-test-underwater-data-center.html


    Putting the gear under cold ocean water could fix the [heat] problem. It may also answer the exponentially growing energy demands of the computing world because #Microsoft is considering pairing the system either with a turbine or a tidal energy system to generate electricity.

    The effort, code-named Project #Natick, might lead to strands of giant steel tubes linked by fiber optic cables placed on the seafloor. Another possibility would suspend containers shaped like jelly beans beneath the surface to capture the ocean current with turbines that generate electricity.

    [...]

    The underwater server containers could also help make web services work faster. Much of the world’s population now lives in urban centers close to oceans but far away from #data_centers usually built in out-of-the-way places with lots of room. The ability to place computing power near users lowers the delay, or latency, people experience, which is a big issue for web users.

    [...]

    The research group has started designing an underwater system that will be three times as large [as the first trial]. It will be built in collaboration with a yet-to-be-chosen developer of an ocean-based alternative-energy system. The Microsoft engineers said they expected a new trial to begin next year, possibly near Florida or in Northern Europe, where there are extensive ocean energy projects underway.

  • En Californie, la « soif » inextinguible des « data centers » - Hebdo - RFI
    http://www.rfi.fr/hebdo/20150814-californie-data-centers-secheresse-climatisation-eau-silicon-valley-ser

    En un an, les 800 et quelques #data_centers de #Californie « boivent » l’équivalent de 158 000 piscines olympiques pour se « rafraîchir ». Pour maintenir les machines qui stockent les informations numériques à une température inférieure à 40°C, les climatisations consomment des centaines de milliards de litres d’#eau par an. Si leur « soif » commence à poser problème, c’est que, dans le berceau de la Silicon Valley, sévit depuis quatre ans une #sécheresse endémique.

  • A Peephole for the N.S.A - NYT 26/11/13
    By NICOLE PERLROTH and JOHN MARKOFF
    http://www.nytimes.com/2013/11/26/technology/a-peephole-for-the-nsa.html?pagewanted=all

    People knowledgeable about Google and Yahoo’s #infrastructure say they believe that government spies bypassed the big Internet companies and hit them at a weak spot — the fiber-optic cables that connect data centers around the world that are owned by companies like #Verizon Communications, the BT Group, the Vodafone Group and #Level_3 Communications. In particular, fingers have been pointed at Level 3, the world’s largest so-called Internet backbone provider, whose cables are used by #Google and #Yahoo. [cf. http://seenthis.net/sites/342088]

    The Internet companies’ #data_centers are locked down with full-time security and state-of-the-art surveillance, including heat sensors and iris scanners. But between the data centers — on Level 3’s fiber-optic cables that connected those massive computer farms — information was unencrypted and an easier target for government intercept efforts, according to three people with knowledge of Google’s and Yahoo’s systems who spoke on the condition of anonymity.

    #surveillance #câbles

  • #NSA Report Outlined Goals for More Power - NYTimes.com
    By JAMES RISEN and LAURA POITRAS, November 22, 2013
    http://www.nytimes.com/2013/11/23/us/politics/nsa-report-outlined-goals-for-more-power.html?pagewanted=all

    (U) SIGINT Strategy 2012-2016 (23 février 2012)
    http://www.nytimes.com/interactive/2013/11/23/us/politics/23nsa-sigint-strategy-document.html

    In response to the controversy about its activities after Mr. #Snowden’s disclosures, agency officials claimed that the N.S.A.’s sweeping domestic surveillance programs had helped in 54 “terrorist-related activities.” But under growing scrutiny, congressional staff members and other critics say that the use of such figures by defenders of the agency has drastically overstated the value of the domestic surveillance programs in counterterrorism.

    #terrorisme

    Relying on Internet routing data, commercial and Sigint information, Treasure Map (...) collects Wi-Fi network and geolocation data, and between 30 million and 50 million unique Internet provider addresses (...) It boasts that the program can map “any device, anywhere, all the time.”

    (...) The program is not used for surveillance, they said, but to understand computer networks.

    The program takes advantage of the capabilities of other secret N.S.A. programs. To support Treasure Map, for example, the document states that another program, called Packaged Goods, tracks the “traceroutes” through which data flows around the Internet. Through Packaged Goods, the N.S.A. has gained access to “13 covered servers in unwitting data centers around the globe,” according to the PowerPoint. The document identifies a list of countries where the data centers are located, including Germany, Poland, Denmark, South Africa and Taiwan as well as Russia, China and Singapore.

    Despite the document’s reference to “unwitting #data_centers,” government officials said that the agency does not hack into those centers. Instead, the officials said, the intelligence community secretly uses front companies to lease space on the servers.

    #infrastructure

    Au passage je découvre la page SIGINT sur Wikipedia, où il est question d’interception sur #câbles_sous-marins :
    https://fr.wikipedia.org/wiki/Renseignement_d'origine_%C3%A9lectromagn%C3%A9tique#Interception_des_c

  • Power, Pollution and the Internet - NYTimes.com
    http://www.nytimes.com/2012/09/23/technology/data-centers-waste-vast-amounts-of-energy-belying-industry-image.html?pagew

    Enquête très complète

    To guard against a power failure, they further rely on banks of generators that emit diesel exhaust. The pollution from #data centers has increasingly been cited by the authorities for violating clean air regulations, documents show. In Silicon Valley, many #data_centers appear on the state government’s Toxic Air Contaminant Inventory, a roster of the area’s top stationary diesel polluters. Worldwide, the digital warehouses use about 30 billion watts of electricity, roughly equivalent to the output of 30 nuclear power plants, according to estimates industry experts compiled for The Times. Data centers in the United States account for one-quarter to one-third of that load, the estimates show.

    #pollution #énergie #internet #data #data-centers

    Un petit aperçu des serveurs de #stockage du #cloud d’#Amazon évoqué ici http://seenthis.net/messages/87879

    In Manassas, Va., the retailing colossus Amazon runs servers for its cloud amid a truck depot, a defunct grain elevator, a lumberyard and junk-strewn lots where machines compress loads of trash for recycling.

    The servers are contained in two Amazon data centers run out of three buildings shaped like bulky warehouses with green, corrugated sides. Air ducts big enough to accommodate industrial cooling systems sprout along the rooftops; huge diesel generators sit in rows around the outside.

  • Can #Facebook Show How to Reduce the Growing Energy Use of the Internet? | Scientific American
    http://www.scientificamerican.com/article.cfm?id=facebook-leadership-reduces-internet-growing-phys

    There are now more than 500,000 #data_centers worldwide, hosting the bulk of the more than 32 million individual servers. Server farms, according to data center expert Jonathan Koomey of Stanford University, now account for roughly 1.5 percent of global electricity use, or about 300 billion kilowatt-hours of electricity per year. #Google's data centers, for example, dwarf Facebook’s, using two billion kilowatt-hours per year as the world searches for the latest article on server energy use.

    That makes the #Internet a larger emitter of greenhouse gases—230 million metric tons—than all the countries of Scandinavia put together.

    (...) small server rooms, or even closets, employed by smaller companies the world over, typically do not have computers with the most efficient cooling and use up to twice as much electricity per computation as the more effective computers

    #environnement #électricité

  • #Google : 900.000 serveurs, 0,01% de l’électricité mondiale
    http://www.clubic.com/internet/google/actualite-438498-google-900-000-serveurs-01-electricite-mondiale.html

    Jonathan Koomey, un professeur de l’université de Stanford, s’est penché sur l’électricité utilisée par les #data_centers à travers le monde. Son étude, résumée par un article du New York Times, souligne que les serveurs des grandes entreprises sont moins gourmands que prévu, notamment en raison d’efforts réalisés pour économiser de l’#énergie.

    Jonathan Koomey explique ainsi que « l’électricité utilisée par l’ensemble des data centers en 2010 se situe entre 1,1 et 1 ,5% de la consommation globale d’électricité ». Pour les USA uniquement, le pourcentage se situe entre 1,7 et 2,2%, une fourchette bien plus basse que les estimations réalisées en 2007 par l’Environmental Protection Agency qui considérait que, l’évolution du parc informatique aidant, la consommation aurait dû doubler entre 2005 et 2010. Or, au final, elle n’a augmenté « que » de 56% au niveau mondial, et « que » de 36% aux Etats-Unis.