• Kiro, #amazon-Backed AI-Powered #IDE, Enters Public Preview
    https://www.omgubuntu.co.uk/2025/07/kiro-ai-ide-public-preview-linux

    Kiro, a new AI-powered IDE for Linux, macOS, and Windows, is now in public preview. Learn about its “spec-driven” workflow and VS Code compatibility. You’re reading Kiro, Amazon-Backed AI-Powered IDE, Enters Public Preview, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without permission.

    #News #AI/ML #Text_Editor

  • #Reportage fascinant qui montre (entre autre) que les #peuples premiers amazoniens :

    – Pourraient venir de la polynésie, de l’antartique voir de l’Afrique ;
    – réalisaient une sorte d’#agroforesterie complexe à grande échelle dans l’#Amazonie (loin de l’image de sauvages qu’ont véhiculé les colons) ;
    – et on laissé quantité d’#arts #rupestres.

    L’#archéologie de ces peuples aurait été jusque là négligé par #racisme #néocolonial.

    https://www.youtube.com/watch?v=QGPyXNleBxM

    • Je suis tombé par hasard sur ce documentaire l’autre jour. Et en effet, c’est épatant comme ces découvertes vont à l’encontre de ce qu’on nous enseigne, à savoir que l’Amérique, c’était un continent vierge, peuplé très récemment, depuis le détroit de Béring, puis on est arrivé.

      Et donc, là, on te dit qu’il y avait des sapiens en Amérique du sud avant même Lascaux ou Chauvet, et ça change tout.

    • oui, j’étais tout perdu.
      J’attendais en vain que le reportage mette les choses à leur place en précisant qu’ils avaient retrouvé un drakkar de nos ancètres les gaulois dans un des bras de l’amazon.
      Je pense qu’il faut aller là bas pour frotter toutes ces pierres afin de bien tout effacer.
      Nos enfants n’ont pas besoin de connaître cette histoire révolue

    • ce qui est impressionnant, et déjà évoqué par bien d’autres, c’est « l’humanisation de la nature », ici la forêt amazonienne. une interaction qui fait litière de l’idée de nature et reste a priori invisible à l’oeil capitaliste faute d’être suffisamment brutale et spectaculaire.

      https://seenthis.net/messages/1065254

      (et v’lan dans « le sauvage » itou)

      edit je précise : non pas le sauvage colonial, ubuesque, mais le sauvage idéal, positif, le fashion « ensauvagement » etc.

      #jardin

  • A/HRC/59/23: From economy of occupation to economy of genocide - Report of the Special Rapporteur on the situation of human rights in the Palestinian territories occupied since 1967 (Advance unedited version) - Question of Palestine
    https://www.un.org/unispal/document/a-hrc-59-23-from-economy-of-occupation-to-economy-of-genocide-report-special-rap

    After October 2023, long-standing systems of control, exploitation and dispossession metamorphosed into economic, technological and political infrastructures mobilized to inflict mass violence and immense destruction.[47] Entities that previously enabled and profited from Palestinian elimination and erasure within the economy of occupation, instead of disengaging are now involved in the economy of genocide.

    Après octobre 2023, des systèmes de contrôle, d’exploitation et de dépossession de longue date se sont métamorphosés en infrastructures économiques, technologiques et politiques mobilisées pour infliger des violences de masse et d’immenses destructions.[ 47] Les entités qui ont auparavant permis et profité de l’élimination et de l’effacement des Palestiniens au sein de l’économie de l’occupation, au lieu de se désengager, sont maintenant impliquées dans l’économie du génocide.

    • Le prédécesseur d’IBM a déjà fourni au régime nazi la technologie pour ficher les juifs et gérer le génocide dans les camps.

      Surveillance and carcerality: The dark side of the “Start-up Nation”

      Repression of Palestinians has become progressively automated, with tech companies providing dual-use[78] infrastructure to integrate mass data collection and surveillance, while profiting from the unique testing ground for military technology offered by the occupied Palestinian territory.[79] Fuelled by US-tech giants establishing subsidiaries and research and development centres in Israel,[80] Israel’s claims of security needs have spurred unparalleled developments in carceral and surveillance services, from CCTV networks, biometric surveillance, high-tech checkpoints networks, “smart walls” and drone surveillance, to cloud computing, artificial intelligence and data analytics supporting on-the-ground military personnel.[81]
      Israeli tech firms often grow out of military infrastructure and strategy,[82] as did NSO Group, founded by ex-Unit 8200 members.[83] Its Pegasus spyware, designed for covert smartphone surveillance, has been used against Palestinian activists[84] and licensed globally to target leaders, journalists and human rights defenders.[85] Exported under the Defense Export Control Law, NSO group surveillance technology enables “spyware diplomacy” while reinforcing state impunity.[86]
      IBM has operated in Israel since 1972, training military/intelligence personnel – especially from Unit 8200 – for the tech sector and start-up scene.[87] Since 2019, IBM Israel has operated and upgraded the central database of the Population, Immigration and Borders Authority (PIBA),[88] enabling collection, storage and governmental use of biometric data on Palestinians, and supporting Israel’s discriminatory permit regime.[89] Before IBM, Hewlett Packard Enterprises (HPE)[90] maintained this database and its Israeli subsidiary still provides servers during the transition.[91] HP has long enabled Israel’s apartheid systems, supplying technology to COGAT, the prison service and police.[92] Since HP’s 2015 split into HPE and HP Inc., opaque business structures have obscured the roles of their seven remaining Israeli subsidiaries.[93]
      Microsoft has been active in Israel since 1991, developing its largest centre outside the US.[94] Its technologies are embedded in the prison service, police, universities and schools – including in colonies.[95] Since 2003, Microsoft has integrated its systems and civilian tech across the Israeli military,[96] while acquiring Israeli cybersecurity and surveillance start-ups.[97]
      As Israel’s apartheid, military and population-control systems generate increasing volumes of data, its reliance on cloud storage and computing has grown. In 2021, Israel awarded Alphabet Inc (Google) and Amazon.com Inc. a $1.2 billion contract (Project Nimbus)[98] – largely funded through Ministry of Defense expenditure[99] – to provide core tech infrastructure.
      Microsoft, Alphabet and Amazon grant Israel virtually government-wide access to their cloud and AI technologies, enhancing data processing, decision-making and surveillance/analysis capacities.[100] In October 2023, when Israel’s internal military cloud overloaded,[101] Microsoft Azure and Project Nimbus Consortium stepped in with critical cloud and AI infrastructure.[102] Their Israel-located servers ensure data sovereignty and a shield from accountability,[103] under favourable contracts offering minimal restrictions or oversight.[104] In July 2024, an Israeli colonel described cloud tech as “a weapon in every sense of the word”, citing these companies.[105]
      The Israeli military has developed AI systems like “Lavender”, “Gospel” and “Where’s Daddy?” to process data and generate lists of targets,[106] reshaping modern warfare and illustrating AI’s dual-use nature. Palantir Technology Inc., whose tech collaboration with Israel long predates October 2023, expanded its support to the Israeli military post-October 2023.[107] There are reasonable grounds to believe Palantir has provided automatic predictive policing technology, core defence infrastructure for rapid and scaled-up construction and deployment of military software, and its Artificial Intelligence Platform, which allows real-time battlefield data integration for automated decision-making.[108] In January 2024, Palantir announced a new strategic partnership with Israel and held a board meeting in Tel Aviv “in solidarity”;[109] in April 2025, Palantir’s CEO responded to accusations that Palantir had killed Palestinians in Gaza by saying, “mostly terrorists, that’s true”.[110] Both incidents are indicative of executive-level knowledge and purpose vis-à-vis Israel’s unlawful use of force, and failure to prevent such acts or withdraw involvement

    • L’#ONU pointe du doigt des dizaines d’entreprises : « Le #génocide à #Gaza se poursuit parce qu’il est rentable » - L’Orient-Le Jour
      https://www.lorientlejour.com/article/1467415/lonu-pointe-du-doigt-des-dizaines-dentreprises-le-genocide-a-gaza-se-

      L’avocate italienne spécialisée en droits humains et rapporteuse de l’ONU pour les territoires palestiniens occupés, Francesca Albanese, a cité plus de 60 entreprises, parmi lesquelles de grands fabricants d’armement et des sociétés technologiques, dans un rapport publié lundi dénonçant leur implication dans le soutien aux colonies israéliennes et aux opérations militaires à Gaza, qu’elle qualifie de « campagne génocidaire ». Le rapport examine « la machine économique des entreprises qui soutiennent le projet colonial israélien de déplacement et de remplacement des Palestiniens dans les territoires occupés ».

      Ces entreprises, notamment des grands fabricants d’armements et des géants de la technologie, soutiendraient la « campagne génocidaire » menée par Israël dans la bande occupée. Le rapport appelle les entreprises citées à cesser leurs échanges avec Israël, et réclame une responsabilité juridique pour les dirigeants impliqués dans les violations présumées du droit international.

      Le rapport, rédigé à partir de plus de 200 contributions provenant d’États, de défenseurs des droits humains, d’entreprises et d’universitaires, vient compléter la base de données de l’ONU sur les entreprises liées aux colonies israéliennes, mis à jour la dernière fois en juin 2023. Il sera présenté jeudi au Conseil des droits de l’homme de l’ONU, d’où Israël et les États-Unis s’étaient retiré plus tôt cette année dénonçant un parti pris flagrant à l’encontre de l’État hébreu.

      Des « liens financiers avec l’apartheid et le militarisme israélien »

      « Alors que la vie à Gaza est littéralement anéantie et que la Cisjordanie subit des attaques toujours plus violentes, ce rapport montre pourquoi le génocide en cours se poursuit : parce qu’il est rentable pour beaucoup », écrit Albanese dans ce document de 27 pages. Elle accuse les entreprises concernées d’être « financièrement liées à l’apartheid et au militarisme israéliens ». Dans ce document, les entreprises sont classées par secteur, dont l’industrie militaire ou technologique (il n’est toutefois pas toujours clair si elles sont liées aux colonies israéliennes ou à la guerre de Gaza, NDLR.). L’agence Reuters précise « qu’environ 15 entreprises ont répondu au bureau d’Albanese », mais que leur réponses n’ont pas été publiées.

      Dans le secteur de l’armement, les entreprises #Lockheed_Martin et #Leonardo auraient joué un rôle dans la fourniture d’armes qui ont été utilisées à Gaza. D’autres fournisseurs de machines lourdes dont #Caterpillar Inc et HD #Hyundai sont également accusés de « contribuer à la destruction de propriétés dans les territoires palestiniens ». Caterpillar a déjà déclaré qu’elle s’attendait à ce que ses produits soient utilisés conformément au droit international humanitaire. Aucune des entreprises citées n’a immédiatement répondu aux sollicitations des journalistes.

      Des géants de la technologie comme #Alphabet, #Amazon, #Microsoft et #IBM sont également nommés comme étant « au cœur de l’appareil de surveillance israélien et de la destruction en cours à Gaza ». Alphabet a déjà défendu son contrat de services cloud d’une valeur de 1,2 milliard de dollars avec le gouvernement israélien, affirmant qu’il ne visait pas des opérations militaires ou de renseignement. #Palantir Technologies est également mentionnée pour avoir fourni des outils d’intelligence artificielle à l’armée israélienne, sans que les détails de leur usage ne soient précisés.

      La mission israélienne à Genève a qualifié le rapport de « juridiquement infondé, diffamatoire et constituant un abus manifeste de sa fonction ». Les bureaux du Premier ministre et du ministère des Affaires étrangères israéliens n’ont pas immédiatement répondu aux demandes de commentaires.

  • « STOP #amazon » : Comment la #Sarthe résiste à l’empire #logistique
    https://lvsl.fr/stop-amazon-comment-la-sarthe-resiste-a-lempire-logistique

    Promettant de nouveaux emplois à des territoires dévitalisés, les #entrepôts logistiques prolifèrent, avec leur lot de nuisances et d’impacts écocidaires. Mais la riposte s’organise. Récit d’une lutte contre Amazon dans la Sarthe.

    #Écologie #commerce #e-commerce #emploi #spéculation_foncière #Stop_Amazon

  • Aux Etats-Unis, la course effrénée au nucléaire civil
    https://www.lemonde.fr/economie/article/2025/06/12/aux-etats-unis-la-course-effrenee-au-nucleaire-civil_6612464_3234.html

    La renaissance nucléaire américaine est une cause nationale. Elle est soutenue à la fois par les démocrates et par les républicains. « De tout ce que je fais sur le climat, le domaine qui bénéficie du plus de soutien transpartisan est le nucléaire », se réjouissait Bill Gates, lors du lancement des travaux. Le 23 mai, Donald Trump a signé quatre décrets visant à quadrupler la production d’ici à 2050, amplifiant un mouvement lancé par Joe Biden, qui voulait la tripler. « Il est temps pour le nucléaire », a proclamé le président républicain depuis le bureau Ovale.

    De très nombreuses start-up ont levé des centaines de millions de dollars pour commercialiser de nouveaux réacteurs, innovants soit par leur technologie, soit par leur taille. Elles s’envolent en Bourse et valent des milliards, au point de frôler la bulle, chacun ayant sa spécificité : Oklo, la firme dont le secrétaire à l’énergie de Donald Trump, Chris Wright, était administrateur, fonctionne au métal fondu et a vu son action multipliée par 6 en un an, avec une capitalisation de 7 milliards de dollars. NuScale (multiplié par 4 ; 10 milliards de dollars) et Nano Nuclear (multiplié par 4,2 ; 1,2 milliard de dollars) tournent à l’eau pressurisée mais sont de petite taille, tout comme le spécialiste des réacteurs de sous-marins BWX Technologies (+ 50 %, 12 milliards de dollars).

    Les projets foisonnent, mais aucun de ces réacteurs n’a encore été construit ou testé. Cette tâche incombe en partie au ministère fédéral de l’énergie et au Laboratoire national de l’Idaho, perdu à 300 kilomètres de la centrale de Kemmerer, dans les plateaux déserts de l’Idaho, au sud-ouest du célèbre parc de Yellowstone. C’est là que fut installé un gigantesque centre d’essai de réacteurs civils après la seconde guerre mondiale. Prudents, les chercheurs installés à Chicago (Illinois) s’étaient dit qu’il valait mieux mener ces types d’expérimentations loin de toute population. Le site de 2 300 kilomètres carrés (plus de vingt fois la superficie de Paris) reste intimidant – « l’usage de la force mortelle est autorisé », lit-on en avertissement –, mais l’accueil est chaleureux pour vanter la renaissance nucléaire américaine.

    « Tout le monde avance aussi vite que possible », se réjouit Jess Gehin, directeur associé du Laboratoire national de l’Idaho, alors que Donald Trump veut diviser par deux ou trois le processus, en réduisant à dix-huit mois les délais d’autorisation. Sa mission : tester l’application de technologies ayant fait l’objet de recherches approfondies au XXe siècle. « Nous avons construit 52 réacteurs. Toutes ces technologies, nous les avons étudiées ici, elles ne sont donc pas vraiment nouvelles. Ce qui est nouveau, c’est la commercialisation, le transfert de certaines technologies vers le secteur privé », explique Jess Gehin, qui salue la spécificité américaine, le financement des entreprises par le capital-risque et l’aide scientifique de l’Etat : « Chacune de ces entreprises a levé des centaines de millions de dollars. » Pas de centralisation : « Le marché choisira », confirme Jess Gehin, qui résume son état d’esprit : « Aux Etats-Unis, nous avons des centaines de types de réacteur et un seul type de fromage. En France, il existe des centaines de types de fromage et un seul type de réacteur. »

    [...]

    Depuis un an, tous les géants du numérique s’efforcent d’acquérir l’électricité d’une centrale nucléaire traditionnelle pour alimenter leurs serveurs informatiques : fin 2024, Microsoft décide avec l’exploitant Constellation de relancer le deuxième réacteur arrêté sur le tristement célèbre site de Three Mile Island, en Pennsylvanie ; début juin 2025, Meta signe un accord de fourniture d’électricité pour vingt ans avec une autre centrale nucléaire de Constellation, dans l’Illinois. Celle-ci avait failli fermer en 2017, avant d’être sauvée par l’Etat d’Illinois.
    Lire aussi | Article réservé à nos abonnés Nucléaire : les start-up se multiplient sur le marché des petits réacteurs

    Mais d’autres vont plus loin et veulent développer des réacteurs d’un nouveau type, plus petits, d’une capacité d’environ 80 mégawatts. Amazon a signé des accords avec Energy Northwest et le concepteur X Energy pour construire quatre petits réacteurs (small modular reactor) pour un total de 320 mégawatts pouvant être porté à 960. Google a fait de même, avec Kairos, une start-up fondée en 2017, pour développer sept réacteurs nucléaires d’une puissance totale de 500 mégawatts d’ici à 2035. L’ambition est d’éviter les projets gigantesques tels Vogtle ou Flamanville, aux dépassements de coûts souvent incontrôlés, et d’envisager une production en série, voire en usine pour les petits modules.

    [...]

    L’un des sujets problématiques, toutefois, reste le retraitement et l’approvisionnement en combustible. ....

    https://archive.ph/5YidN

    #écologie_capitaliste #nucléaire #TerraPower #IA #refroidissement #réacteur_au_sodium #réacteur_à_sel_fondu #délais_d'autorisation #Microsoft #Meta #Amazon #Google

  • Victime d’une panne mondiale ce mercredi, Spotify examine « certains problèmes » Alix Lavoué

    Sur X, Spotify a reconnu faire face à « certains problèmes » et affirme que ses équipes « les vérifient » stock.adobe.com
    De nombreux utilisateurs indiquent qu’il leur est impossible d’accéder à la plateforme, sur mobile comme sur ordinateur. L’entreprise a reconnu des difficultés.

    Des milliers d’utilisateurs sont privés de musique. Spotify est confronté ce mercredi après-midi à une panne d’ampleur mondiale, selon le site DownDetector, qui répertorie les alertes d’utilisateurs de nombreux services. Selon nombre d’internautes, les difficultés se voient quel que soit le support utilisé : application mobile, lecteur web ou version bureau, un message d’erreur s’affiche. Les abonnés Premium sont autant touchés que les utilisateurs de la version gratuite. Seul le mode hors-ligne semble fonctionner, à condition d’avoir téléchargé sa musique en amont. Dans le cas contraire, il est pour l’instant impossible s’accéder au catalogue.

    De nombreux signalements d’internautes ont été répertoriés, cet après-midi. Capture d’écran DownDetector.
    Down Detector a recensé plusieurs milliers de signalements à travers le globe. Sur les réseaux sociaux, et notamment sur X, les réactions d’utilisateurs se multiplient, illustrant l’ampleur de la panne. Certains s’en amusent ou s’en moquent, quand d’autres écrivent attendre avec impatience le retour du service.

    Sur X, Spotify a reconnu faire face à « certains problèmes » et affirme que ses équipes « les vérifient ». Aucun délai de rétablissement n’a été communiqué. Le site d’assistance de l’entreprise, lui aussi hors-service, ne permet pas d’en savoir davantage. Contacté par Le Figaro, Spotify a fait savoir qu’il ne souhaitait pas s’exprimer pour le moment.

    Source : https://www.lefigaro.fr/societes/victime-d-une-panne-mondiale-ce-mercredi-spotify-examine-certains-problemes
    #spotify #web #internet #blog #facebook #google . . . . #avis #twitter #amazon #réseaux_sociaux #panne

  • Des avis négatifs qui risquent de coûter cher

    Les avis en ligne sont de puissants outils. Ils influent sur les choix des consommateurs et peuvent nuire à la réputation des entreprises.

    Mais des critiques négatives envers des commerces peuvent déclencher des conséquences inattendues allant jusqu’à des poursuites, voire des condamnations. La facture s’est penchée sur cette question.

    Un consommateur a le droit d’exprimer un avis négatif, mais un commerçant a aussi le droit de protéger sa réputation.


    Dominique, une cliente d’une boutique de vélo, n’a pas aimé son expérience de magasinage. Elle a partagé son point de vue en publiant un avis sur Google, avec la note de deux étoiles sur cinq.

    Voici un extrait de son commentaire : “Très bon prix pour un de leurs vélos en vente, mais ça s’arrête là. J’ai senti qu’on ne me prenait pas au sérieux en tant que femme qui fait du vélo de montagne. Très peu d’engagement pour m’aider à faire le set up de mon vélo.”

    Pour elle, son avis est fidèle à ce qu’elle a vécu en magasin. Mais, selon le commerçant, le commentaire n’est tout simplement “pas honnête”.

    Le conflit entre les deux est insoluble. Dominique refuse de rappeler le commerçant, puisqu’elle a réglé ses problèmes avec son vélo autrement. Rien ne la convaincrait de retirer son avis. Mais le propriétaire de la boutique dit perdre des ventes en raison de la critique en ligne.

    Que faire ? Pour le commerçant, la solution passe par les tribunaux. Il poursuit la cliente en diffamation et demande 15 000 $ pour la perte des revenus occasionnée par l’avis. Ça sera au tribunal de trancher à l’issue du procès, dont la date n’est toujours pas déterminée.

    L’avocate Véronique Parent, d’Option consommateurs, a analysé des dizaines de décisions de poursuites en diffamation.

    Elle constate que “de plus en plus de consommateurs se sont fait poursuivre ou menacer de poursuites judiciaires pour avoir publié une critique négative. Au Québec, dans les dernières années, certaines condamnations allaient jusqu’à 20 000 $ ou 30 000 $ en dommages”.

    Le droit des uns s’arrête où commence celui des autres
    . . . . .
    D’ailleurs, elle souligne que toute vérité n’est pas bonne à dire. “Si, par exemple, on insulte la personne ou encore si on incite les autres consommateurs à ne pas faire affaire avec l’entreprise, même si ce qu’on dit est peut-être vrai, la Cour pourrait considérer que le commentaire est diffamatoire.”
    . . . .
    Aux États-Unis, une tendance émerge : des commerçants font signer à leurs clients un engagement à ne pas commenter négativement leur expérience d’achat.
    . . . . .
    Source : https://ici.radio-canada.ca/nouvelle/2156485/avis-negatifs-en-ligne-consequences
    #web #internet #blog #facebook #google . . . . #avis #twitter #amazon #réseaux_sociaux

  • Blue Origin’s First All-Female Spaceflight Stunt - The New York Times
    https://www.nytimes.com/2025/04/14/arts/blue-origin-lauren-sanchez-katy-perry.html

    Blue Origin’s all-female flight proves that women are now free to enjoy capitalism’s most extravagant spoils alongside rich men.

    Bezos’ company has promoted this as the “first all-woman spaceflight” since the Soviet Union cosmonaut Valentina Tereshkova became the first woman in space when she made a solo trip to the Earth’s orbit in 1963. Tereshkova spent three days in space, circled the Earth 48 times and landed an international celebrity and feminist icon. The Blue Origin flight attempted to reverse-engineer that historic moment: By taking established celebrities and activists and launching them into space, it applied a feminist sheen to Blue Origin and made its activities feel socially relevant by association.

    Blue Origin pitched the flight as a gambit to encourage girls to pursue STEM (science, technology, engineering and mathematics) careers and to, as Sánchez put it in an Elle cover story on the trip, inspire “the next generation of explorers.” But the flight was recreational, and its passengers are not space professionals but space tourists. Their central mission was to experience weightlessness, view the Earth from above, and livestream it. They are like payload specialists with a specialty in marketing private rockets. If the flight proves anything, it is that women are now free to enjoy capitalism’s most decadent spoils alongside the world’s wealthiest men.

    Though women remain severely underrepresented in the aerospace field worldwide, they do regularly escape the Earth’s atmosphere. More than 100 have gone to space since Sally Ride became the first American woman to do so in 1983. If an all-women spaceflight were chartered by, say, NASA, it might represent the culmination of many decades of serious investment in female astronauts. (In 2019, NASA was embarrassingly forced to scuttle an all-women spacewalk when it realized it did not have enough suits that fit them.) An all-women Blue Origin spaceflight signifies only that several women have amassed the social capital to be friends with Lauren Sánchez.

    Sánchez arranged for her favorite fashion designers to craft the mission’s suits, leveraging it into yet another branding opportunity. Souvenirs of the flight sold on Blue Origin’s website feature a kind of yassified shuttle patch design. It includes a shooting-star microphone representing King, an exploding firework representing Perry and a fly representing Sánchez’s 2024 children’s book about the adventures of a dyslexic insect. Each woman was encouraged to use her four minutes of weightlessness to practice a different in-flight activity tailored to her interests. Nguyen planned to use them to conduct two vanishingly brief science experiments, one of them related to menstruation, while Perry pledged to “put the ‘ass’ in astronaut.”

    The message is that a little girl can grow up to be whatever she wishes: a rocket scientist or a pop star, a television journalist or a billionaire’s fiancée who is empowered to pursue her various ambitions and whims in the face of tremendous costs. In each case, she stands to win a free trip to space. She can have it all, including a family back on Earth. “Guess what?” Sánchez told Elle. “Moms go to space.” (Fisher, the first mother in space, went there in 1984.)

    The whole thing reminds me of the advice Sheryl Sandberg passed on to women in “Lean In,” her memoir of scaling the corporate ladder in the technology industry. When Eric Schmidt, then the chief executive of Google, offered Sandberg a position that did not align with her own professional goals, he told her: “If you’re offered a seat on a rocket ship, don’t ask what seat. Just get on.” It is the proximity to power that matters, not the goal of the mission itself.

    As Blue Origin loudly celebrates women as consumers of private space travel, it has elided the experiences of professional female astronauts — including the little details that humanized their own flights. Elle suggested that the Blue Origin flight “will be the first time anybody went to space with their hair and makeup done.” As Perry put it, “Space is going to finally be glam.” But in fact, female astronauts have long brought their beauty work into space with them. Life magazine published an image of Tereshkova at the hairdresser, explaining that she was “primping for orbit.” The astronaut Rhea Seddon, who first flew to space in 1985, took NASA-tested cosmetics onboard, knowing that she would be heavily photographed and the images widely circulated.

    #Espace #Tourisme #Féminisme_de_pacotille #Jeff_Bezos #Blue_Origin #Amazon

  • Amazonie, les civilisations oubliées de la forêt | ARTE - YouTube
    https://www.youtube.com/watch?v=hPdEyj5g-CE

    Longtemps considérée comme trop hostile pour que l’homme s’y installe, la forêt amazonienne abritait pourtant plusieurs millions d’individus à l’arrivée des Européens au XVe siècle. Cette vaste enquête met en lumière un chapitre oublié de l’histoire de l’humanité.
    La forêt amazonienne a longtemps été considérée comme vierge de toute culture ancienne. Pourtant, depuis plusieurs décennies, les chercheurs distinguent des traces d’occupation humaine passée. Ils estiment qu’en 1492, au moment de l’arrivée des Européens sur le continent, l’Amazonie comptait entre 8 millions et 10 millions d’individus, bientôt décimés par les virus apportés du Vieux Continent. Aujourd’hui, les archéologues découvrent et étudient des urnes funéraires précolombiennes en céramique ornées de mystérieux et complexes dessins aux formes humaines et animales. L’analyse stylistique de ces urnes a permis d’identifier des centaines de cultures différentes qui peuplaient le bassin de l’Amazonie. Toutes ont en commun la personnification des animaux qu’ils représentent (les couleuvres forment les bras d’un homme, les scorpions, ses yeux…), ce qui suggère, selon les scientifiques, qu’elles étaient animistes. La faune représentée pourrait aussi symboliser des esprits qui interagiraient avec l’humain dans le monde des morts. Mais de nombreux mystères subsistent. La forêt amazonienne pousse sur un sol pauvre, impropre à l’agriculture. Les chercheurs suggèrent que les civilisations précolombiennes auraient fait usage de la terra preta, un sol très fertile issu d’un assemblage d’ingrédients brûlés liés à l’activité humaine. On en retrouve aujourd’hui sur 10 % de la surface totale de l’Amazonie.

    Quels étaient les modes de vie et les croyances des cultures précolombiennes ? Pourquoi ont-elles sombré dans l’oubli ? Pour répondre à ces questions, cette vaste enquête plonge dans les profondeurs de la jungle guyanaise, longe les rives de l’Amazone, explore une grotte ornée de l’État du Pará, au Brésil, et interroge scientifiques et communautés amérindiennes héritières de ces peuples. Dans les pas de l’archéologue français Stéphen Rostain, pionnier de l’archéologie amazonienne, Marc Jampolsky et Marie Thiry (Vatican – La cité qui voulait devenir éternelle) mettent en lumière un chapitre oublié de l’histoire de l’humanité que les nouveaux moyens d’investigation de l’archéologie révèlent petit à petit.

    #Amazonie #civilisations_précolombiennes #archéologie

    Voir aussi :
    https://seenthis.net/messages/1073546
    https://seenthis.net/messages/1039760
    https://seenthis.net/messages/1036042
    https://seenthis.net/messages/1022860

  • L’accélération de l’#IA pose déjà des questions de #pénuries d’#eau et d’#énergie

    Le Royaume-Uni comme les États-Unis viennent de présenter de nouveaux plans pour soutenir la mise en place d’#infrastructures pour l’IA dans leurs territoires. Mais actuellement, aux États-Unis, de nouvelles #centrales au gaz sont ouvertes pour répondre aux demandes d’énergie de l’IA. Au Royaume-Uni, l’implantation par le gouvernement de sa « première zone de croissance de l’IA » près d’un nouveau réservoir pose la question des priorités d’#accès_à_l'eau.

    Ce mardi 14 janvier et six jours avant la passation de pouvoir à Donal Trump, Joe Biden a publié un décret pour l’investissement des États-Unis dans des infrastructures. « Je signe aujourd’hui un décret historique visant à accélérer la vitesse à laquelle nous construisons la prochaine génération d’infrastructures d’IA ici aux États-Unis, de manière à renforcer la compétitivité économique, la sécurité nationale, la sécurité de l’IA et l’énergie propre », affirme-t-il.

    Selon certaines estimations, la consommation énergétique de l’IA devrait être multipliée par 4 à 9 d’ici 2050 et la consommation d’énergie des #data_centers aux États-Unis est déjà très carbonée.

    Le #gaz comme source d’énergie future aux États-Unis

    Mais, malgré les différentes annonces d’investissements dans le nucléaire par les géants du numérique, les États-Unis seraient plutôt à l’aube d’un boom de la construction de #centrales_électriques au gaz naturel, selon le Financial Times. Le journal économique américain explique que « les grandes entreprises technologiques se tournent vers les #combustibles_fossiles pour répondre aux énormes besoins en #électricité de la révolution de l’intelligence artificielle, ce qui met en péril les objectifs en matière de climat ».

    Le journal cite le cabinet de conseil en énergie #Enverus qui prévoit qu’au moins 80 centrales électriques au gaz seront construites aux États-Unis d’ici à 2030. Le Financial Times estime la capacité supplémentaire de ces centrales à 46 gigawatts, « soit la taille du réseau électrique norvégien et près de 20 % de plus que ce qui a été ajouté au cours des cinq dernières années ». Et selon Corianna Mah, analyste pour Enverus interrogée par le journal, « le gaz croît en fait plus rapidement aujourd’hui, et à moyen terme, que jamais auparavant ». Aucun des projets qu’Enverus a listés ne prévoit d’être équipé d’un système de capture de dioxyde de carbone.

    Approvisionnement de l’eau dans un lac de barrage prévu pour la population britannique

    De son côté, le gouvernement du Royaume-Uni vient d’annoncer une stratégie nationale pour faire de son pays un leader en matière d’intelligence artificielle. Dedans, il prévoit entre autres des « Zones de croissance de l’IA » (#IA_growth_zones), « des zones bénéficiant d’un meilleur accès à l’électricité et d’un soutien pour les autorisations de planification, afin d’accélérer la mise en place d’une infrastructure d’IA sur le sol britannique », comme l’explique le communiqué du Secrétariat d’État à la science, à l’innovation et à la technologie.

    Mais des questions se posent sur l’emplacement prévu de la première « #zone_de_croissance ». Situé à Culham, au siège de l’Autorité britannique de l’énergie atomique (UKAEA), cet endroit est aussi celui du premier nouveau lac de barrage construit depuis 30 ans aux Royaume-Uni, « qui était censé fournir de l’eau aux habitants du sud-est de l’Angleterre, qui souffre d’un grave problème d’approvisionnement en eau », explique le Guardian.

    Le journal britannique souligne que cette région est celle qui, selon l’agence environnementale nationale, est la plus sensible du pays aux manques d’eau. Entre les réserves d’eau disponibles et la demande attendue sans compter les data centers, le sud-est du pays sera confronté à un déficit potentiel de plus de 2,5 milliards de litres par jour d’ici 2050.

    Du côté énergétique, le gouvernement britannique a mis en place un Conseil de l’énergie de l’IA qui doit travailler avec les entreprises du secteur pour « pour comprendre les demandes et les défis énergétiques » liés à l’intelligence artificielle. Il parie encore sur la possibilité de mettre en place des #SMR (#réacteurs_nucléaires_modulaires).

    « L’expansion de l’IA a été un sujet de préoccupation pour #National_Grid [entreprise de distribution de l’électricité et du gaz notamment au Royaume-Uni], mais la vitesse à laquelle la demande de calcul de l’IA augmente a pris tout le monde par surprise et, à moins que nous n’équilibrions correctement les compromis ci-dessus, avec des politiques appropriées, toute l’énergie verte et bon marché dont nous disposons sera utilisée par les grandes entreprises technologiques, ce qui privera les familles qui souffrent déjà de la pauvreté énergétique », explique Gopal Ramchurn, chercheur de l’université de Southampton, interrogé par le Guardian.

    La #France s’appuie sur son #nucléaire, mais des tensions sont présentes

    Quant à la France, l’instabilité politique ne permet pas d’y voir très clair dans la politique du pays concernant l’IA. Lors de son discours de politique générale, le premier Ministre François Bayrou a évoqué l’IA lorsqu’il a annoncé la création d’un fonds spécial « entièrement [consacré] à la réforme de l’État ». Ce fonds sera financé par des actifs « en particulier immobiliers, qui appartiennent à la puissance publique, de façon à pouvoir investir, par exemple, dans le déploiement de l’intelligence artificielle dans nos services publics ».

    Lors de ses vœux, le Président de la Région Normandie Hervé Morin a évoqué la volonté de sa région d’être référente en matière d’intelligence artificielle et d’accueillir des data centers sur trois ou quatre points du territoire. Il a mis en avant « son potentiel énergétique décarboné », faisant référence aux centrales nucléaires de Flamanville, Paluel et Penly et à l’EPR situé lui aussi à Flamanville.

    Mais RTE tirait récemment un signal d’alarme sur le foisonnement de projets de data centers prévus pour l’IA. Si l’entreprise affirmait en novembre à l’Usine Nouvelle avoir « assez d’électricité pour répondre à la croissance des besoins », elle pointait aussi du doigt une « course à la capacité » et un manque de planification :« plusieurs projets ont été abandonnés en raison de tensions sur la distribution de l’énergie », ajoutait-il.

    https://next.ink/165467/lacceleration-de-lia-pose-deja-des-questions-de-penuries-deau-et-denergie

    #intelligence_artificielle #AI #énergie_nucléaire

    • Pourquoi l’IA générative consomme-t-elle tant d’énergie ?

      #DeepSeek défraye la chronique en proposant un modèle dont les #performances seraient comparables à celles des modèles préexistants, pour un coût très réduit en termes de puissance de calcul et de données, et donc une #consommation_énergétique moindre. Quand on sait que Microsoft a indiqué une hausse de 29,1 % d’émission de carbone sur l’année 2023 et que différentes grandes entreprises du numérique investissent dans des capacités de production d’électricité, le tout en lien avec l’essor de l’#IA_générative, l’enjeu est de taille. Pourquoi l’IA générative consomme-t-elle tant ? Décryptage.

      Les grands modèles de langage (Large Language Models ou LLM), comme ChatGPT (OpenAI), Gemini (Google/DeepMind) ou encore les modèles génératifs d’images comme #Midjourney, sont devenus en très peu de temps des outils incontournables avec des usages qui ne cessent de s’amplifier et de se diversifier. Il est vrai que la fluidité des échanges avec ChatGPT impressionne, et que les promesses de développement sont enthousiasmantes.

      Néanmoins, ces promesses cachent des coûts de calcul, et donc énergétiques, considérables. Or, aujourd’hui l’idée dominante dans l’industrie des modèles génératifs est : « Plus grand est le modèle, mieux c’est. » Cette compétition s’accompagne d’une croissance de la consommation énergétique et, donc, de l’empreinte écologique qui ne peut plus être ignorée et qui questionne quant à sa pérennité et sa viabilité pour la société.
      Pourquoi un tel coût ?

      Un modèle génératif de texte comme un chatbot est un ensemble de paramètres numériques ajustés à partir de données pour accomplir une tâche spécifique. L’architecture dominante s’appuie sur les « transformers ».

      Les #transformers prennent une séquence en entrée, par exemple un prompt (soit votre question), pour la transformer numériquement. En empilant les couches de transformers, le modèle multiplie ces transformations afin de construire la réponse en prolongeant son entrée. Cet empilement de couches confère au modèle son efficacité et fait croître le nombre de paramètres. C’est pourquoi un modèle tel que GPT-4 contient au moins 1 tera (1 000 milliards) de paramètres et nécessite donc au moins 2 tera octets (To) de mémoire vive pour être utilisable.

      Que ce soit pour l’entraînement, pour le stockage des données et des paramètres, ou pour le calcul d’une réponse, des infrastructures de calcul de plus en plus puissantes sont donc indispensables. En d’autres termes, contrairement à ce que l’on croit souvent, ce n’est pas juste pour entraîner le modèle que ces techniques sont très coûteuses.

      Des données émerge la « connaissance »

      Avant tout, un modèle génératif doit être « appris ». Pour cela des données (textes, images, sons, etc.) lui sont présentées à maintes reprises afin d’ajuster ses paramètres. Plus il y a de paramètres, plus la phase d’apprentissage est coûteuse en données, mais aussi en temps et en énergie.

      Ainsi, pour un LLM (grand modèle de langage), on parle par exemple de l’ordre de la dizaine de trillions de données (environ 10 trillions pour GPT-4 et 16 trillions pour Gemini) et aux alentours de trois mois de préapprentissage sur environ 20 000 puces A100 de NVIDIA pour le dernier-né d’OpenAI. Ces modèles les plus performants sont en fait une combinaison de plusieurs énormes modèles (les « Mixture of Experts »), GPT-4 étant ainsi le résultat de 16 experts de 110 milliards de paramètres, selon les rares informations disponibles.

      Après cette phase d’apprentissage, le modèle est déployé afin de répondre aux utilisateurs dans une phase dite d’« inférence ». Pour faire face à la demande (ces systèmes construits pour répondre à plusieurs personnes en même temps) avec un temps de réponse satisfaisant, le modèle est alors dupliqué sur différents clusters de calcul. Un article de recherche constate également que les architectures génératives polyvalentes consomment significativement plus d’énergie à l’inférence que les systèmes spécifiques à une tâche, même à taille de modèle équivalente.

      Ce survol des besoins en termes de calcul donne une idée des ordres de grandeur qui se cachent derrière nos interactions — qui semblent si rapides et efficaces — avec ces énormes modèles. Il permet surtout de poser différemment la question de l’évaluation de ces modèles, en y incluant la question de la soutenabilité en termes énergétiques et écologiques. Des travaux récents proposent ainsi un modèle pour évaluer les impacts environnementaux de la fabrication des cartes graphiques et une analyse multicritère des phases d’entraînement et d’inférence des modèles d’apprentissage automatique.
      Obsolescence et frugalité

      Ainsi les grands modèles génératifs nécessitent des infrastructures matérielles colossales.

      Au-delà de considérations économiques, il a été montré que passé un certain point, les gains de performances ne justifient pas une telle explosion du nombre de paramètres. Toutes les applications ne nécessitent pas d’énormes modèles et des approches plus modestes peuvent être aussi performantes, plus rapides et moins coûteuses.

      Sur le plan environnemental, l’apprentissage et l’inférence de modèles massifs ont un coût énergétique qui nécessitent réflexion. Les travaux de certains auteurs soulignent la complexité de mesurer avec précision l’empreinte carbone de ces grands modèles, tout en montrant leur impact considérable : 50,5 tonnes équivalent CO2 (CO2 eq) pour un modèle de 176 milliards de paramètres, appris en 2023… et pratiquement considéré comme obsolète aujourd’hui. Pour rappel, si un Français moyen rejette actuellement environ 10 tonnes CO2 eq par an, l’objectif à l’horizon 2050 pour respecter l’engagement des accords de Paris est d’environ 2 tonnes CO₂ eq par Français et par an.

      Quant à la phase d’inférence (ou d’utilisation, quand on pose une question à GPT), lorsqu’elle est réalisée des millions de fois par jour, comme c’est le cas pour un assistant conversationnel, elle peut engendrer un coût énergétique considérable, parfois bien supérieur à celui de l’entraînement.

      Ainsi, un outil développé en 2019 a permis d’estimer qu’une inférence de ChatGPT 3.5 produisait environ 4,32 grammes de CO2.

      À l’heure où les assistants conversationnels sont peut-être en passe de remplacer les moteurs de recherche standards (Google, Bing, Qwant), la question de son utilisation se pose, car ces derniers ont un coût 10 à 20 fois moindre (0,2 gramme de CO2 la recherche, d’après Google).

      Enfin, la concentration de pouvoir entre quelques acteurs disposant des ressources nécessaires pour développer ces modèles — data centers, données, compétences — pose des problèmes scientifiques en limitant la diversité des recherches, mais aussi stratégiques et politiques.
      Les recherches en IA frugale

      La frugalité consiste à se fixer dès le départ une enveloppe de ressources (calcul, mémoire, données, énergie) et à concevoir des modèles capables de s’y adapter. L’idée n’est pas de sacrifier les performances, mais de privilégier la sobriété : optimiser chaque étape, du choix de l’architecture à la collecte des données, en passant par des méthodes d’apprentissage plus légères, afin de réduire l’empreinte environnementale, d’élargir l’accès à l’IA et de favoriser des applications réellement utiles.

      La recrudescence de travaux de recherche sur ce thème illustre la volonté de penser l’IA sous l’angle de la sobriété. Il s’agit ainsi de replacer la pertinence, l’impact sociétal et la soutenabilité au cœur de la recherche.

      Concrètement, de nombreuses pistes émergent. Sur le plan de l’apprentissage, il s’agit d’explorer des alternatives algorithmiques au paradigme actuel, hérité du milieu des années 1980 et qui n’a jamais été remis en question alors même que les quantités de données et la puissance de calcul n’ont plus rien à voir avec celles qui prévalaient aux débuts de ces modèles.

      Ainsi, au-delà des optimisations techniques, une réflexion méthodologique de fond s’impose, tant le contexte scientifique a évolué depuis les années 1980. Cette réflexion est au cœur, par exemple, du projet Sharp, financé par le programme France 2030. L’étude d’architectures plus compactes et spécialisées est également abordée avec le projet Adapting du même programme.

      Les mathématiques appliquées peuvent jouer un rôle clé en proposant des « représentations parcimonieuses », des méthodes de factorisation, ou en optimisant l’usage de données faiblement annotées.

      Ainsi, en travaillant avec des contraintes de ressources, ces recherches visent un développement en IA plus frugal et donc durable, ainsi que plus accessible, et indépendant de l’hyperconcentration du marché. Elles limitent les externalités négatives — environnementales, éthiques, économiques — liées à la course effrénée vers le gigantisme.

      Mais pour atteindre ces objectifs, il est aussi important d’avancer sur les critères et les méthodes d’évaluations en IA : avec le paradigme dominant actuel, la dimension de frugalité peine encore à s’imposer, que ce soit du côté de la recherche ou industriel. Il ne faut d’ailleurs pas confondre la récente explosion des outils de DeepSeek avec de la frugalité, les coûts en calcul et en données étant eux aussi extrêmement élevés, avec des méthodes probablement éthiquement répréhensibles.

      Ainsi, le monde académique doit mieux intégrer cette dimension afin d’améliorer la visibilité et la valorisation des travaux qui visent la frugalité.
      L’IA que nous développons est-elle vraiment utile ?

      La frugalité en IA n’est pas un simple concept, mais une nécessité face aux enjeux actuels. Les travaux récents sur son empreinte carbone illustrent l’urgence de repenser nos méthodes. Avant même d’envisager les manières de rendre l’IA plus sobre, il est légitime de se demander si l’IA que nous développons est vraiment utile.

      Une approche plus frugale, mieux pensée et mieux orientée, permettra de construire une IA tournée vers le bien commun, s’appuyant sur des ressources maîtrisées, plutôt que sur la surenchère permanente en taille et en puissance de calcul.

      Cet article a été écrit dans le cadre de la troisième édition des Dauphine Digital Days qui a eu lieu à l’Université Paris Dauphine — PSL, du 18 au 20 novembre 2024.

      https://theconversation.com/pourquoi-lia-generative-consomme-t-elle-tant-denergie-247406

    • IA : un puits sans fond de dépenses en énergie, en #eau et en #CO2

      Emmanuel Macron veut croire que la France a « des #data_centers_propres ». Mais les dégâts environnementaux des industries numériques sont déjà tangibles (consommation d’#électricité, émissions de CO2, besoins en eau et en #minerais, conflits d’usage sur le #foncier) alors que l’idée d’une #IA_verte n’est encore qu’une promesse.

      Si le climat était une intelligence artificielle (IA), le monde serait en train de le sauver. Face au tsunami d’investissements publics et privés programmés pour ses infrastructures, il est tentant de détourner le fameux slogan : « Si le climat était une banque, ils l’auraient déjà sauvé. » Car si ces annonces financières brillent de l’or des profits à venir, elles éclipsent un problème tout aussi exponentiel : les impacts environnementaux désastreux de l’IA.

      109 milliards d’euros en France dans les prochaines années annoncés par Emmanuel Macron, ainsi qu’un projet de méga data center cofinancé par les #Emirats_arabes_unis ; 500 milliards de dollars débloqués pour #Stargate (« la porte des étoiles ») et ses futurs data centers aux États-Unis par #OpenAI et #SoftBank ; 65 milliards de dollars par #Meta, la maison-mère de #Facebook, qui a par ailleurs démoli un centre de données en cours de construction pour le remplacer par un autre adapté aux besoins de l’IA. #Microsoft veut débourser 80 milliards de dollars en divers équipements techniques dans le même objectif.

      Secteur industriel en plein boom ou au bord d’une bulle financière, l’avenir le dira. Mais l’#empreinte_carbone et matérielle de la ruée mondiale vers les #données_numériques est, elle, déjà palpable. Une requête via #ChatGPT consomme dix fois plus d’électricité qu’une recherche Google, selon l’Agence internationale de l’énergie (AIE). Ses expert·es anticipent une explosion de la demande énergétique, équivalente à la consommation actuelle d’un pays comme la Suède ou même l’Allemagne – selon la place du curseur sur la fourchette d’estimation.

      Requêtes énergivores

      Pourquoi ? Deux explications principales semblent faire consensus parmi les spécialistes. D’abord, des raisons strictement matérielles : les #serveurs configurés pour l’#IA_générative utilisent beaucoup plus de courant électrique que leurs prédécesseurs. Notamment parce qu’ils utilisent des puces spécifiques, les #GPU (« # graphics_processing_unit », des #processeurs_graphiques), « qui ont des capacités de #calcul nécessaires à la #technologie d’apprentissage qui permet aux modèles d’IA d’améliorer leur performance, explique Loup Cellard, chercheur associé au médialab de Sciences Po. Une requête sur ChatGPT demande plus de mémoire vive et plus de capacité de #stockage qu’une simple recherche sur un moteur internet ».

      Or, chacun de ces services correspond à des besoins matériels supplémentaires. « Faire une requête ChatGPT pour demander un truc que pourrait donner Google, c’est comme couper votre baguette de pain avec une scie électrique : ça marche mais ça n’est pas la meilleure utilisation que vous pouvez faire des ressources », résume Sylvain Waserman, président de l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), selon qui « il serait absurde de s’opposer à l’IA et il est irresponsable de ne pas s’intéresser à ses impacts ».

      La phase d’entraînement des machines est plus intense en énergie à l’unité, car elles doivent être beaucoup stimulées pour ramasser et distribuer les données. Mais c’est bien sûr celle des usages qui finalement est la plus énergivore, car le nombre des utilisateurs de la technologie dépasse de loin celui des ingénieur·es qui la développent.

      Ainsi « la migration vers le cloud, l’essor de l’IA générative et les #cryptomonnaies sont les trois principaux vecteurs de la reconfiguration en cours des impacts des centres informatiques » selon l’association GreenIT, dont les rapports font référence. Les data centers, les cryptomonnaies et l’intelligence artificielle ont consommé près de 2 % de l’électricité mondiale en 2022, selon l’AIE. Cela peut sembler dérisoire. Mais la quantité d’électricité qu’ils consomment pourrait doubler en 2026 (par rapport à 2022). Il existe aujourd’hui plus de 8 000 centres de données dans le monde, principalement situés aux États-Unis.

      Les data centers adaptés aux besoins de l’intelligence artificielle consomment 18 % de l’électricité des centres informatiques, alors qu’ils n’en représentent que 2 % de la quantité dans le monde, selon les dernières estimations de GreenIT. Ils émettent près de 4 % de tout le CO2 de la filière numérique, soit déjà plus que l’ensemble des ordinateurs portables en circulation. Selon #France_Datacenter, le lobby du secteur, la demande supplémentaire liée à l’IA générative en France d’ici à dix ans sera de 1 gigawatt, l’équivalent d’un petit réacteur nucléaire.

      Mais les opérateurs de data centers n’aiment pas trop aborder le sujet de leurs impacts environnementaux. Interrogé par Mediapart sur ses besoins en électricité pour soutenir le développement de son activité, #Amazon_Web_Service (#AWS), la branche data center du Gafam, répond par la liste très détaillée de ses investissements et créations d’emplois à venir, sans un mot sur ses besoins énergétiques.

      « Avec l’IA, on pourrait changer d’échelle d’ici à 2030 en termes d’impact environnemental car ses serveurs ne représentent que 2 % des équipements et la demande est très importante pour les années à venir, constate Cécile Diguet, spécialiste des infrastructures numériques. Aujourd’hui, le numérique est un des secteurs qui nous mettent dans le rouge quant au respect des limites planétaires : consommation d’énergie, de ressources en minerais et terres rares, en eau. Les technologies et le numérique prétendent régler des problèmes qu’ils aggravent. Grâce à une IA, on pourra peut-être traiter une base de données plus vite ou mieux gérer la complexité de réseaux d’électricité. Mais en définitive, l’accumulation perpétuelle de matériels et de data centers fait que tous les gains en énergie sont consommés derrière. Le numérique n’est pas source de sobriété. »

      C’est particulièrement vrai concernant les quantités de minerais utilisés pour fabriquer les équipements (centres de données mais aussi puces et autres composants) nécessaires à l’IA – et les déchets en résultant. Ils sont la « colonne vertébrale » de l’intelligence artificielle, selon la chercheuse états-unienne Kate Crawford, qui appelle à créer un nouvel atlas du monde pour visualiser les besoins matériels, financiers et politiques de l’IA, qu’elle décrit comme un système « extractiviste » (Contre-Atlas de l’intelligence artificielle, Zulma, 2024).

      En Chine, l’institut de recherche sur le réseau électrique s’attend à ce que la demande en électricité des centres de données double d’ici à 2030 (par rapport à 2020). Cette consommation est dopée par l’expansion rapide de la 5G et de l’Internet des objets. Le concurrent chinois de ChatGPT, #DeepSeek, a été développé à moindre coût économique et avec moins de consommation énergétique, promettent ses fabricants. Mais personne n’est aujourd’hui en mesure de le vérifier.

      En Europe, le cas de l’#Irlande est spectaculaire : les data centers y représentent 17 % de toute la demande en électricité du pays. C’est autant que toute la consommation du résidentiel en ville. Si tous les projets de centres de données qui ont été approuvés sont menés à terme dans les prochaines années, ils utiliseraient 32 % de tout le courant électrique. Au #Danemark, qui mise aussi sur l’économie des data centers tout en soutenant une initiative européenne de réduction du CO2 du numérique, les centres de données pourraient avaler 20 % de l’électricité en 2026. Est-ce soutenable, alors que le Pacte vert européen fixe aux États l’objectif de réduire d’au moins 38 % leur consommation d’énergie finale d’ici à 2050 ? Pour la Commission européenne, la demande en électricité des data centers pourrait augmenter de 30 % dans l’Union entre 2018 et 2030.

      #Bilan_carbone désastreux

      Surtout que, malgré l’essor des énergies dites renouvelables dans le monde, les sources d’électricité du numérique restent globalement très émettrices en carbone. Apple et Google prétendent être neutres en impact climatique, mais c’est parce qu’ils achètent des crédits de compensation carbone, rappelle la chercheuse Kate Crawford. Elle cite l’exemple de la Chine, où l’industrie des centres de données tire à 73 % son électricité du charbon. En France, l’Ademe a dû revoir à la hausse l’empreinte carbone des data centers à 42 % du secteur du numérique, en intégrant les centres de données à l’étranger que font tourner les utilisateurs nationaux.

      En 2022, l’ensemble du secteur numérique a émis autant de CO2 que le secteur des poids lourds (un peu plus de 4 % de tous les rejets de carbone) dans l’Hexagone. Mais grâce à son électricité décarbonée, la France cherche à se positionner sur le marché des usines à données : « Les data centers en France, ce n’est pas comme aux États-Unis où on utilise du pétrole et du gaz. Ce sont des data centers propres », a prétendu Emmanuel Macron dimanche 9 février.

      Ainsi, entraîner le modèle #GPT3 de la firme OpenAI équivaudrait à conduire 112 voitures à essence pendant un an, selon des scientifiques cités dans AOC par les chercheurs Loup Cellard et Christine Parker. Ils y critiquent pourtant les méthodes d’évaluation des impacts de l’intelligence artificielle. Selon eux, les gains écologiques que permettrait « l’IA verte » sont surestimés et potentiels, alors que les impacts sont immédiats et réels. Les projets de récupération de chaleur pour chauffer une piscine, une résidence, une usine, un hôpital sont multiples et s’affrontent à des obstacles : niveau de température de sortie pas toujours assez haut, risque d’intermittence, etc. – voir aussi le rapport de l’ONG Beyond Fossil Fuels sur le sujet.

      « L’IA n’est pas une activité différente des autres, ajoute Loup Cellard. C’est une industrie capitaliste comme une autre, à laquelle se posent les mêmes questions de responsabilité environnementale, de calcul et de mise en visibilité de ses impacts. »

      À titre d’exemple, de nombreux opérateurs de data centers sont des #fonds_d’investissement_immobiliers (#Real_Estate_Investment_Trust, #Digital_Realty, #Equinix), comme le remarque l’Ademe. La multiplication de leurs constructions ainsi que l’augmentation de leur taille posent des problèmes d’#artificialisation et d’#urbanisme : quelle forme de villes annonce la multiplication des centres de données ? Qui a envie de vivre à côté d’un immeuble de serveurs et de ses stocks de fioul inflammable ? En France, un véritable cluster s’est développé à l’ouest de la #Seine-Saint-Denis (La Courneuve, Saint-Denis, Le Bourget, Dugny) et au nord de #Marseille.
      Parmi les effets déjà tangibles aujourd’hui : la consommation en #eau. Car les data centers doivent être refroidis. Plus ils grossissent et produisent de la chaleur, plus la quantité d’eau nécessaire à baisser leur température est importante. Cette question peut s’avérer critique en période de canicule, signale l’Ademe dans un avis de novembre dernier – en France, ses expert·es estiment qu’en fonction de leur système, ils peuvent consommer 2 litres d’eau par kilowattheure. Au prochain épisode de sécheresse, combien de personnes accepteront que leur data center continue d’être alimenté alors que leur eau potable est coupée ? Et qui décidera ?

      Ainsi #Thames_Water, principale compagnie britannique de distribution d’eau, a demandé aux opérateurs de data centers, notamment à #Google_Cloud et #Oracle, un plan de réduction de leur consommation, jugée excessive à l’été 2022 pendant un pic de chaleur. À Amsterdam, Microsoft a dû présenter un plan drastique de réduction de ses besoins en eau. Aux États-Unis, un des plus gros data centers en fonctionnement est celui de l’agence de renseignement NSA, qui s’étend sur plus de 100 000 mètres carrés dans l’Utah, une terre particulièrement exposée à la sécheresse. Il avale à lui tout seul plus de la moitié de la consommation de l’eau de l’État, autour de 60 %, selon une étude.

      Ouvrir le capot des IA ?

      Après avoir longtemps refusé de révéler la quantité de liquide absorbée par son data center, la NSA a finalement fait savoir en 2022 qu’il avait besoin de près de 90 millions de litres d’eau – soit 35 fois la piscine olympique de Paris 2024 – chaque mois. L’Utah mise sur l’industrie des centres de données et leur vend son eau à des prix battant toute concurrence. Les méga hangars à serveurs s’y multiplient – il y en a deux douzaines aujourd’hui. Mais le Grand Lac salé s’en ressent, selon les défenseurs de l’environnement qui s’inquiètent de le voir s’assécher. En novembre 2022, il a atteint son étiage le plus bas, au point de mettre en danger son écosystème, et notamment ses populations de crustacés, dont se nourrissent des millions d’oiseaux migrateurs.

      En France, l’Ademe estime que les data centers pourraient utiliser 6 % de l’électricité en 2050 – aujourd’hui, le numérique en dépense 11 %. Selon RTE, le gestionnaire des réseaux, les data centers en France pourraient tripler leur consommation d’électricité d’ici à 2035, passant d’environ 10 térawattheures aujourd’hui à 28, selon leur plus haute projection. Les demandes de raccordement de nouveaux centres de grande taille sont en très forte hausse depuis quatre à cinq ans, note l’Ademe, et dépassent de 8 gigawatts – soit plus de quatre réacteurs EPR.

      Son président, Sylvain Waserman, veut défendre la thèse « d’une IA française et européenne qui pourrait trouver un avantage concurrentiel en étant plus respectueuse des ressources ». Il estime que ce peut être une piste de différenciation face à des Gafam « qui jamais n’accepteront qu’on ouvre le capot pour étudier leur impact ».

      En attendant, le gouvernement vient de désigner 35 sites privilégiés pour y construire de nouveaux data centers : simplification des procédures administratives, possible dérogation aux obligations de débat public, réduction des délais de recours juridiques… Sans savoir si les industriels accepteront de communiquer sur leur empreinte énergétique, ils bénéficient d’ores et déjà d’une belle offre de dérégulation.

      https://www.mediapart.fr/journal/ecologie/100225/ia-un-puits-sans-fond-de-depenses-en-energie-en-eau-et-en-co2

    • #Antonio_Casilli : « L’intelligence artificielle est l’une des industries extractives de notre époque »

      Professeur de sociologie à Télécom Paris, à l’Institut Polytechnique de Paris, il est l’auteur d’En attendant les robots, enquête sur le travail du clic (Seuil, 2019), dont une version augmentée vient de paraître en anglais aux éditions University of Chicago Press. Antonio Casilli est aussi co-auteur du documentaire Les Sacrifiés de l’IA, qui se penche sur les conditions de production des technologies d’IA utilisées en Occident, et sera diffusé sur France 2 le 11 février.

      À cette occasion, et en parallèle du sommet pour l’action sur l’intelligence artificielle, Next l’a rencontré.

      (#paywall)

      https://next.ink/169487/antonio-casilli-lintelligence-artificielle-est-lune-des-industries-extractives

    • L’IA générative a le potentiel de détruire la planète (mais pas comme vous le pensez)

      Le risque premier avec l’intelligence artificielle n’est pas qu’elle s’attaque aux humains comme dans un scénario de science-fiction. Mais plutôt qu’elle participe à détruire notre #environnement en contribuant au #réchauffement_climatique.

      La course à l’intelligence artificielle (IA) s’intensifie. Le 9 février, veille du sommet de l’IA à Paris, Emmanuel Macron promettait 109 milliards d’euros d’investissements publics et privés dans cette technologie pour les années à venir. Il entend concurrencer les États-Unis sur ce terrain, en faisant référence au programme « #Stargate » promis par Donald Trump, qui prévoit des dépenses de 500 milliards de dollars (484 milliards d’euros) dans l’IA aux États-Unis.

      Des deux côtés de l’Atlantique, ces centaines de milliards seront principalement investis dans la construction de nouveaux centres de données pour entraîner puis faire fonctionner les outils d’intelligence artificielle. Pourtant, les impacts environnementaux de ces « data centers », mis de côté dans ce sprint à l’IA, présentent un danger réel pour notre planète.

      « Plus grand est le modèle, mieux c’est »

      L’ouverture au public de l’agent conversationnel d’OpenAI, ChatGPT, en novembre 2022 a marqué un tournant dans les usages de l’intelligence artificielle. Depuis, des dizaines d’IA génératives sont accessibles avec la capacité de résoudre des problèmes variés, allant de la rédaction d’un email professionnel à des suggestions de recette de tartes, en passant par des lignes de code informatique.

      Ces grands #modèles_de_langage (en anglais, « #Large_language_models », ou #LLM), avec un grand nombre de paramètres, se sont développés ces dernières années, comme #Gemini de #Google, #Le_Chat de l’entreprise française #MistralAI ou #Grok de #X. D’autres modèles permettent de créer de toutes pièces des images – on pense à #Dall-E ou #Midjourney –, des vidéos ou des chansons.

      Si leur utilisation est gratuite (bien que des versions payantes existent), le prix est payé non seulement par les utilisateurs dont les données personnelles sont captées, mais aussi par les populations les plus vulnérables au changement climatique. Avec leurs dizaines voire centaines de milliards de paramètres et des terabytes de données pour les alimenter, faire tourner les systèmes d’IA générative demande beaucoup de #puissance_de_calcul de #serveurs, situés dans des centres de données. Donc beaucoup d’#électricité.

      Ces chiffres ne font qu’augmenter à mesure que les modèles se perfectionnent. « Aujourd’hui, l’idée dominante dans l’industrie des modèles génératifs est : "Plus grand est le modèle, mieux c’est" », résument les chercheurs Paul Caillon et Alexandre Allauzen dans The Conversation. Malgré un manque de transparence des entreprises, la consommation d’électricité de leurs modèles et leur #impact_climatique ont fait l’objet d’estimations par nombre de chercheurs et institutions.

      Combien consomme une requête ChatGPT ?

      On sait déjà que la version de ChatGPT sortie en mars 2023, #GPT-4, a demandé plus de puissance de calcul que la précédente. Le Conseil économique et social (Cese), dans un avis de septembre 2024, cite OpenAI et explique : entraîner la troisième version de son modèle de langage a demandé l’équivalent de l’énergie consommée par 120 foyers américains. La version suivante a multiplié par 40 cette consommation, avoisinant la consommation de 5000 foyers.

      Selon une étude, début 2023, une requête ChatGPT consommait environ 2,9 Wh d’électricité, soit presque dix fois plus qu’une simple recherche Google (0,3 Wh). D’autres études estiment l’impact carbone d’une requête à ChatGPT autour de 4 à 5 grammes d’équivalent CO2.

      Produire une image, c’est pire. La startup #HuggingFace, à l’origine de l’IA #Bloom, a été l’une des premières à estimer les émissions de gaz à effet de serre de ces modèles. Dans une étude co-écrite avec l’Université états-unienne de Carnegie-Mellon, elle montre que la génération d’image est de loin la plus polluante des requêtes formulées à une IA générative (l’étude ne prend pas en compte les vidéos).

      Pour donner un ordre d’idée, générer 1000 images correspondrait à conduire environ 7 kilomètres avec une voiture essence. En comparaison, 1000 textes générés équivalent à moins d’un 1 mètre parcouru avec un même véhicule. Mais leur utilisation massive rend cet impact non négligeable. Selon le PDG d’OpenAI Sam Altman, à la fin de l’année 2024, plus d’un milliard de requêtes étaient envoyées à ChatGPT par jour.

      En janvier 2023, soit quelques mois après qu’elle a été rendue accessible au public, ChatGPT avait accumulé 100 millions d’utilisateurs. Selon une estimation de Data for Good, rien que ce mois-là, l’utilisation de ChatGPT aurait pollué à hauteur de 10 113 tonnes équivalent CO2 – soit environ 5700 allers-retours en avion entre Paris et New York.

      En décembre 2024, selon son PDG, le service avait atteint les 300 millions d’utilisateurs… par semaine. Et ce, avec une version bien plus performante – donc bien plus polluante – que la précédente.

      De plus en plus de personnes utilisent l’IA au quotidien, et pour de plus en plus de tâches. Installés dans nos smartphones, accessibles en ligne ou même intégrés dans les frigos haut de gamme, les outils d’intelligence artificielle sont presque partout.

      Une explosion de la consommation d’électricité

      Selon l’Agence internationale de l’énergie, les centres de données représenteraient aujourd’hui environ 1 % de la consommation d’électricité mondiale. Mais cette consommation risque d’augmenter avec les usages croissants et le développement de nouveaux modèles d’IA. Selon l’agence, la consommation des centres de données pour l’IA et les cryptomonnaies a dépassé 460 TWh en 2022. C’est autant que la consommation de la France. D’ici l’année prochaine, selon les scénarios, cette demande en électricité pourrait augmenter de 35 % (160 TWh en plus) à 130 % (590 TWh) ! « Soit l’équivalent d’au moins une Suède et au maximum une Allemagne » de plus dans le monde en quelques années.

      Une autre étude de l’ONG Beyond Fossils Fuels est encore plus alarmiste : « Au cours des six prochaines années, l’explosion de la demande en énergie des centres de données dans l’UE [Union européenne] pourrait entraîner une hausse de 121 millions de tonnes des émissions de CO2, soit presque l’équivalent des émissions totales de toutes les centrales électriques au gaz d’Italie, d’Allemagne et du Royaume-Uni en 2024 combinées » écrit l’ONG en février 2025.

      Les grandes entreprises de la tech cherchent à faire oublier leurs promesses écologiques. Selon le Financial Times, dans un article d’août 2024, les Gafam tentent de remettre en cause les règles de « zéro carbone net » qui leur permettent de compenser leurs émissions de CO2 par le financement d’énergies renouvelables (des règles déjà critiquées pour leur mode de calcul qui dissimule une grande partie de l’impact carbone réel de leurs consommation d’électricité).

      « Ces géants de la technologie sont sur le point de devenir les plus gros consommateurs d’énergie de demain, dans leur course au développement d’une intelligence artificielle énergivore », écrit le média britannique. Les émissions de gaz à effet de serre de Google augmentent par exemple de 13% par an (selon des chiffres de 2023). Une hausse notamment portée par l’augmentation de la consommation d’énergie de ses centres de données. Les émissions de #Microsoft ont bondi de 29 % entre 2020 et 2023.

      Des investissements massifs aux dépens des populations

      Les chefs d’État des États-Unis comme de la France ont pourtant annoncé des investissements massifs dans l’IA pour les années à venir. L’Union européenne, par la voix d’Ursula von der Leyen, a également annoncé un investissement de 200 milliards en partenariat avec de grands groupes.

      Dans les trois cas, ces centaines de milliards d’euros sur la table serviront majoritairement à construire des centres de données pour permettre l’entraînement puis l’utilisation de ces technologies. En France, en amont du sommet de l’IA, le fonds canadien Brookfield a annoncé investir 15 milliards d’euros dans la construction de centres de données, tandis que les Émirats arabes unis ont mis entre 30 et 50 milliards sur la table pour la construction d’un centre de données géant.

      Il est peu probable que cette consommation d’électricité massive ne se fasse pas au détriment des populations. En Irlande, les centres de données monopolisent une part grandissante de l’électricité du pays, ils représentent aujourd’hui plus de 20 % de sa consommation. Cette situation crée des tensions avec les habitants, qui voient leurs factures augmenter alors que la consommation des ménages n’augmente pas.
      Des engagements « durables » non contraignants

      Aux États-Unis, raconte un article de Vert, Microsoft va rouvrir le premier réacteur de la centrale nucléaire de Three Mile Island, site d’un accident en 1979 qui avait irradié toute cette partie de la Pennsylvanie et traumatisé les habitants. Les géants de la Tech – Google, Amazon et Microsoft en tête – cherchent également à investir dans les « petits réacteurs modulaires » nucléaires, en cours de développement, pour alimenter leurs centres de données, ce qui pose la question de la sûreté d’une multitude de petites installations nucléaires face au risque d’accidents. Autre conséquence : le retour en grâce du charbon, fortement émetteur en gaz à effet de serre. Dans l’État de Géorgie, la promesse faite il y a trois ans de fermer toutes ses centrales à charbon a été abandonnée pour répondre au pic de demande d’électricité créé par les centres de données.

      Face à ces risques pour les populations locales comme pour celles les plus vulnérables au changement climatique dans le monde entier, les actions semblent faibles. Une déclaration d’intention a été signée à l’issue du sommet de l’IA, notamment avec l’Inde et la Chine. Il prévoit entre autres la création d’un observatoire de l’impact énergétique de l’IA, sous la responsabilité de l’Agence internationale de l’énergie. Il planifie également la création d’une « coalition pour l’IA durable » avec de grandes entreprises du secteur.

      Ces engagements en matière d’intelligence artificielle signés par les États et les entreprises présentes ne sont pas contraignants, et ne sont pas tournés vers l’action immédiate. De plus, ni le Royaume-Uni ni les États-Unis, qui concentre un tiers des centres de données du monde, n’ont signé ce texte.

      https://basta.media/l-ia-generative-a-le-potentiel-de-detruire-la-planete-mais-pas-comme-vous-l

      #schéma #visualisation #comparaison

    • Comment l’intelligence artificielle et ses data centers s’accaparent l’eau

      La consommation d’eau de l’intelligence artificielle est souvent oubliée des discussions sur l’impact de cette technologie. Pourtant, les centres de données consomment chaque année des milliards de mètres cubes d’eau – et cela risque d’empirer.

      Google a soif. En 2023, les centres de données et les bureaux de la multinationale du numérique ont à eux seuls englouti 24 milliards de litres d’eau – dont la grande majorité utilisée par les data centers. C’est l’équivalent de la consommation d’eau annuelle d’environ 453 000 Français. La question des besoins en eau est l’un des grands enjeux environnementaux du numérique. Il est amplifié par le développement rapide et incontrôlé de l’intelligence artificielle (IA).

      Chaque année, les grandes entreprises de la tech augmentent de dizaines de pourcents leur consommation d’eau. Entre 2021 et 2022, Microsoft a accru de 34 % la quantité d’eau utilisée pour ses activités, et Google de 20 %. Cela représente des milliards de litres d’eau, en grande partie potable, prélevés en plus chaque année. La course au développement d’intelligences artificielles toujours plus performantes – et donc toujours plus polluantes – participe à cette augmentation. Rien que l’entraînement de GPT-3 (la version en usage jusqu’à mars 2023 du robot conversationnel d’OpenAI) aurait consommé 700 000 litres d’eau dans les centres de données de Microsoft basés aux États-Unis.
      Des centres de données géants dans des régions en proie à la sécheresse

      Les ressources en eau globales sont déjà mises en danger par le réchauffement climatique. De nombreuses régions du monde sont en stress hydrique : l’accès à l’eau y est limité, si ce n’est difficile. Selon des estimations de chercheurs, partagées par The Washington Post, un grand centre de données – comme ceux des Gafam – peut consommer entre 3,8 et 19 millions de litres d’eau par jour.

      Ces millions de litres sont utilisés pour produire l’électricité qui les alimente, mais aussi, pour environ un quart, directement pour le refroidissement des serveurs de ces centres de données. Si cela représente encore une faible partie de la consommation d’eau à l’échelle mondiale, les conséquences locales se font souvent déjà sentir. Le journal américain cite l’exemple de la commune de The Dalles, dans l’Oregon, où Google s’accapare plus d’un quart de l’eau de la petite ville.

      Le refroidissement par l’eau est brandi comme argument écologique par les grandes entreprises. Google, par exemple, s’est vanté d’avoir réduit son empreinte carbone de 300 000 tonnes de CO2 en 2021 grâce à des centres de données refroidis par de l’eau plutôt qu’avec de l’air conditionné. Malgré ses promesses de plus grande responsabilité écologique, deux ans plus tard encore, plus de 30 % de l’eau utilisée venait de zones où les risques de pénurie d’eau sont considérés comme moyens ou élevés.

      En Espagne, à une centaine de kilomètres de Madrid, la ville de Talavera de la Reina s’apprête à accueillir un centre de données de 191 hectares, propriété de Meta (la maison-mère de Facebook et Instagram). Depuis 2022, une trentaine de projets similaires ont été lancés dans le pays, rapporte le média indépendant espagnol elDiario.es. Dans la région de l’Aragón, « la situation est grave : 146 000 hectares ne peuvent être cultivés et 175 000 autres sont gravement endommagés par le manque d’eau ». C’est pourtant là qu’Amazon a décidé d’investir 15,7 milliards d’euros pour installer ses centres de données « hyperscale », autrement dit de très grande taille.
      « 4,2 à 6,6 milliards de mètres cubes d’eau en 2027 »

      Amazon tente de montrer patte blanche, promettant un approvisionnement électrique provenant à 100 % d’énergies renouvelables, mais des mouvements écologistes s’opposent vivement à ce projet. « Nous refusons le discours selon lequel cette méga-infrastructure serait bénigne pour les territoires, bien au contraire. Les dégâts écologiques et sociaux causés par le déploiement massif de centres de données peuvent déjà être observés dans d’autres territoires tels que la Virginie (États-Unis), le Mexique, l’Irlande et les Pays-Bas », écrit Tu Nube Seca Mi Río (« Ton nuage assèche ma rivière »).

      « La consommation directe d’eau pour le refroidissement représentera la moitié de la consommation totale d’eau de la ville de Saragosse (plus de 300 000 personnes et ses commerces et entreprises) et aurait permis d’irriguer 170 hectares de terres, [et ce,] si les chiffres avancés par projet sont respectés, ce qui semble fort peu probable. » Le collectif, qui agrège plusieurs associations écologistes espagnoles, dénonce les conséquences multiples qu’auront ces data centers pour l’accès à l’eau dans la région, tant pour l’agriculture, pour les populations que dans la lutte contre les incendies, de plus en plus fréquents. Tu Nube Seca Mi Río alerte aussi sur le danger pour la faune locale.

      Ce risque n’est pas présent qu’à l’étranger. En France, à Marseille, le collectif Le nuage était sous nos pieds – composé notamment de la Quadrature du Net – dénonce « la quasi-absence des enjeux environnementaux et territoriaux des infrastructures du numérique dans le débat public », entre autres quand il est question de la construction de nouveaux data centers. « Le méga-ordinateur surchauffe, renvoie l’air ou l’eau chaude dans une ville déjà trop souvent sujette à la canicule, pompe des quantités astronomiques d’eau et d’électricité sur le réseau public, et ne génère pratiquement aucun emploi direct », résument-ils, face à un nouveau projet de l’entreprise Digital Realty dans la ville.

      Le développement et la massification de l’utilisation de l’intelligence artificielle entraînent les entreprises dans une course effrénée à la construction de centres de données, sans considérer les conséquences écologiques et sociales. Selon une étude menée par des chercheurs et chercheuses de l’Université de Cornell, aux États-Unis, en 2023, « la demande mondiale en IA devrait représenter 4,2 à 6,6 milliards de mètres cubes d’eau en 2027, soit plus que le prélèvement annuel total d’eau de quatre à six Danemark ou de la moitié du Royaume-Uni ».

      https://basta.media/comment-intelligence-artificielle-IA-data-centers-gafam-s-accaparent-eau

    • Big tech’s water-guzzling data centers are draining some of the world’s driest regions

      #Amazon, #Google, and #Microsoft are expanding data centers in areas already struggling with drought, raising concerns about their use of local water supplies for cooling massive server farms.

      In short:

      - The three largest cloud companies are building or operating 62 data centers in regions facing water scarcity, including in Spain, #Arizona, and other drought-prone areas across five continents.
      - Amazon’s new centers in Spain’s #Aragon region are licensed to use enough water to irrigate hundreds of acres of farmland annually, and the company has requested a 48% increase in water for its existing sites.
      – Tech firms promise to become “water positive” by 2030, but experts and even internal critics say offsetting water use elsewhere doesn’t solve shortages in the communities where centers operate.

      Key quote:

      “Neither people nor data can live without water. But human life is essential and data isn’t.”

      — Aurora Gómez, Tu Nube Seca Mi Río

      Why this matters:

      Data centers are the invisible engines of the internet — processing everything from emails to AI, video calls to cloud storage — but they come with a physical footprint. That footprint includes massive energy use and a surprising dependence on fresh water to keep machines cool. In places where droughts are worsening with climate change, the demands of these centers are clashing with local needs for drinking water and agriculture. Some of these regions are already edging toward desertification, and water-intensive industries like tech may tip them further. Critics worry that promises of sustainability are greenwashing efforts that mask the environmental costs of maintaining digital infrastructure.

      https://www.dailyclimate.org/big-techs-water-guzzling-data-centers-are-draining-some-of-the-worlds-
      #Espagne

    • Big tech’s new datacentres will take water from the world’s driest areas

      Amazon, Google and Microsoft are building datacentres in water-scarce parts of five continents
      Luke Barratt, Costanza Gambarini and data graphics by Andrew Witherspoon and Aliya Uteuova
      Wed 9 Apr 2025 13.30 CEST
      Last modified on Wed 9 Apr 2025 17.40 CEST

      Amazon, Microsoft and Google are operating datacentres that use vast amounts of water in some of the world’s driest areas and are building many more, the non-profit investigatory organisation SourceMaterial and the Guardian have found.

      With Donald Trump pledging to support them, the three technology giants are planning hundreds of datacentres in the US and across the globe, with a potentially huge impact on populations already living with water scarcity.

      “The question of water is going to become crucial,” said Lorena Jaume-Palasí, founder of the Ethical Tech Society. “Resilience from a resource perspective is going to be very difficult for those communities.”

      Efforts by Amazon, the world’s largest online retailer, to mitigate its water use have sparked opposition from inside the company, SourceMaterial’s investigation found, with one of its own sustainability experts warning that its plans are “not ethical”.

      In response to questions from SourceMaterial and the Guardian, spokespeople for Amazon and Google defended their developments, saying they always take water scarcity into account. Microsoft declined to provide a comment.

      Datacentres, vast warehouses containing networked servers used for the remote storage and processing of data, as well as by information technology companies to train AI models such as ChatGPT, use water for cooling. SourceMaterial’s analysis identified 38 active datacentres owned by the big three tech firms in parts of the world already facing water scarcity, as well as 24 more under development.

      https://www.theguardian.com/environment/2025/apr/09/big-tech-datacentres-water

      Datacentres’ locations are often industry secrets. But by using local news reports and industry sources Baxtel and Data Center Map, SourceMaterial compiled a map of 632 datacentres – either active or under development – owned by Amazon, Microsoft and Google.

      It shows that those companies’ plans involve a 78% increase in the number of datacentres they own worldwide as cloud computing and AI cause a surge in the world’s demand for storage, with construction planned in North America, South America, Europe, Asia, Africa and Australia.

      In parts of the world where water is plentiful, datacentres’ high water usage is less problematic, but in 2023 Microsoft said that 42% of its water came from “areas with water stress”, while Google said 15% of its water consumption was in areas with “high water scarcity”. Amazon did not report a figure.

      Now these companies plan to expand their activities in some of the world’s most arid regions, SourceMaterial and the Guardian’s analysis found.

      “It’s no coincidence they are building in dry areas,” as datacentres have to be built inland, where low humidity reduces the risk of metal corrosion, while seawater also causes corrosion if used for cooling, Jaume-Palasí said.
      ‘Your cloud is drying my river’

      Amazon’s three proposed new datacentres in the Aragon region of northern Spain – each next to an existing Amazon datacentre – are licensed to use an estimated 755,720 cubic metres of water a year, roughly enough to irrigate 233 hectares (576 acres) of corn, one of the region’s main crops.

      In practice, the water usage will be even higher as that figure doesn’t take into account water used to generate the electricity that will power the new installations, said Aaron Wemhoff, an energy efficiency specialist at Villanova University in Pennsylvania.

      Between them, Amazon’s new datacentres in the Aragon region are predicted to use more electricity than the entire region currently consumes. Meanwhile, Amazon in December asked the regional government for permission to increase water consumption at its three existing datacentres by 48%.

      Opponents have accused the company of being undemocratic by trying to rush through its application over the Christmas period. More water is needed because “climate change will lead to an increase in global temperatures and the frequency of extreme weather events, including heat waves”, Amazon wrote in its application.

      “They’re using too much water. They’re using too much energy,” said Aurora Gómez of the campaign group Tu Nube Seca Mi Río – Spanish for “Your cloud is drying my river” – which has called for a moratorium on new datacentres in Spain due to water scarcity.

      Spain has seen rising numbers of heat-related deaths in extreme weather events linked by scientists to the climate crisis. Last month, Aragon’s government asked for EU aid to tackle its drought.

      Farmer Chechu Sánchez said he’s worried the datacentres will use up water he needs for his crops.

      “These datacentres use water that comes from northern Aragon, where I am,” he said. “They consume water – where do they take it from? They take it from you, of course.”

      With 75% of the country already at risk of desertification, the combination of the climate crisis and datacentre expansion is “bringing Spain to the verge of ecological collapse”, Jaume-Palasí said.

      Asked about the decision to approve more datacentres, a spokesperson for the Aragonese government said they would not compromise the region’s water resources because their impact is “imperceptible”.
      Water offsetting

      Amazon does not provide overall figures for the water its datacentres use worldwide. But it does claim that it will be “water positive” by 2030, offsetting its consumption by providing water to communities and ecosystems in areas of scarcity elsewhere.

      Amazon says it is currently offsetting 41% of its water usage in areas it deems unsustainable. But it’s an approach that has already caused controversy inside the company.

      “I raised the issue in all the right places that this is not ethical,” said Nathan Wangusi, a former water sustainability manager at Amazon. “I disagreed quite a lot with that principle coming from a pure sustainability background.”

      Microsoft and Google have also pledged to become “water positive” by 2030 through water offsetting, as well as finding ways to use water more efficiently.

      Water offsetting ca not work in the same way as carbon offsetting, where a tonne of pollutants removed from the atmosphere can cancel out a tonne emitted elsewhere, said Wemhoff, the Villanova University specialist. Improving access to water in one area does nothing to help the community that has lost access to it far away.

      “Carbon is a global problem – water is more localised,” he said.

      Amazon should pursue water accessibility projects “because it’s the right thing to do”, not to offset the company’s usage and make claims about being “water positive”, Wangusi said.

      In March, Amazon announced that it would use AI to help farmers in Aragon use water more efficiently.

      But that is “a deliberate strategy of obfuscation” that distracts from the company’s request to raise water consumption, said Gómez, the campaigner.

      Amazon said its approach shouldn’t be described as offsetting because the projects are in communities where the company operates.

      “We know that water is a precious resource, and we’re committed to doing our part to help solve this challenge,” said Harry Staight, an Amazon spokesperson. “It’s important to remember many of our facilities do not require the ongoing use of water to cool operations.”
      ‘Extreme drought’

      Amazon is by far the biggest owner of datacentres in the world by dint of its Amazon Web Services cloud division, but Google and Microsoft are catching up.

      In the US, which boasts the largest number of datacentres in the world, Google is the most likely to build in dry areas, SourceMaterial’s data shows. It has seven active datacentres in parts of the US facing water scarcity and is building six more.

      “We have to be very, very protective around the growth of large water users,” said Jenn Duff, a council member in Mesa, Arizona, a fast-growing datacentre hub. In January, Meta, the owner of Facebook, WhatsApp and Instagram, opened a $1bn datacentre in the city, and Google is developing two more.

      The surrounding Maricopa county, where Microsoft also has two active datacentres, is facing “extreme drought”, according to the National Oceanic and Atmospheric Administration. In June 2023, Arizona state officials revoked construction permits for some new homes there due to a lack of groundwater.

      Drought has not halted Google’s plans for a second Mesa datacentre, while its first centre has a permit to use 5.5m cubic metres of water a year – about the same quantity used by 23,000 ordinary Arizonans.

      “Is the increase in tax revenue and the relatively paltry number of jobs worth the water?” said Kathryn Sorensen, an Arizona State University professor and a former director of Mesa’s water department. “It is incumbent on city councils to think very carefully and examine the trade-offs.”

      Google said it won’t use the full amount of water in its Mesa permit as it plans to use an air cooling system.

      “Cooling systems are a hyperlocal decision – informed by our data-driven strategy called ‘climate-conscious cooling’ that balances the availability of carbon-free energy and responsibly sourced water to minimise climate impact both today and in the future,” said Google spokesperson Chris Mussett.
      Stargate

      In January at the White House, Trump announced “Project Stargate”, which he called “the largest AI infrastructure project in history”.

      Starting in Texas, the $500bn joint venture between OpenAI, the American software company Oracle, Japan-based SoftBank and Emirati investment firm MGX will finance datacentres across the US.

      The day before the Stargate announcement, Trump’s inauguration date, the Chinese company DeepSeek launched its own AI model, claiming it had used far less computing power – and therefore less water – than its western rivals.

      More recently, Bloomberg has reported that Microsoft is pulling back on some of its plans for new datacentres around the world. Microsoft has also published plans for a “zero water” datacentre, and Google has said it will incorporate air cooling to reduce water use – though it isn’t yet clear how its systems will work.

      “I’ll believe it when I see it,” said Jaume-Palasí. “Most datacentres right now are going from air cooling to water cooling because liquid is more efficient when you try to cool down high-density racks, which are the ones that are mostly being used for AI.”

      And while the Trump administration has pledged to fast-track new energy projects to power these new datacentres, it has so far said nothing about the water they could use up.

      “Neither people nor data can live without water,” said Gómez. “But human life is essential and data isn’t.”

  • Les femmes, la nature et le patriarcat

    Chez certains peuples d’Amazonie, il reste le souvenir d’une époque où tous les êtres, humains et non-humains, parlaient la même langue et pouvaient s’entendre. À un moment donné, les humains ont commencé à considérer les autres êtres avec supériorité et arrogance, et ont cessé d’écouter. Avec le temps, il n’a plus éprouvé le besoin de comprendre les autres. Ils ont cessé de se considérer comme la nature et ont supposé qu’ils pouvaient imposer à tous leur point de vue, leur volonté et ce qu’ils considéraient comme leurs besoins. Ils ont oublié cette langue ancienne avec laquelle ils conversaient avec les arbres, la pluie, les oiseaux et d’autres êtres, dont beaucoup étaient invisibles. Ces façons de faire n’étaient pas partagées par les femmes, qui continuaient à comprendre les autres êtres comme faisant partie de la vie commune de tous ceux qui partageaient le territoire....

    https://entreleslignesentrelesmots.wordpress.com/2025/01/09/les-femmes-la-nature-et-le-patriarcat

    #feminisme #amazonie

  • Amazon Paused Rollout of Microsoft Office for a Year After Hacks - Bloomberg
    https://www.bloomberg.com/news/articles/2024-12-12/amazon-paused-rollout-of-microsoft-office-for-a-year-after-hacks

    Amazon.com Inc. has delayed the deployment of #Microsoft Corp.’s cloud-based #Office suite for a year as the two companies work to resolve Amazon concerns about the security of the bundle of email and productivity software.

    The tech giants signed a deal last year to provide #Amazon employees with Microsoft 365, the cloud-based package that includes Word, Outlook, Windows and other software. Amazon has long used versions of Office installed on its own servers.

  • L’#extractivisme, des marges amazoniennes au militantisme anticapitaliste

    Créée pour décrire l’économie de #cueillette constitutive des marges amazoniennes, la notion d’extractivisme a beaucoup évolué en un siècle : elle est devenue un mot-clef du militantisme, un condensé de critiques et d’impensés. Synonyme d’appropriation, d’exploitation… elle finit par ne plus dire ce qu’elle dénonce exactement et n’est plus appréciée que pour sa charge critique. Il est temps d’interroger les limites d’un concept à la dérive.

    Le suffixe -isme, en français, revêt diverses significations. Il peut désigner un système de pensée, que ce soit le communisme ou le libéralisme, une religion, le christianisme comme le bouddhisme, une activité, comme le journalisme et l’alpinisme, un comportement, que ce soit l’égoïsme ou l’autisme, une situation, comme l’analphabétisme ou l’anachronisme… Cette présentation n’est pas exhaustive ; l’-isme est particulièrement labile.

    Néanmoins, d’un mot à l’autre, d’un contexte à l’autre, l’ambiguïté n’est pas de mise. À chaque fois, on en comprend le sens. Pourtant, lorsqu’on interroge la notion d’extractivisme, dont l’usage actuel va croissant, on peine un peu à en saisir la connotation. Faut-il y voir simplement une pratique, une économie qui serait fondée sur l’extraction ? Ou bien une pensée, une doctrine qui légitimerait l’industrie extractive, voire l’encouragerait ?

    Le mot, rappelons-le, est originaire du Brésil : extrativismo en portugais. Son usage semble remonter à la fin des années 1930 – peut-être est-il antérieur. Il s’appliquait alors aux marges amazoniennes, là où on récoltait le #caoutchouc (#borracha), la #gomme_de_Balata (#balata), le #baume_d’Amazonie (#copaíba), la #noix_du_Brésil (#castenha), la #fève_tonka (#cumaru), diverses espèces de #bois… C’était avant tout une #économie_de_cueillette.

    Le mot portugais dérive lui-même d’une #catégorisation économique qui remonte au XIXe siècle, et plus précisément d’une proposition avancée en 1842 par #Charles_Dunoyer dans le Journal des économistes : « On a voulu aussi les assimiler à l’#industrie_agricole ; mais encore le moyen de confondre avec l’art de la culture celui de la pêche, de la chasse ou de l’exploitation des mines ? Toutes les industries de la classe dont il s’agit ici remplissent une fonction qui leur est propre, et qui se distingue nettement de celles accomplies par les trois autres grandes classes : elles extraient mécaniquement du sein des eaux, des bois, de l’air, de la terre, sans leur faire subir d’ailleurs aucune façon déterminée, des matériaux innombrables, qui servent ensuite à l’exercice d’une multitude d’arts. Je demande la permission de les désigner par un nom pris de la fonction même qu’elles remplissent, et d’en former, sous le nom d’industries extractives, une classe tout à fait séparée »[1] – industrie étant ici à entendre au sens ancien et général d’activité économique. C’est ainsi que, dans les années 1930, le ministère de l’Agriculture brésilien comportait un département consacré spécialement aux « plantes extractives et industrielles » (Secção de Plantas Extrativas e Industriais).

    La question est donc légitime de savoir ce qui distinguerait l’extractivisme de l’#économie_extractive en général, ou de comprendre la connotation apportée par le mot extrativismo.

    Or peu d’auteurs, pour ne pas dire aucun, ont pris le temps, au milieu du XXe siècle, de définir ce qu’était l’extractivisme. Son usage s’est imposé comme une évidence lorsqu’il s’est agi de parler de l’activité de cueillette dans les provinces amazoniennes du #Brésil. De fait, on peut penser que le sens du mot était précisément là pour désigner une économie primaire, exclusivement extractive et non productive.

    En cela, le terme n’était peut-être pas dénué de connotation péjorative, soulignée parfois par l’ajout de l’adjectif « pur » : #puro_extrativismo, comme dans ce discours du président brésilien #Gaspar_Dutra en mars 1947 : « La nécessité d’une solution adéquate aux immenses problèmes de l’Amazonie me semble d’autant plus urgente qu’il est certain que ses conditions de vie difficiles s’aggravent de jour en jour. Les habitants travailleurs de cette région lointaine sont confrontés à des difficultés sans précédent, qui découlent d’une multitude de facteurs négatifs, tels que, entre autres, la pénurie démographique, l’immensité du territoire, l’éloignement des principaux centres de production et de consommation du pays, une économie primaire de pur extractivisme forestier [puro extrativismo florestal], une structure économique et sociale à la merci des fluctuations des prix de ses matières premières essentielles[2]. »

    L’extractivisme est, fondamentalement, une activité économique des #marges_forestières du Brésil. Il n’y a nulle idéologie dans le mot, mais un simple constat, une manière de désigner une forme de sous-développement économique, précaire et nomade, qu’on oppose à l’#agriculture, « seule manière de fixer l’homme à la terre », ou à la #sylviculture, qui permettrait une exploitation moins destructrice.

    En 1982, #Alfredo_Homma avait introduit une distinction entre « #extractivisme_de_collecte » (#extrativismo_de_coleta), qui préserve – plus ou moins – les ressources, et « extractivisme par #annihilation ou #déprédation » (extrativismo por aniquilamento ou depreção), qui les détruit, immédiatement ou à court terme[3]. L’extractivisme pouvait-il être une économie durable ? En un sens, cela a été le combat des #seringueiros durant les années 1980. Ils cherchaient à maintenir leur activité face à une #déforestation croissante. La figure la plus connue de cette résistance est #Chico_Mendes, qui a été assassiné en 1988. Il avait créé le #Conselho_Nacional_dos_Seringueiros dont la revendication principale était la création de zones forestières, pour des motifs à la fois environnementaux, économiques, sociaux et culturels. Ces #réserves_extractivistes (reservas extractivistas) devaient permettre de préserver un espace naturel et un mode d’exploitation considéré comme non prédateur.

    Quatre grandes réserves extractivistes furent créées en 1990 dans le cadre du programme national pour l’environnement, puis d’autres, de moindre importance, dans les années qui ont suivi. Cela correspondait parfaitement à la logique de développement durable qui venait d’être formulée dans le #rapport_Brundtland de 1987 et qui fut reprise par la #déclaration_de_Rio sur le développement et l’environnement en 1992. Ainsi, l’extractivisme amazonien était la version acceptable d’une #exploitation dont on commençait à dénoncer les excès, voire la solution à la déforestation. Pour Florence Pinton et Catherine Aubertin, « la réputation écologique de l’extractivisme s’est construite à partir du repoussoir que représentent les désastres enregistrés par les différents programmes d’occupation de l’Amazonie »[4].

    Mais depuis une vingtaine d’années, le terme a connu une évolution notable dans ses usages. Il s’est chargé d’une forte valeur critique, à la fois décoloniale et environnementale.

    Dès le départ, l’extractivisme implique que l’activité de transformation se fasse ailleurs. Il y a une logique spatiale, et coloniale. Les ressources sont collectées afin d’être acheminées vers des centres de production, au Brésil, en Amérique du Sud, voire dans les centres industriels d’Amérique du Nord ou d’Europe. C’est vrai pour le latex, mais aussi pour l’or ou d’autres ressources car l’extractivisme peut être végétal, animal ou bien minier. L’Amazonie est ainsi devenue un territoire menacé par l’#exploitation_pétrolière[5]. Mais les exemples sont multiples, au Niger, au Cameroun, au Groenland…

    Le dernier livre de Justine Augier, Personne morale, dans lequel elle fait le récit des errances de l’entreprise Lafarge, prête aux pires compromissions pour garantir l’extraction de pétrole en Syrie au moment de la montée en puissance de Daech, ne serait qu’un exemple parmi tant d’autres des errances d’un système où le profit semble pouvoir tout justifier, au détriment des populations locales. Les exactions commises par les soldats chargés de protéger le site gazier de Total au Mozambique montrent bien la violence d’un capitalisme dont les activités extractives constituent la base.

    L’extractivisme, en ce sens, est devenu synonyme d’#appropriation et a été employé dans des domaines pour le moins éloignés du contexte initial. Pascal Marichalar considère, par exemple, que l’installation de télescopes sur des montagnes du Chili ou de Hawaï, sur des terres prises aux populations locales dans des contextes coloniaux, justifie l’expression d’« #extractivisme_scientifique ». Stricto sensu, il n’y a évidemment aucune extraction, mais une #dépossession de #montagnes qui avaient souvent une valeur – non marchande – pour les populations autochtones. Autre exemple : sur la base du rapport rédigé par Felwine Sarr et Bénédicte Savoy, en 2018, sur la restitution du patrimoine culturel africain, Aksel Kozan n’hésite pas à parler d’« #extractivisme_patrimonial »[6].

    Que les #conquêtes_coloniales aient été l’occasion de multiples #spoliations patrimoniales ne fait pas question, qu’on parle d’extractivisme, en revanche, interroge car cela réduirait les objets pillés à de simples ressources, à des #matières_premières, alors que leur intérêt tient précisément à leur valeur culturelle.

    Parallèlement à cette évolution, le terme d’extractivisme a été pensé comme une forme d’extraction à outrance, une #exploitation_intensive. On pourrait presque se demander si certains auteurs, par extractivisme, n’entendent pas quelque chose comme #extractivissime, autrement dit, s’ils ne font pas du suffixe -isme une sorte de superlatif. Mais peut-être est-ce surinterpréter.

    En tout cas, la notion semble comprise comme désignant une #idéologie qui justifierait l’extraction, « quelque chose comme un “goût pour l’extraction” », écrit Anna Bednik[7]. En ce sens, l’extractivisme serait l’envers du #productivisme. Sauf que les deux mots n’ont pas la même histoire ni la même connotation. Productivisme a été forgé en France par Ernest Solvay à la toute fin du XIXe siècle. Produire plus était un objectif souhaitable afin d’apporter la prospérité au plus grand nombre. Or, on l’a vu, ce n’est pas le cas de l’extractivisme, dont l’extraction n’est pas un but en soi. C’est même plutôt un contresens. Les activités extractives ne font qu’alimenter le système productif, elles en sont la conséquence, non la cause. Attaquer l’extractivisme ne détournerait-il pas la critique de sa cible principale : le productivisme, voire le capitalisme lui-même, si tant est que le productivisme serait le propre du capitalisme, ce qu’on pourrait discuter.

    Le mot est mobilisé pour désigner des situations extractives qui ne situent plus uniquement dans des territoires autrefois colonisés, mais qui seraient aussi dans des pays du Nord. Les récents projets miniers en France peuvent-ils être considérés comme de l’extractivisme ? Qu’en est-il des activités extractives menées par la Chine sur son propre territoire ? Il ne s’agit absolument pas de justifier les dégradations environnementales provoquées par nombre de ces exploitations, mais d’interroger les limites d’un concept qui semble parfois à la dérive. Quand passerait-on de l’extraction à l’extractivisme ? Existe-t-il une forme acceptable d’activité extractive ? À se focaliser uniquement sur les lieux d’extraction, le risque est non nul de céder à des logiques de NIMBY, « not in my back yard » [pas dans mon jardin, ndlr]. Peut-il y avoir production sans extraction ? Les questions sont multiples, et la prudence peut-être pas inutile.

    Personne ne peut se prétendre berger des mots, mais on peut parfois s’interroger sur certains effets de mode. En à peine un siècle, extractivisme a beaucoup évolué : il est devenu un mot-clé, un condensé de critiques et un raccourci d’impensés. Synonyme d’appropriation, d’exploitation, de déprédation, il finit par ne plus dire ce qu’il dénonce exactement et semble surtout être apprécié pour la charge dénonciatrice qu’il porterait, un mot neuf pour une critique ancienne. Le géographe allemand Ernst Friedrich, en 1904, avait un mot pour dire tout cela : die #Raubwirtschaft, l’#économie_de_pillage[8] !

    Car le constat d’une économie déprédatrice n’est pas nouveau. Qu’on m’excuse de terminer par une très longue citation, empruntée à Franz Schrader, géographe français, cousin d’Élisée Reclus. Elle est extraite de l’introduction à l’Atlas de géographie moderne, paru en 1889 chez Hachette, un livre a priori plutôt neutre, destiné à un public assez large. En une page, toute la violence de l’exploitation du système industriel européen à l’échelle de la planète y est décrite et dénoncée, avec ses conséquences en termes d’extraction. Mais Franz Schrader ne s’y trompe pas. C’est bien la question de la production à outrance qui est soulevée, d’une production considérée comme un objectif en soi et non comme un moyen.

    « Depuis le commencement de ce siècle, une partie de l’humanité a brusquement transformé ses rapports avec la planète. L’homme blanc, devenu pour ainsi dire un être nouveau, s’est créé une organisation factice qui bouleverse les conditions de sa vie traditionnelle, révolution dont il n’a pas encore mesuré toute l’importance et dont il nous est impossible de prévoir les résultats ultimes.

    « Depuis ce jour où, par l’invention du feu et des premiers outils, l’homme s’est nettement différencié des autres êtres vivants et a cessé d’être l’esclave de la Terre pour tendre à en devenir le maître, une élite intellectuelle a parcouru des étapes successives de culture, entraînant avec elle ou laissant en arrière diverses fractions de l’espèce humaine. À l’outil, qui complétait ou corrigeait les organes humains, a succédé la machine, qui les aide et leur prête sa force. Jusqu’au dix-neuvième siècle, l’homme a surtout demandé secours aux forces naturelles en pleine activité, au vent, à l’eau courante. Il se bornait à utiliser un mouvement déjà produit par le jeu de la vie planétaire. Au dix-neuvième, une fraction de l’humanité imagine de se faire non plus aider, mais remplacer. De substances inertes, houille, métaux, acides, eau surchauffée, etc., elle apprend à dégager des forces latentes, à les discipliner, à les obliger à l’action. Dès lors, tous les organes moteurs ou mécaniques de l’homme se transforment, se décuplent ou se centuplent. Sa puissance de locomotion s’accroît jusqu’aux vapeurs transocéaniques et jusqu’aux chemins de fer transcontinentaux. La portée de sa parole n’a plus de limites, le télégraphe la transporte autour du monde ; la vapeur, les substances explosibles donnent à son bras une force incalculable. Ce n’est plus l’homme des siècles passés, c’est un nouvel être, qui n’admet plus aucune résistance. Plus de limites à l’ambition de l’homme blanc, doublé de ses organes de métal, de sa vapeur, de son électricité. Ses télégraphes enserrent le globe, ses navires à vapeur raccourcissent les océans, ses rails veulent se poser partout ; qui n’en veut pas devra se soumettre, qui résiste sera brisé. Et l’Indien, le Nègre, l’Australien, le Chinois se voient avec terreur envahis, débordés par cette humanité nouvelle, avide, violente, inexorable, toujours plus pressée, haletante comme ses machines.

    « En effet, tandis que le moteur mécanique, sans cesse perfectionné, aide, déplace ou remplace le travailleur, change incessamment les conditions du travail, un appel se produit sur tous les points du globe, et la race blanche s’y précipite, transportant avec elle les mêmes besoins, la même activité, les mêmes machines, la même surexcitation cérébrale. […]

    « Un tel état de choses ne peut pas se développer indéfiniment. D’abord, la civilisation industrielle n’est pas un but, mais un moyen. Le jour où elle aura atteint le résultat qu’en attendent les esprits élevés, et donné à tout homme sa part de secours matériel, lui permettant ainsi de vivre d’une vie plus morale et plus intellectuelle, elle devra se borner, précisément pour ne pas détruire son œuvre. En outre, on ne fabrique que pour des besoins, et la capacité de consommation de l’humanité est forcément limitée. La force mécanique à l’œuvre sur le globe est déjà égale à celle d’un milliard d’hommes (1889), et elle ne cesse de s’accroitre. Amenât-on la population entière de la sphère terrestre à l’état de tributaire ou d’acheteur momentané, il est évident que cette force n’est pas appliquée dans des conditions normales. La civilisation industrielle dont nous admirons l’épanouissement n’est donc qu’une étape et devra prochainement se transformer.

    « Une loi inexorable, du reste, ne tardera pas à l’y obliger. Elle exploite trop avidement la terre, ne songe qu’à l’avenir immédiat, et arriverait à ruiner la planète elle-même.

    « Dans cette fièvre de fabrication ou d’utilisation à outrance, en effet, on demande de toutes parts au sol des produits rapides et immédiatement vendables, et on détruit sans réflexion toute production spontanée, naturelle, surtout la végétation forestière, trop lente à se renouveler.

    « C’est ainsi que presque toute la surface de la Terre va se dénudant avec une effrayante rapidité. Comme conséquence, le sol se délite, les montagnes se désagrègent, les sources tarissent, les fleuves s’appauvrissent ou débordent, le climat lui-même, privé des influences adoucissantes des vastes régions boisées, se détériore et se déséquilibre. En outre, les pays nouvellement ouverts à la culture tirent d’abord d’un sol vierge des récoltes abondantes, ruineuses par leur bon marché pour les pays de vieille culture. Mais bientôt ce sol auquel on a trop demandé s’appauvrit, tandis que des terres nouvelles se mettent en valeur à leur tour.

    « Chaque jour l’intensité du mouvement, l’activité de l’exploitation s’accroît ; par cela même approche le moment où l’homme, voyant son avidité le mener à des désastres irrémédiables, sera obligé de se rapprocher de la nature et de demander à la science, non plus la richesse immédiate, mais le salut. […]

    « Le remède, par bonheur, est à côté du mal. Les progrès de l’industrie ne sont que le résultat premier, matériel, du progrès général de la science ; ce progrès même doit amener une équilibration. L’homme use en ce moment de ses nouvelles forces comme un enfant qui dissipe son bien, le croyant inépuisable. L’âge de raison viendra, et l’humanité pensera alors à régler le présent de façon à sauvegarder l’avenir. Dans ce travail de régularisation, l’étude de la Terre aura la plus large place, car c’est de la Terre que tout vient, c’est à elle que tout retourne. Sans l’homme scientifiquement équilibré ne pourra pas lui rendre les alluvions descendues à la mer, ni ressusciter les peuples disparus, qui vraisemblablement leur place marquée dans l’harmonie de l’humanité ; et c’est un genre humain appauvri qui sera chargé de réparer sur une Terre appauvrie les fautes de notre imprévoyante génération[9]. »

    Où en sommes-nous aujourd’hui ? Nous ne sommes pas sortis de l’ère industrielle, la population humaine depuis la fin du XIXe siècle est passée d’environ 1,5 milliards d’habitants à plus de 8 milliards et nos besoins en matières premières ne cessent de croître. Le dernier rapport publié par le Programme des Nations unies pour l’environnement (PNUE) sur les ressources planétaires dresse un tableau très cru. L’extraction mondiale annuelle de matériaux est passée de 30,9 milliards de tonnes en 1970 à 95,1 milliards de tonnes en 2020 et devrait atteindre 106,6 milliards de tonnes en 2024. On l’estime à 160 milliards de tonnes au milieu du siècle. La moyenne mondiale de la demande de matériaux était de 8,4 tonnes par habitant en 1970, de 13,2 tonnes en 2024.

    Les minéraux non métalliques (dont le sable, le gravier, l’argile) sont devenus la catégorie la plus importante, avec 48 %, en 2024, contre 31 % en 1970, « signe d’une transition d’un métabolisme agraire basé sur la biomasse vers un métabolisme industriel basé sur les minéraux »[10]. Or la solution scientiste et techniciste n’est sans doute qu’une illusion. La dénoncer, inversement, ne doit pas nourrir un discours antiscientifique qui nivellerait opinions et savoirs. L’objectif défini par le PNUE est le découplage du bien-être humain de l’utilisation de ressources. Cela passe aussi par une meilleure répartition de ces ressources. La question environnementale et la question sociale sont inextricablement liées, et ce à l’intérieur d’un cadre plus général qui est celui des rapports de pouvoir et de domination.

    https://aoc.media/opinion/2024/12/11/lextractivisme-des-marges-amazoniennes-au-militantisme-anticapitaliste
    #Amazonie

  • Frais de port du livre : une “bataille culturelle se joue sous nos yeux”
    https://actualitte.com/article/120489/tribunes/frais-de-port-du-livre-une-bataille-culturelle-se-joue-sous-nos-yeux

    À l’approche des fêtes de fin d’année, Amazon a tenté un coup de poker. S’affranchir des frais de port obligatoires de 3 € sur les expéditions de livres, quand les commandes sont retirées dans des supermarchés ou hypermarchés disposant d’un rayon livres, qu’il considère comme « un commerce de vente au détail de livres ». Une interprétation de la loi qui exaspère ses concurrents : le Syndicat de la librairie française, celui des Distributeurs de Loisirs Culturels et Fnac Darty s’unissent dans une tribune, publiée originellement dans Le Monde et reproduite ci-dessous.

    Publié le :

    22/11/2024 à 10:54

    On entend beaucoup parler de souveraineté économique, alimentaire, sanitaire, écologique. Il est un domaine trop rarement évoqué, et pourtant aujourd’hui dangereusement menacé : celui de la culture, et singulièrement du livre.

    Nous avons la chance de vivre dans un pays qui compte le réseau le plus dense au monde de librairies. C’est la preuve de la pertinence et de l’efficacité de la loi Lang de 1981, qui garantit un prix identique du livre, sur internet comme en librairie, dans une grande métropole comme dans le village le plus reculé. Cette régulation vise à assurer l’égalité des citoyens devant le livre, le maintien d’un réseau très dense de distribution et le soutien au pluralisme dans la création et l’édition. C’est la pérennité de cette loi vertueuse qui est véritablement en cause aujourd’hui.

    En effet, l’équilibre trouvé par la loi sur le prix unique, à maintes reprises copiée chez nos voisins européens, a été malmené à l’orée des années 2000 par l’irruption sur le marché de géants extra- européens du numérique qui utilisaient le livre comme un produit d’appel pour conquérir des parts de marché, et offraient une promesse client terriblement alléchante, mais économiquement dispendieuse, écologiquement désastreuse, et surtout, impossible à dupliquer pour les plus petits acteurs.

    Par deux fois, le législateur a tenté de corriger la distorsion croissante de concurrence entre libraires physiques et vendeurs en ligne, entre petits acteurs et mastodontes, que cette politique de « dumping » générait. D’abord en 2014, avec l’interdiction d’expédition gratuite de livres à domicile. Echec. Amazon s’est empressé, alors que l’encre de la loi n’était pas encore sèche, d’établir ses frais de livraison à 1 centime d’euro…

    Naturellement, la pratique du leader du marché digital a immédiatement et très efficacement vidé la loi de sa substance. Sept ans plus tard, le législateur a tiré les leçons de ce revers, et cette fois décidé d’assortir l’interdiction d’expédition gratuite de livres d’une grille de tarification de frais minimaux correspondant au tarif en vigueur pour la majorité des autres produits, en prévoyant une exemption pour les commandes retirées dans des commerces de vente au détail de livres, avec l’objectif de soutenir ces derniers pour le rôle qu’ils jouent sur nos territoires.

    Amazon a combattu avec virulence cette « loi Darcos », ajustement de la loi Lang qui a, malgré tout, été adoptée à l’unanimité des deux chambres, au terme d’un vaste débat public.

    Sans même attendre le sort de ses propres actions juridiques contre cette loi Darcos qu’elle est bien évidemment en droit de contester, Amazon s’arroge aujourd’hui le pouvoir d’interpréter le droit à son profit et de fouler aux pieds la loi votée par le Parlement souverain.

    Un an après l’entrée en vigueur de la disposition en effet, l’annonce de l’utilisation massive de points de retraits, essentiellement des casiers jaunes, situés dans des galeries commerciales d’hypermarchés et qui permettront aux clients de récupérer gratuitement leurs commandes, accrédite de manière frappante l’idée qu’Amazon se fait d’elle-même : un géant tout-puissant, cinquième entreprise mondiale forte d’une valorisation de 2000 milliards de dollars, qui s’estime au-dessus de la volonté du législateur français, lequel avait pourtant expressément, dans les débats parlementaires, exclu ces fameux casiers du champ des exemptions.

    Nul besoin d’arguties juridiques pour comprendre qu’un vulgaire casier, quand bien même installé dans la galerie marchande d’un hypermarché disposant bien souvent d’un micro-rayon livre, n’est évidemment pas un commerce de vente au détail de livres.

    Nul besoin non plus de décodage pour comprendre ce qu’est en train de faire Amazon : poursuivre sa stratégie de prédation, qui consiste à détricoter toutes les dispositions qui font obstacle à l’extension de son empire ; se comporter en « cow boy » qui piétine allègrement, en toute impunité, le vote des élus, qui avaient clairement exprimé leur volonté de préserver un modèle culturel diversifié et ancré dans les territoires.

    À LIRE - Amazon et les frais de port du livre : l’analyse du Médiateur attendue en janvier

    Ces méthodes ne sont pas simplement le fait d’une entreprise américaine qui aime jouer avec les règles et qui a établi son siège européen au Luxembourg pour ne pas payer d’impôts.

    C’est une authentique bataille culturelle qui se joue sous nos yeux et nous attendons des autorités qu’elles mettent immédiatement fin à ce trouble à l’ordre public culturel.

    C’est un enjeu de souveraineté pour notre pays que de faire respecter une loi qui, par ailleurs, depuis un an, a fait montre de son efficacité. Car, contrairement à ce que prétendent les études opportunément commandées par Amazon, le marché du livre est stable, en volume et en valeur. Mais il est exact que les expéditions de livres ont diminué au profit des visites en librairie, pratique plus vertueuse pour nos territoires, pour le lien social et pour l’écologie. Les équilibres entre canaux de distribution ont singulièrement évolué, en défaveur des acteurs de la vente en ligne et en faveur des librairies physiques et indépendantes. Ce qui était précisément l’objectif de la loi. Mauvais perdant, Amazon ?

    Alexandra Charroin Spangenberg, Présidente du Syndicat de la librairie française

    Pierre Coursières, Président du Syndicat des Distributeurs de Loisirs Culturels

    Enrique Martinez, Directeur Général de Fnac Darty

    #Edition #Librairie #Amazon

  • Les énergéticiens nucléaires chutent à Wall Street après le rejet d’un projet d’Amazon | Connaissances des énergies
    https://www.connaissancedesenergies.org/afp/les-energeticiens-nucleaires-chutent-wall-street-apres-le-r

    AFP parue le 04 nov. 2024 - 17h42

    Plusieurs énergéticiens #nucléaires dérapaient lundi à la Bourse de New York, déstabilisés par le refus du régulateur américain de l’énergie d’un projet de fourniture de courant à #Amazon.

    La nouvelle a jeté un coup de froid sur le secteur, dopé récemment par une série d’accords avec plusieurs géants de l’informatique à distance (#cloud) pour assurer leur alimentation en électricité d’origine nucléaire.

    (...)

    Autres victimes de cette crispation des investisseurs, les #start-up qui développent actuellement des réacteurs nucléaires de nouvelle génération, les #SMR (small modular reactor).

    #Oklo, présidé par le patron d’OpenAI, Sam Altman, était mal orienté (-3,37%), de même que #NuScale (-4,23%).

    (...)

  • Google must crack open Android for third-party stores, rules Epic judge - The Verge
    https://www.theverge.com/policy/2024/10/7/24243316/epic-google-permanent-injunction-ruling-third-party-stores

    / Google must give rival third-party app stores access to the full catalog of Google Play apps — and distribute third-party stores.

    Google’s Android app store is an illegal monopoly — and now it will have to change.

    #jeux_vidéo #jeu_vidéo #business #google #epic_games #amazon #boutique #android #mobile #google_play #epic_store #justice

  • Pour sauver l’#Amazonie, un archéologue, un avion et un laser

    https://www.lemonde.fr/international/article/2024/09/27/pour-sauver-l-amazonie-un-archeologue-un-avion-et-un-laser_6335811_3210.html

    Par-dessus l’Amazonie vadrouille ces derniers temps un curieux petit avion. En apparence, rien ne le distingue de ses congénères, si ce n’est la très basse altitude de son survol. Mais à son bord, l’aéronef transporte une technologie bien particulière, le Lidar : un procédé de télédétection par laser de haute précision capable de « déshabiller » la végétation, révéler les secrets dissimulés sous la canopée et, peut-être, contribuer à son sauvetage.

    Le coucou opère pour le compte du projet Amazonia Revelada (« Amazonie révélée »), lancé en 2023 par l’archéologue brésilien Eduardo Goes Neves. A 58 ans, ce professeur renommé de l’université de Sao Paulo a passé plus de la moitié de sa vie à arpenter la jungle en quête de vestiges. « Mais aujourd’hui, je ne veux plus me contenter de parler de céramiques vieilles de 8 000 ans. Je veux agir dans le présent ! », explique le scientifique.

    « Le Lidar émet des milliards d’ondes par seconde, dont une petite partie perce la sylve et atteint le sol, permettant d’identifier élévations ou structures humaines », poursuit-il. Depuis un an, près de 1 600 kilomètres carrés ont été cartographiés par ce procédé de « déforestation digitale », soit l’équivalent de quinze fois la superficie de Paris, depuis l’embouchure de l’Amazone jusqu’à l’Etat enclavé de l’Acre.

    Une trentaine de « sites » ont été découverts. Des structures géométriques, des champs surélevés, une muraille et même un village portugais abandonné, datant du XVIIIe siècle, à la frontière avec la Bolivie. « Partout où on cherche, on trouve ! », s’enthousiasme M. Goes Neves, pour qui l’Amazonie est tout sauf une forêt vierge ou un « désert humide » : « C’est un patrimoine bioculturel, un bassin écologique mais aussi civilisationnel, profondément transformé par les peuples indigènes. »

    Mais l’objectif affiché ne se limite pas à la science. Le projet « est aussi une réaction contre la dévastation de l’Amazonie », insiste l’archéologue. Les zones de survol du #Lidar ont été soigneusement sélectionnées pour suivre plusieurs lignes de front de la déforestation qui ravagent aujourd’hui la jungle. Plus de 100 000 incendies ont été identifiés dans la forêt tropicale depuis le début de l’année, soit le double de ceux recensés en 2023.

    « Lieux sacrés »
    La Constitution brésilienne tout comme une loi en vigueur depuis 1961 imposent aux autorités de protéger les sites archéologiques. Amazonia Revelada ambitionne donc de forger de nouvelles zones de sauvegarde constituées de portions de forêts abritant des vestiges préservés. « Soit la création d’une nouvelle strate de protection, culturelle cette fois », résume M. Goes Neves.

    Avant toute chose, ses équipes ont pris soin d’obtenir l’accord des populations survolées. « Il s’agit d’Indigènes, mais aussi de communautés quilombolas [descendants d’esclaves] et ribeirinhas [pêcheurs traditionnels]. A chaque fois, on travaille avec des chercheurs locaux, formés, capables d’aller authentifier les découvertes », explique #Bruna_Rocha, archéologue participant au projet et basée à Santarem, sur l’#Amazone.

    Pour les #indigènes, ces vestiges ont une valeur qui va bien au-delà du patrimoine. « Ce sont des lieux témoins de notre passé, que nous visitons avec les plus jeunes pour leur raconter notre histoire. Mais ce sont aussi des lieux sacrés, vivants, où l’on peut sentir la présence des esprits », témoigne le cacique Juarez Saw, sexagénaire issu du peuple Munduruku, joint par téléphone depuis son village du rio Tapajos, au cœur de la forêt.

    Certains peuples, comme ceux du Haut-Xingu, ont refusé de participer au projet, « de peur que les données soient utilisées par leurs ennemis pour détruire ces vestiges », selon Bruna Rocha. Le cas s’est malheureusement produit sur les terres munduruku. « Les orpailleurs illégaux ont démoli beaucoup de nos lieux sacrés », déplore M. Saw.

    Mais répertorier des sites #archéologiques aura-t-il un effet sur la protection de la forêt ? « On essaie depuis trente ans de sauver l’Amazonie à coups d’arguments environnementaux, économiques, humains… Mais rien ne fonctionne. Alors, oui, le patrimonial, ça peut aider. Il faut mettre le paquet ! », croit #Stéphen_Rostain, archéologue et premier signataire d’un article retentissant de la revue Science, publié en janvier, révélant, grâce au Lidar, l’existence d’un gigantesque réseau de cités-jardins vieux de 2 500 ans en Amazonie équatorienne.

    Le temps presse et l’argent manque
    Difficile, cependant, d’imaginer que l’Institut du patrimoine brésilien, l’Iphan, pourra faire mieux en la matière que l’Ibama, la police environnementale. « Le projet est très intéressant, mais il ne crée pas de dispositif concret de sauvegarde de la nature », relève Francois-Michel Le Tourneau, directeur de recherche au Centre national de recherche scientifique et spécialiste de l’Amazonie. « Pour que ça fonctionne, il faudra que la loi incorpore la dimension culturelle de la protection de la nature », insiste de son côté Ane Alencar, directrice scientifique à l’Institut pour les enquêtes environnementales en Amazonie.

    « On n’est pas naïfs. On sait bien que l’archéologie seule ne peut pas sauver l’Amazonie ! », concède M. Goes Neves, qui estime que son projet servira d’abord à « accentuer la pression » sur le gouvernement de Luiz Inacio da Silva et, plus encore, sur un Congrès brésilien « réactionnaire » et acquis aux intérêts de l’agronégoce.

    Mais le temps presse et l’argent manque. Amazonia Revelada est pour le moment financée par la seule National Geographic Society, organisation scientifique et éducative non lucrative basée aux Etats-Unis. Celle-ci a déboursé 1,8 million de dollars (1,6 million d’euros) pour le projet dont l’intensification nécessitera forcément l’aide de pouvoirs publics.

    Bonne nouvelle : çà et là en Amazonie, des projets de protection environnementale reposant sur le patrimoine culturel et archéologique commencent à voir le jour. Le plus éloquent reste celui du « Stonehenge brésilien » : un site exceptionnel, composé de 127 blocs de granit et vieux d’un millénaire, qui aurait accueilli des cérémonies rituelles liées au solstice. Les autorités souhaitent en faire une zone protégée et attirer les touristes.

    Les premiers résultats des survols d’#Amazonia_Revelada seront présentés lors d’un congrès organisé à Manaus, dans le nord du #Brésil, en octobre. « A terme, notre rêve, c’est de cartographier toute l’Amazonie ! », assure un Eduardo Goes Neves à l’enthousiasme contagieux. Le petit coucou, armé de sa technologie #laser, n’en a pas fini de voler au-dessus la canopée.

    #Bruno_Meyerfeld (Sao Paulo, correspondant)

  • Google mächtiger als die EU

    via https://diasp.eu/p/17142107

    22.09.2024

    Google trickst EU Kommission aus

    Der „Wert“ der #BIG5 oder #GAFAM (#Google, #Amazon, #Facebook, #Apple, #Microsoft) ist größer als die Haushalte von vielen Staaten. Auch die EU mit 350 Millionen Einwohnern ist nicht mehr in der Lage die Konzerne in die Schranken zu weisen.

    Seit Jahren geht die Wettbewerbsbehörde der EU mit Milliarden #Bußgelder|n gegen Google vor - auch gegen Meta (Facebook). Nun hat aktuell der EuG, das Gericht der #EU [#UE], die von der EU-Kommission gegen ­Google verhängte Geldstrafe in Höhe von 1,49 Milliarden Euro kassiert. Die EU hatte festgestellt, dass der Onlinekonzern, bei seinem Dienst „Adsense for Search“ die eigene marktbeherrschende Stellung missbraucht hatte.

    Bei diesem Google-Dienst können die Betreiber anderer Internetseiten für einen (...)

  • Voix sans issue ? Amazon officialise une narration audio par l’IA
    https://actualitte.com/article/119155/audiolivres/voix-sans-issue-amazon-officialise-une-narration-audio-par-l-ia

    La proposition d’Amazon aux narrateurs et narratrices sent tellement l’arnaque, comme toutes les propositions d’Amazon (ce que Cory Doctorow appelle « emmerdification »).

    L’amélioration des outils de synthèse vocale, grâce aux possibilités de l’intelligence artificielle, suscite l’intérêt de plusieurs acteurs du livre audio. Amazon et sa filiale Audible en tête : après le développement d’une solution à destination des auteurs autopubliés, la multinationale inaugure une offre dirigée vers les narrateurs eux-mêmes. Elle propose aux professionnels de « cloner » leurs voix, pour en faire des outils de l’IA, moyennant rémunération.

    Publié le :

    11/09/2024 à 11:08

    Antoine Oury

    8

    Partages
    Partager cet article sur Facebook
    Partager cet article sur Twitter
    Partager cet article sur Linkedin
    Partager cet article par mail
    Imprimer cet article
    ActuaLitté

    Amazon et Audible exploitent plus franchement les possibilités des technologies basées sur l’intelligence artificielle, avec l’ouverture d’un nouveau programme adressée aux narrateurs et narratrices professionnels. Sur le territoire américain uniquement, la firme leur propose de « cloner » leurs voix, pour que ces dernières soient ensuite utilisées à des fins de génération de livres audio.

    Autrement dit, les professionnels de la voix intéressés participeront à l’entrainement de l’intelligence artificielle d’Audible, qui prendra alors le relais, en reproduisant timbre, intonations et rythmes de lecture sur toute une variété de textes.

    En guise de compensation, lorsque la voix reproduite par l’IA sera utilisée pour lire un texte, le propriétaire de celle-ci sera rémunéré en recevant une part des revenus générés — Amazon n’a pas encore détaillé le pourcentage reversé.
    Une phase de test

    Dévoilée sur le blog d’ACX - pour Audiobook Creation Exchange, la place de marché d’Amazon pour la création de livres audio -, l’opération reste pour l’instant très fermée, et réservée à un petit nombre de narrateurs professionnels.

    Grâce à ce programme, « les participants peuvent développer leurs capacités de production de livres audio de haute qualité, générer de nouvelles activités en acceptant plus de projets simultanément et augmenter leurs revenus », promet la multinationale. D’après la publication, les narrateurs participants, même une fois leur voix « clonée » par l’IA, conserveront un contrôle sur les textes qu’ils « liront » de manière artificielle.

    À LIRE - En région PACA, l’IA observée sous toutes les coutures

    Par ailleurs, les narrateurs seront amenés, en utilisant les outils à disposition fournis par ACX, à contrôler la qualité de la lecture par l’IA, voire à corriger les erreurs éventuellement commises par cette dernière. La reproduction de leur voix par l’intelligence artificielle sera totalement gratuite pour les narrateurs intéressés, souligne Amazon.
    Diversifier le catalogue

    ACX travaille de longue date avec des narrateurs et narratrices professionnels, qu’il met en lien avec des auteurs, des éditeurs et des producteurs désireux de créer et commercialiser des livres audio. Cette accélération de la production, avec l’aide de l’intelligence artificielle, présente l’opportunité pour la firme d’étendre un peu plus son catalogue de titres disponibles.

    À LIRE - Amazon révèle une synthèse vocale “de pointe” avec BASE TTS

    Face à la concurrence de Spotify et d’autres acteurs du marché, Amazon entend accomplir pour le livre audio ce qu’elle a réalisé pour l’autopublication : devenir une plateforme incontournable, en proposant le plus grand nombre de références.

    Les auteurs autoédités ont déjà la possibilité de générer un livre audio à l’aide de l’intelligence artificielle, en s’appuyant sur la synthèse vocale — une voix totalement générée, qui ne s’inspire pas forcément d’une voix existante, donc. En mai dernier, Amazon avançait le chiffre de 40.000 livres audio générés automatiquement via ce programme. Des titres qui, produits avec les outils d’Amazon, resteront commercialisés par la firme avant tout...

    Photographie : illustration, murdelta, CC BY 2.0

    #Amazon #Livre_audio #Emmerdification #Voix_clonée

  • « La #forêt_amazonienne est habitée depuis toujours »

    Sous ses dehors sauvages, la forêt amazonienne est habitée depuis des millénaires par des populations qui ont su l’exploiter tout en la préservant, comme le raconte le géographe François-Michel Le Tourneau dans ce 4ᵉ volet de notre série d’été consacrée à la forêt.

    On imagine la forêt amazonienne comme un espace vierge de présence humaine. Mais c’est loin de la vérité. Vous êtes spécialiste de la région amazonienne, notamment dans sa partie brésilienne. Pouvez-vous nous dire qui habite cette forêt aujourd’hui ?
    François-Michel Le Tourneau1. Depuis une trentaine d’années, le concept de forêt vierge appliqué à l’Amazonie est en train de voler en éclats. L’histoire de la région a été dominée jusqu’aux années 1970 par des archéologues occidentaux, qui avaient imposé l’idée d’une forêt impénétrable, produisant peu de ressources, en particulier peu de protéines animales, où ne pouvaient subsister que quelques tribus nomades. Mais c’est faux ! D’abord, le peuplement de cette région remonte au moins à 11 000 ans avant notre ère. Différentes populations ont peu à peu domestiqué des plantes comme le riz et le manioc. Elles ont par ailleurs développé des civilisations denses et quasi-urbaines dans les siècles qui ont précédé la colonisation européenne, comme le montre l’apport récent du lidar, une technique de télédétection laser qui traverse la canopée et révèle le modelé exact du sol.

    Mais à cause de l’arrivée des Européens et, avec eux, des épidémies, 80 % à 90 % de cette population a été décimée. Les Portugais ont alors importé de la main-d’œuvre depuis l’Afrique et une partie de ces esclaves, les quilombolas, appelés aussi « Noirs marrons », se sont échappés pour vivre en forêt. Par ailleurs, des métissages ont eu lieu entre Amérindiens et Européens, dont sont issus les caboclos, des paysans qui ont formé petit à petit le gros de la population du bassin amazonien. Le peuplement de la forêt amazonienne est donc le fruit d’une histoire où se sont succédé et mélangées des populations d’origines très différentes.

    Les Amérindiens ne sont donc pas les seuls habitants de cette forêt ?
    F.-M. Le T. Non, en effet. Et l’histoire ne se termine pas là ! Au XIXe et au XXe siècle, deux grandes vagues d’immigration ont entraîné des afflux de population du Nord-Est. À la fin du XIXe siècle, quand la demande de latex a explosé dans le monde, 500 000 seringueiros sont venus pratiquer en forêt la saignée des hévéas (seringueira en portugais, Ndlr). L’euphorie liée au commerce du caoutchouc n’a pas duré longtemps, car la Malaisie a repris cette exploitation à grande échelle. Comme dans le conte de Cendrillon, la région amazonienne s’est rendormie pour plus d’un siècle. Jusqu’à ce que le régime militaire brésilien arrivé au pouvoir en 1964 décide de développer une région considérée – toujours à tort ! – comme vide et arriérée et de l’arrimer au reste du pays, craignant une prise de contrôle par d’autres puissances. Il organise alors un grand plan de colonisation agricole par des populations paysannes sans terre, ce qui lui permet en même temps d’éviter une réforme agraire dans le reste du pays.

    Plusieurs millions de personnes arrivent ainsi dans les années 1970-1980, profitant des routes qui sont construites dans le même temps à travers la forêt. La population urbaine commence à dépasser la population rurale… au point que la géographe brésilienne Bertha Becker qualifiait dès 2000 cette Amazonie brésilienne de « forêt urbanisée » ! Aujourd’hui, environ 25 millions de personnes vivent en Amazonie brésilienne, dont 753 000 Amérindiens. Parmi elles, 350 000 habitent au cœur même de la forêt.

    La population amérindienne est à nouveau en progression ?
    F.-M. Le T. Oui, elle a fortement augmenté depuis trente ans au Brésil en général et en Amazonie en particulier. Depuis les années 1970, une meilleure prise en charge sanitaire, notamment vaccinale, a amélioré la santé des Amérindiens. Surtout, une convergence est apparue à partir de 1985 entre la montée des préoccupations environnementales d’une part et les luttes sociales des populations autochtones d’autre part.

    En 1988, une nouvelle constitution a reconnu leurs droits et leurs langues, et leur a restitué de larges pans de territoires : aujourd’hui, sur 3,3 millions de kilomètres carrés de forêt amazonienne brésilienne, environ 1,3 million de kilomètres carrés (trois fois la France métropolitaine environ) sont exclusivement réservés aux Amérindiens. À cela s’ajoutent les terres allouées à d’autres populations traditionnelles, comme les seringueiros. Confrontés dans les années 1970 à l’arrivée de propriétaires qui défrichent massivement, ils ont obtenu une gestion communautaire de ces terres. Même chose pour les ribeirinhos vivant sur les berges du fleuve, qui ont récupéré des réserves de développement durable et des droits spécifiques dans la préservation de ces écosystèmes.

    On oublie trop souvent que des centaines d’espèces et de variétés étaient cultivées en forêt par les Amérindiens avant le contact avec les Européens, sans entraîner de dégradation de la fertilité des sols, au contraire ! Là où les grandes entreprises agricoles défrichent d’immenses surfaces pour ne faire pousser que quelques espèces à grand renfort d’intrants chimiques.

    De quelle façon ces populations vivent-elles de la forêt ?
    F.-M. Le T. Les Amérindiens pratiquent pour la plupart un système mixte qui repose sur une agriculture rotative par abattis-brûlis, la collecte de ressources végétales (graines, semences, lianes), ainsi que la pêche et la chasse. Pour fonctionner, ce système impose d’avoir accès à de vastes surfaces qu’ils parcourent en fonction des saisons et des besoins.

    Les autres populations traditionnelles ont repris certaines bases des Amérindiens, notamment l’agriculture rotative, mais elles utilisent souvent plus intensivement d’autres ressources car elles tirent une partie de leur subsistance de la vente de ces produits (noix, fibres, semences, etc.) sur les marchés. Dans les deux cas, de plus en plus, les allocations sociales et les salaires participent aussi aux économies des familles, entraînant des changements de régimes alimentaires pas toujours heureux.

    Ces populations traditionnelles sont-elles un rempart contre la déforestation ?
    F.-M. Le T. En partie oui. Le gouvernement brésilien considère d’ailleurs que les territoires amérindiens participent au réseau des unités de conservation de l’environnement. Dans le même temps, les politiques de développement se pensent toujours face à une nature sauvage qu’il s’agirait de domestiquer, avec des plantations monospécifiques, des pâturages destinés aux élevages ovins et bovins, des grandes cultures, qui ne laissent aucune place aux processus naturels. L’idée perverse d’une profusion inépuisable de la forêt n’est pas remise en question...

    Mais les peuples autochtones deviennent aussi, pour certains, prisonniers d’une injonction à sauver la forêt. Or, leur projet de développement dans le futur n’est pas forcément de conserver un mode de vie traditionnel. De nouveaux besoins se font jour, qui nécessitent souvent l’accès à des revenus monétaires. Certains, pour subsister, acceptent de faire des coupes à blanc (abattage sur de très grandes surfaces de la totalité des arbres d’une exploitation forestière, Ndlr) dans la forêt afin d’y créer des pâturages pour de l’élevage. Doit-on les en empêcher ? Il faut noter enfin que la plupart ne résident plus seulement dans leurs territoires d’origine mais pratiquent des mobilités circulaires entre ville et forêt, utilisant l’espace périurbain pour continuer leurs activités agricoles et de collecte tout en profitant des avantages de la ville, comme l’accès à la scolarité ou à des emplois rémunérés.

    Le sujet est compliqué. En réalité, ce devrait être à l’État de protéger cet environnement, tout en acceptant le droit à l’autodétermination de ces populations et leur aspiration à une prospérité matérielle équivalente à celle du reste du Brésil.

    https://lejournal.cnrs.fr/articles/la-foret-amazonienne-est-habitee-depuis-toujours

    #géographie_du_vide #géographie_du_plein #Amazonie #peuples_autochtones #forêt #Amérique_latine #forêt_vierge #exploitation #Brésil #peuplement #quilombolas #noirs_marrons #esclavage #histoire #caboclos #agriculture #villes #urbanité #latex #hévéas #caoutchouc #colonisation #colonisation_agricole #réforme_agraire #forêt_urbanisée #vaccins #vaccination #démographie #agriculture_rotative #abattis-brûlis #alimentation #régime_alimentaire #déforestation #plantations #pâturages #terres #coupes_à_blanc #élevage #mobilités_circulaires

  • The Stakes Behind the Fight Over Lina Khan’s Future at the F.T.C.
    Andrew Ross Sorkin, Ravi Mattu, Bernhard Warner, Sarah Kessler, Michael J. de la Merced, Lauren Hirsch, Ephrat Livni
    https://www.nytimes.com/2024/07/26/business/dealbook/behind-the-democrats-fight-over-lina-khans-future.html

    Kann es heute in der US-domnierten Welt gelingen, Macht und Einfluß der Wirtschaftsgiganten auf ein sozial verträgliches Minum zu reduzieren, oder handelt es sich bei Versuchen dazu um Kämfe gegen Windmühlenflügel? Antworten auf diese Frage ergeben sich aus der Beobachtung von Erfolg und Mißerfolg von Lina Khan, der Vorsitzenden der Aufsichtsbehörde Federal Trade Commission (FTC), vergleichbar einer Kombination des deutschen Bundeskartellamts mit staatlichen und nichtstaatlichen Einrichtungen des Verbraucherschutz.

    The debate over Lina Khan’s tenure as F.T.C. chair reflects wider anxiety over how a Kamala Harris administration would regulate business.Credit...Haiyun Jiang for The New York Times
    A question about the future of antitrust

    News that Reid Hoffman, the billionaire LinkedIn co-founder and major Democratic donor, wants Vice President Kamala Harris, if she wins in November, to replace Lina Khan as chair of the F.T.C. provoked outrage on the left. Senator Bernie Sanders, independent of Vermont, called it “unacceptable,” and Tim Wu, the Columbia Law School professor and former Biden antitrust official, demanded that the Harris campaign return Hoffman’s donations.

    Khan is perhaps the most consequential regulator for business in the Biden administration, and her fate as F.T.C. chair underscores anxiety among Democrats about how Harris would approach antitrust policy should she become president.

    A president can’t fire an F.T.C. chair at will. Per a 1935 Supreme Court case, Humphrey’s Executor v. United States, a president can only remove an F.T.C. commissioner for good cause, which excludes policy agreements.

    That said, the president has the power to designate the chair among existing members. So Khan could be stripped of that role and replaced with a colleague, though that could be awkward.

    The political calculus of replacing Khan is complicated. Khan’s term expires in September, though she could serve until any replacement is confirmed by the Senate. But nomination processes take time and if Republicans retake the Senate in November, that could make it difficult for a Harris administration to get a different nominee confirmed.

    One wrinkle: Donald Trump’s own running mate, Senator JD Vance of Ohio, has praised Khan as part of his anti-Big Tech stance.

    Khan has given no indication that she plans to step down. She has shown a desire to permanently reshape U.S. antitrust law, dating to her law school days. When DealBook asked an F.T.C. spokesman if Khan would consider serving as chair in a Harris administration, he said, “Yes.”

    The debate underscores Democrats’ anxiety over how Harris would govern. Khan’s appointment arose in part out of Biden’s effort to shore up progressive support in 2020 by giving Senator Elizabeth Warren of Massachusetts significant sway over economic regulatory agencies. “Warren, to an extraordinary degree, was the gatekeeper for the administration about appointments,” William Kovacic, a former F.T.C. chair, told DealBook.

    But corporate donors have backed Harris in part because they believe she would be more moderate when it comes to regulating business.

    It’s unclear what Harris’s own antitrust views are, or whether she would seek to continue the Biden administration’s approach. “I don’t know if that commitment that Biden made to Warren is going to bind Harris,” Kovacic said. “The crucial question is what is her relationship going to be with the strong intervention-minded members of the Democratic Party who extracted that promise.”

    In other election news: Barack Obama endorsed Harris, after the former president had sought to stay impartial on the matter. A new Times/Siena poll shows Harris in a virtual tie with Trump among likely voters. And the Black Economic Alliance PAC recently convened a call with more than 250 business leaders — including Charles Phillips, formerly of Infor; Roz Brewer, formerly of Walgreens Boots Alliance; and Ken Frazier, formerly of Merck — asking them to back Harris for president, DealBook is first to report. The B.E.A. PAC has raised more than $3 million for the Democratic presidential ticket.

    Lina Khan’s rise was heralded as an antitrust revolution. Now she has to pull it off
    https://edition.cnn.com/2023/10/16/tech/lina-khan-risk-takers/index.html

    17.10.2023 by Brian Fung, Catherine Thorbecke - When the Federal Trade Commission and 17 states sued Amazon last month in a landmark antitrust case, Lina Khan, chair of the FTC, described it as a “cutting-edge” lawsuit that captures “state-of-the-art thinking” about modern monopolies in the tech industry.

    The closely watched case may be the biggest of the 34-year-old’s career. It symbolizes the toughest regulatory challenge Amazon has faced in recent memory; for Khan, however, it is also the culmination of a years-long effort to challenge decades of received wisdom about how governments can protect competition, particularly in the tech sector.

    If the Khan-spearheaded suit succeeds, it could mean huge changes for Amazon’s sprawling e-commerce business. But perhaps even more meaningfully, it could become an important step toward Khan’s larger goal: To broaden the scope of antitrust law and to encourage regulators and courts to apply it more creatively in shaping the entire global economy.

    The Amazon suit isn’t Khan’s only effort to rein in Big Tech. Other ongoing suits have targeted industry giants including Microsoft and Meta, the latter on multiple fronts. It’s a huge gamble, spending gobs of taxpayer dollars and pitting small teams of government lawyers against the world’s most powerful and deep-pocketed corporations.
    Packages move along a conveyor belt at an Amazon Fulfillment center on Cyber Monday in Robbinsville, New Jersey, in November 2022.

    The point of it all, Khan told CNN in a recent interview, is to bring more of the government’s resources to bear on the daily economic problems of ordinary Americans.

    “What we hear day-in, day-out is that people too often feel like they’re not getting a fair shake in the market,” Khan said. “There’s more and more public awareness about [how] decisions the FTC is making on antitrust or consumer protection are affecting people in their day-to-day lives.”

    If her push pays off, Khan could become one of the most consequential FTC chairs in history. But, two years into her tenure, she is up against determined opponents in business and law, and a mixed record in court that her critics say is evidence of her folly.

    She may also be running out of time. Khan’s term expires next September. And should a Republican win the White House in 2024, or should President Joe Biden win reelection and choose another FTC chair, her time at the agency helm could soon come to a close. In the interview, Khan acknowledged she would step aside if a new administration sought to replace her. “That’s the president’s prerogative,” she told CNN.

    For now, at least, Khan leads an agency that has a dizzying number of active investigations, lawsuits and regulatory proposals on the table. Many of them aren’t close to being resolved, and some may not reach a conclusion until long after she is gone. But her supporters and critics agree: From the beginning, Khan has helped spark a global debate about the power of technology companies and the role governments play in regulating them.

    “Everybody in our field, they know who Lina Khan is, and they know about her ideas,” said William Kovacic, a former FTC chair during the George W. Bush administration.

    Khan’s path might have turned out differently had it not been for Barry Lynn, an early mentor who hired Khan in 2011 not long after her graduation from Williams College.

    In their initial conversations, Lynn recalled, Khan seemed to have an intuitive grasp of how corporate control of markets could have important effects on everything from workers to consumers. 

    One of Khan’s first projects at Open Markets — at the time part of the Washington think-tank known as the New America Foundation — was an in-depth study of Amazon and its impact on authors and book publishing — a line of inquiry that would come to define her career and led to a viral 2017 law article she wrote about Amazon’s economic dominance.

    But she also explored other topics, including chicken farming. That led to a 2012 article in The Washington Monthly arguing the Obama administration failed to act decisively enough to stop large poultry processors from exploiting independent chicken farmers on a vast scale.

    Even in those early writings, Khan’s critical view of the status quo was emerging — questioning the government’s reluctance to sue meat processors amid fears that litigation could lead to damaging court losses. 

    “One wonders,” she wrote, “whether the administration’s actions—taken as a whole—did not set the farmers back as much as would a loss in court.” 

    That appetite for litigation has persisted. Khan has consistently indicated a preference, if not a zeal, for taking companies to court. Even losing could still help more broadly, she has argued, if it convinces Congress to update the laws in response to new competitive harms.

    Driving her convictions, Lynn said, is a powerful sense of justice, as well as a “healthy sense of anger.” 
    Lina Khan, the author of the Yale Law Journal article, “Amazon’s Antitrust Paradox” is pictured here on July 7, 2017 in Larchmont, New York.

    “I remember one day sitting around talking,” Lynn recalled of the chicken farming story. “She was like, ‘What these people are doing, it’s just wrong … It’s insulting, because it is intellectually so unjustifiable.’” (Khan said she did not recall saying those exact words but agreed with the overall sentiment.)

    Khan blamed the farmers’ plight on Reagan-era policymakers who pushed to reinterpret antitrust law primarily through consumer prices instead of a broad spectrum of shared societal values — a move she said promoted consolidation, reduced competition (and accountability) among meat processors, and enabled the farmers’ abuse in the first place.  

    That shift in legal doctrine was profound, shaping how courts have applied antitrust law ever since.

    Defenders of the change have argued it’s led to decades of cheaper prices for consumers and created more stability for businesses. 

    Khan and her allies have argued, by contrast, that an excessive focus on price overlooks how companies might harm competition in less obvious ways, affecting everything from labor markets to product quality to consumer privacy.

    Khan’s ideas have challenged the closest thing to a sacred cow in antitrust law. Now, armed with the power to investigate companies and to frustrate mega-deals, she is betting big and taking on America’s richest businesses to test her vision for a more expansive form of monopoly enforcement.

    “She’s sort of trying to overturn a very well-entrenched orthodoxy,” and “decades worth of court decisions that have been influenced” by it, said Robert Hockett, another early mentor of Khan’s who now teaches at Cornell Law School. “It’s a tough road to hoe.”

    While still a law school student, Khan and her 2017 article on Amazon — published in the Yale Law Journal — championed a unique approach to antitrust policy and sparked a new explosion of academic research on the topic.

    It also caught the eye of lawmakers trying to find new ways to reel in the dominance of America’s powerful technology companies.

    In 2019, when he was staffing up a landmark investigation of Big Tech, Rhode Island Democratic Rep. David Cicilline deliberately sought out Khan. By this time, her paper on Amazon had already taken the academic world by storm, and he believed hiring her could amplify what he saw as the first antitrust probe performed by Congress in half a century. 

    “I knew that if we could bring Lina into the investigation, it would really elevate people’s expectations,” Cicilline told CNN in an interview.

    With Khan’s help, the 16-month investigation produced a 450-page report concluding tech giants enjoyed unchecked “monopoly power” that led to a raft of legislative proposals. The most ambitious of those never became law, but Khan’s role in the probe, which Cicilline described as “critical,” helped further raise her profile.
    The logos of Google, Apple, Facebook, Amazon and Microsoft are seen displayed on a mobile phone in December 2020.

    In 2021, a few months after the House report was released, the recently elected Biden announced Khan would not only serve as an FTC commissioner but would leapfrog the agency’s existing members to become its most senior appointee.

    In office, Khan has embarked on an ambitious program not only to scale up US antitrust and consumer protection enforcement but also to expand the scope of the law in new ways.

    In addition to last month’s Amazon suit, the FTC under Khan has sued the company for allegedly tricking users into signing up for its Prime service and convinced Amazon to adopt multimillion-dollar privacy settlements surrounding its Alexa and Ring home devices. 

    Khan has continued an FTC lawsuit filed during the Trump administration that seeks to break up Facebook-parent Meta. She sought to prevent Meta from buying a virtual reality startup, Within Unlimited, and, in a rare move, to revisit and expand the scope of Meta’s historic $5 billion Cambridge Analytica settlement to cover children’s personal data. 

    Khan also brought Microsoft back under the antitrust microscope for the first time since the turn of the millennium, pushing to block the company’s $69 billion acquisition of gaming giant Activision Blizzard.

    Since Khan’s appointment, the FTC has investigated or sued to block more than three dozen proposed mergers, said agency spokesperson Douglas Farrar, which in turn has led to 17 settlements, 17 deals being abandoned by the companies and one — the Within Unlimited case — where the FTC has conceded in the courts.
    FTC Chairwoman Lina Khan and SEC Chairman Gary Gensler testify during the House Appropriations Subcommittee on Financial Services and General Government hearing titled FY2023 Budget Request for the Federal Trade Commission and the Securities and Exchange Commission, on Capitol Hill on May 18, 2022.

    Some of those cases reflect stepped-up enforcement against vertical mergers, a type of deal involving companies in different lines of business that critics including Khan have said were largely ignored in recent decades due to an excessively narrow focus on consumer prices.

    In one of her most significant policy moves, Khan and her Justice Department counterpart, Jonathan Kanter, have worked to revamp the federal guidelines that describe how and when the US government may consider a merger to be illegal, including, for the first time, how a merger’s impact on worker pay and benefits may affect a deal’s overall legality.

    Other major steps Khan has taken include proposals to ban noncompete clauses in employer agreements the FTC estimates have cost American workers $250 billion a year.

    Khan has also made data privacy issues a priority. In a pair of record-breaking settlements, Epic Games, the maker of “Fortnite,” agreed to pay more than half a billion dollars to resolve allegations it tricked players — including children — into making unintended purchases within the game. And after the reversal of Roe v. Wade, the FTC has made a point of highlighting how it is paying attention to the misuse of reproductive health data.

    Along the way, Khan has faced several high-profile court setbacks, including in some of the aforementioned cases, that have given her opponents more ammunition.

    “You are now 0 for 4 in merger trials. Why are you losing so much?” demanded California Republican Rep. Kevin Kiley at a House oversight hearing this summer. “Are you losing on purpose?”

    Earlier this year, the FTC gave up its Within Unlimited case against Meta after a federal judge declined to block the merger. The rejection dealt a blow to the FTC’s novel legal theory that Meta was trying to thwart future competition in a developing market for virtual reality tech. And federal courts have twice rejected the FTC’s bid to halt Microsoft’s Activision merger, which officially closed last week after being approved by UK regulators.

    In her interview with CNN, Khan said she was “quite happy” with the FTC’s merger work and cited as success feedback she’s received from business leaders about the agency’s “deterrent effect.”

    “We’ve heard that executives are taking much more seriously the potential antitrust risks of deals on the front-end,” she said, adding that “deals are not being pursued because they’re recognized on the front end as being legally suspect.”
    Chair of the Federal Trade Commission Lina Khan during a House Judiciary Committee hearing in Washington, D.C., on July 13.

    Beyond the litigation, many of Khan’s proposed rules are bound to invite legal scrutiny. Topping the list is the FTC’s draft rule to ban noncompetes, said Kathleen Bradish, acting president of the American Antitrust Institute.

    “If they try to implement this rule, it’s going to be tied up for a while in the courts,” said Bradish, who has otherwise supported the FTC’s tougher competition agenda.

    Khan’s corporate opponents argue that the very record that cemented her reputation should disqualify her. Amazon and Meta have both pushed for Khan to recuse herself from matters involving the companies, questioning her objectivity.

    Khan resisted those calls, saying she has never prejudged any case or set of facts and that she has no financial conflicts of interest that would necessitate a recusal. Last year, the judge presiding over the FTC’s case to break up Meta ruled Khan did not have to recuse herself from that case, because, among other things, Khan’s views on antitrust policy did not amount to a “personal animosity” that would legally disqualify a prosecutor.

    Khan’s critics are not limited to those outside the FTC; its two Republican commissioners have stepped down after objections to her handling of the agency. One of the two GOP commissioners, Christine Wilson, resigned in February in protest, accusing her in an op-ed not only of bias against companies like Meta but also of governmental power grabs. (Wilson did not respond to requests for an interview; Khan responded to Wilson’s departure with a joint statement alongside the agency’s two other Democrats thanking her for her service. The other former GOP commissioner, Noah Phillips, declined to be interviewed; at the time of his departure, he had cited family reasons as a primary factor in his decision.)

    The lawsuit the FTC filed last month against Amazon is a far more streamlined set of arguments than critics have lobbed at the company in the past.

    It focuses on Amazon’s use of allegedly unfair tactics to ensure it always offers the lowest prices on the internet and to encourage sellers to purchase Amazon’s own fulfillment services. The case makes no claims of liability due to use of seller data, alleged predatory pricing, past mergers or its cloud computing business, all of which figured prominently in either the congressional report Khan helped author, her 2017 paper or both.

    If there is any discrepancy between her earlier work and last month’s lawsuit, Khan told CNN, it can be chalked up to two things: investigative access that Khan didn’t have as a law student and changes in industry practices since 2017 and even since 2019 when she worked on Capitol Hill.

    “Your entire understanding of what’s going on beneath the hood is going to look different than when you’re on the outside doing independent research,” Khan said. More generally, she added, the suit by the FTC and the states “is about tactics that Amazon is engaging in today.”
    The Amazon.com website is seen on a laptop in New York in September. The US Federal Trade Commission sued Amazon.com Inc. in a long-anticipated antitrust case, accusing the e-commerce giant of monopolizing online marketplace services by degrading quality for shoppers and overcharging sellers.

    Whatever Amazon may have done in the past, she argued, it is now in an “extraction mode” that illegally siphons value from consumers and independent sellers by anticompetitive means.

    Amazon has said the case is “wrong on the facts and the law,” and a trade group that represents the company, NetChoice, argues that Khan’s track record shows she has already fallen flat on the lofty expectations of systemic change that accompanied her confirmation.

    “They aren’t picking good cases,” said Carl Szabo, NetChoice’s vice president and general counsel. “It’s not making smart bets.”

    “There’s no reason to think her motives are anything other than genuine,” Szabo added. “Unfortunately, the effects of her actions just happen to produce bad outcomes.”

    Many of Khan’s policy initiatives — as for any agency chief — could take multiple administrations to stick, and only if those future administrations remain committed to initiatives like Khan’s draft merger guidelines and noncompete rules.

    Several legal experts drew sports analogies: Khan is still in the early innings, some argued. To win more matches requires playing more and being willing to lose, another said. And a third argued that securing wins is critical to boosting team morale.

    Whatever happens in the courts, though, Khan has created a durable change in how people talk about competition, according to Kovacic.

    “All of a sudden, the upholders of the status quo look old and tired to me. There’s truly a generational change happening,” Kovacic said. “I think that’s going to last.”

    #USA #Monopole #Amazon #Plattformkapitalismus #Regulierung

  • Big Tech Consolidation Amplified the CrowdStrike Outage
    https://jacobin.com/2024/07/crowdstrike-microsoft-big-tech-consolidation

    21.7.2024 by Freddy Brewster, Lucy Dean Stockton , Katya Schwenk, Helen Santoro - On Friday, an update to a cybersecurity program took down Microsoft systems across the globe. Microsoft has resisted efforts to regulate a root cause of this chaos: the concentration of digital infrastructure in the hands of a few tech giants.

    A little more than a year before Microsoft’s systems crashed on Friday, creating global chaos in the banking, airline, and emergency service industries, the company pushed back against regulators investigating the risks of a handful of cloud services companies controlling the world’s technological infrastructure, according to documents we reviewed.

    “Regulators should carefully avoid any intervention that might disturb the competitive offerings that have promoted the explosive innovation and growth attributable to the cloud,” the company wrote in response to the Federal Trade Commission’s 2023 review of cloud computing companies’ security practices and interoperability protocols.

    The agency questioned whether these companies “invest sufficient resources in research and development” of systems upon which the economy and government rely.

    Microsoft is blaming this week’s global cloud outages on an update from CrowdStrike, a cybersecurity firm whose software protects against hacks. The debacle comes two days after federal agencies released new guidance sounding additional alarms that Big Tech’s consolidation of cloud services could put consumers at serious risk. It also comes one day after Microsoft’s cloud services experienced a separate outage in certain parts of the United States.

    “This is a CrowdStrike-caused outage. It would be inaccurate to report this as a Microsoft outage,” the company said in a statement. “A CrowdStrike update was responsible for bringing down a number of IT systems globally. We are actively supporting customers to assist in their recovery.”

    CrowdStrike did not respond to a request for comment.

    “All too often these days, a single glitch results in a system-wide outage, affecting industries from healthcare and airlines to banks and auto-dealers,” posted Lina Khan, Federal Trade Commission chairwoman, whose agency spearheaded the probe of the cloud computing industry. “Millions of people and businesses pay the price. These incidents reveal how concentration can create fragile systems.”

    At the root of the problem, regulators and researchers say, is Big Tech’s consolidation of cloud services, a technology that allows consumers to store computer information in massive data centers rather than storing it on-site. Just three companies — Amazon, Microsoft, and Google — control 65 percent of the cloud market, according to a report released on July 18 by CloudZero, a cost management platform.

    Microsoft and CrowdStrike also dominate the end point security market, which ensures cybersecurity for devices like desktops, laptops, and mobile devices. As of 2022, the two companies controlled more than 30 percent of the market.

    This consolidation helped allow a simple error to spiral on Friday.

    “We had this cascading failure of all of these businesses, banks, the London Stock Exchange, all of these airlines had to be grounded, because of this one mistake,” said Zane Griffin Talley Cooper, a researcher at the University of Pennsylvania studying digital infrastructure. “And it’s because the internet has become so centralized in the hands of four or five big companies.”

    “With that model, catastrophic failures like this are going to be increasingly common,” he added.
    Regulatory Scrutiny Intensifies

    In March 2023, the Federal Trade Commission announced a wide-ranging survey of the business practices of cloud providers. The agency looked at “market power, business practices affecting competition, and potential security risks,” soliciting comments from companies and the public.

    In its response to the Federal Trade Commission’s probe, Microsoft claimed the marketplace for cloud services remains robust, and warned that regulations may affect “billions of dollars” in investments.

    The company also suggested that the Federal Trade Commission’s intervention would “run the risk of impacting the quality of these solutions and the pace of innovation, and ultimately disadvantaging American companies on the global stage,” Microsoft wrote.

    Public Citizen, a consumer advocacy nonprofit, warned the Federal Trade Commission in 2023 that the market dominance of Amazon, Microsoft, and Google over the cloud services sector is a threat to the economy.

    “Single point dependency on a cloud provider is a structural weakness for the entire economy with the potential to cause more consumer harm in the future,” the group wrote in June 2023.

    On Wednesday — just two days before the global outage — the Department of the Treasury, along with the Consumer Financial Protection Bureau and other federal agencies, cautioned that the industry’s deep reliance on a small handful of cloud service providers left it vulnerable to widespread outages and disruptions.

    The Treasury also released a suite of guidance for banks and financial institutions, following its report from last February that raised an alarm about the potential risks of the highly consolidated market. The report advised that a failure like the one on Friday “could impact multiple financial institutions or U.S. consumers,” and recommended additional oversight, like inspecting third-party service providers.

    The Consumer Financial Protection Bureau’s chief, Rohit Chopra, said on Friday that the failures are just a glimpse of the havoc that could be wreaked by this kind of outage in the financial sector. His agency has warned that in the future, such events could further “freeze parts of the payments infrastructure or grind other critical services to a halt.”

    “There are just a handful of big cloud companies where so much of the economy is now resting on,” Chopra said on CNBC. “We’re getting a taste of some of the potential effects of a real reliance of sectors across the economy relying on a handful of cloud companies and other key systems.”

    Friday’s outage was just a preview, he said, of what could go wrong in extreme cases of corporate consolidation and deregulation.

    “Break Up This Cloud Consortium”

    First reports of the outage surfaced early Friday morning, as computers running on Microsoft’s Windows operating system went down all at once. The issue traced back to a system update that was pushed by a company called CrowdStrike, a cybersecurity provider that is used to protect against hackers in a wide range of sectors, from airlines to banking — and was previously known for its involvement in the 2016 investigation into Russia’s hack of the Democratic National Committee.

    CrowdStrike quickly said it had identified the problem with the update and began pushing a solution, but added that the fixes could take hours.

    “We are aware of this issue and are working closely with CrowdStrike and across the industry to provide customers technical guidance and support to safely bring their systems back online,” Satya Nadella, Microsoft’s CEO, posted on X.

    Microsoft, which was one of the early pioneers of cloud computing software, controls a staggering 85 percent of federal productivity software, and even more of its operating system.

    Yet the Big Tech giant has a history of pushing back against cybersecurity measures. In 2016, the Federal Reserve, the Office of the Comptroller of the Currency, and the Federal Deposit Insurance Corporation released a joint rulemaking notice regarding the need for increased regulations on “enhanced cyber risk management standards for large and interconnected entities.”

    The proposed rule would have “significant consequences not only for the financial services industry but also for third-parties like Microsoft,” the company wrote in a comment letter. It also raised concerns about the new rules, and added that cloud service providers offer better service and cybersecurity than traditional on-site storage centers.

    The rule was withdrawn in March 2019.

    Agencies and Congress have repeatedly tried and failed to strengthen cybersecurity regulations. Within the past three years, lawmakers have introduced at least four legislative initiatives to address these concerns, though none have been adopted so far.

    This February, the federal Cybersecurity and Infrastructure Security Agency also announced it was renewing a task force charged with managing risks to the global information and communications technology supply chain, crucial for protecting computer hardware, software, and applications.

    The companies themselves were seemingly aware of the potential threat caused by an overreliance on cloud-based systems.

    In a 2023 comment letter to the Consumer Financial Protection Bureau about a proposed rulemaking to tighten personal data restrictions, CrowdStrike — the cybersecurity company responsible for Friday’s data breach — argued that the biggest risk to cybersecurity was not software supply chain issues, but hackers.

    “It is our view that perhaps the most significant threat to data comes from bad actors operating unlawfully, leading to data breaches, cyberattacks, exploits, ransomware attacks and other exposure of consumer data,” CrowdStrike wrote.

    CrowdStrike echoed their concerns about the dangers of hackers and resulting system failures in their most recent annual 10-K report. The company told investors that the “consolidation of siloed products” was a concern because “integrating and maintaining numerous products, data and infrastructures across highly distributed enterprise environments” created “blind spots that hackers can exploit.”

    Microsoft, in its 2023 annual report to shareholders, also expressed that “providing [their] customers with more services and solutions in the cloud puts a premium on the resilience of [their] systems.”

    But the companies have worked hard to keep regulators from taking steps to address these risks.

    Microsoft is one of the country’s top spenders on lobbying, ranking in the top one hundred of corporations. So far this year, the company spent more than $5 million on campaign donations and lobbying lawmakers and regulators. Microsoft lobbied Congress, the Federal Trade Commission, the Treasury Department, the Executive Office of the White House, and other regulators on “policy issues in cloud computing,” among other issues, disclosures show.

    “What we really need,” said Cooper, the University of Pennsylvania researcher, “is regulators to break up this cloud consortium of four or five companies and help distribute management of the internet backbone through a host of different companies.”

    Contributors

    Freddy Brewster is a freelance reporter and has been published in the Los Angeles Times, NBC News, CalMatters, the Lost Coast Outpost, and other outlets across California.

    Lucy Dean Stockton is the news editor at the Lever.

    Katya Schwenk is a journalist based in Phoenix, Arizona.

    Helen Santoro is a journalist based in Colorado.

    #capitalisme #informatique #internet #nuage #sécutité #GAFAM #cloud_computimg #monopoles #Microsoft #Amazon #Google

  • La galaxie Grand Frais, un système implacable pour limiter les droits des salariés
    https://www.lemonde.fr/economie/article/2024/07/07/la-galaxie-grand-frais-un-systeme-implacable-pour-limiter-les-droits-des-sal

    « La cadence, la cadence, la cadence. Tout est millimétré. » En commençant sa journée de travail trois heures avant l’ouverture de l’un des 316 supermarchés Grand Frais de France, Antoine – son prénom a été changé par crainte de représailles –, employé du rayon des fruits et légumes, sait déjà à quoi s’attendre. Ce trentenaire aux cheveux courts commence toujours par « bien refaire le tri, tailler toutes les croûtes noircies des salades, enlever les premières feuilles des choux… », avant de disposer l’arrivage du matin dans les rayons « selon une technique bien précise qu’il faut respecter ».

    • Bienvenue chez Grand Frais, enseigne en pleine croissance (130 magasins il y a dix ans, 316 aujourd’hui), mais aussi système implacable, avec son aspect extérieur attirant et ses rouages complexes. Côté face, ce sont des magasins inspirés des halles alimentaires de Paris, avec des étals de fruits et de légumes brillants comme s’ils venaient d’être récoltés et rangés aussi esthétiquement que sur une photo publiée sur Instagram, qui donnent aux clients l’envie de tout acheter, et aux concurrents de les imiter. Côté pile, une galaxie composée de plusieurs centaines de sociétés et un savant découpage de microentreprises qui étouffe tout dialogue social.

      [...]

      Chaque magasin est une société à part entière, construite sous forme de GIE (groupement d’intérêt économique). Il y a par exemple le « GIE Grand-Quevilly » pour le Grand Frais de cette commune près de Rouen, le « GIE de Pontivy » pour celui de la ville du Morbihan du même nom…
      Chaque GIE est partagé entre ses membres, des partenaires qui interviennent dans ses rayons. La société Despi, propriété de la famille Despinasse, gère le rayon boucherie de la plupart des Grand Frais. Euro Ethnic Foods (ex-Agidra), fondé par la famille Bahadourian et dont le fonds d’investissement PAI Partners détient 60 %, s’occupe de la partie épicerie. Enfin, Prosol gère tout le reste avec deux sociétés (Prosol Exploitation pour les fruits et légumes et la poissonnerie, et Crèmerie Exploitation pour la crémerie). Pour compliquer encore un peu plus les choses, Prosol a annoncé, mardi 2 juillet, l’acquisition à l’automne de Novoviande, le réseau de boucheries qui intervient dans trente-neuf Grand Frais de la région parisienne.

      En matière économique, chaque prestataire récupère le chiffre d’affaires qu’il réalise dans le magasin, et les dépenses concernant les « parties communes » (encaissement, parking, déchets…) sont, à la manière d’un immeuble en copropriété, réparties entre tous les intervenants. Rien de tout cela, en revanche, chez Fresh ou Mon marché, entièrement aux mains de Prosol, dont le fonds d’investissement Ardian est actionnaire majoritaire aux côtés de M. Dumont. « Grand Frais, c’est juste une enseigne, pas une société », résume Frédéric Leschiera, membre du bureau du syndicat SUD-Commerces et Services pour la région Auvergne-Rhône-Alpes.

      #commerce #travail #grande_distribution #Grand_frais #Fresh

  • La génération Fenwick et le monde la logistique sous l’œil des rappeurs.
    https://lhistgeobox.blogspot.com/2024/06/la-generation-fenwick-et-le-monde-la.html

    « Les grands groupes comme Amazon insistent sur la robotisation du travail et l’utilisation des nouvelles technologies dans le secteur de la logistique, laissant croire que ces innovations faciliteraient le travail ouvrier. Or, il n’en est rien. L’omniprésence de la technologie (logiciels pro de gestion, commandes vocales, écrans tactiles) confine les ouvriers dans des tâches hyper-spécialisées, proches de celles développées au temps du taylorisme triomphant. De même, le savoir-faire des salariés est rogné par le travail sous commande vocale, qui existe dans certaines plateformes logistiques. Guidés par une voix numérique, les ouvriers, équipés d’un casque sur les oreilles, manipulent les colis à traiter, puis valident l’action une fois la tâche requise effectuée, par l’intermédiaire d’une reconnaissance vocale. Un pseudo-dialogue se crée avec la machine, mais il n’y a aucune marge de manœuvre, d’autonomie ou d’initiative pour le travailleur. »

  • « No Tech For #Apartheid » : chez #Google et #Amazon, la fronde grandit contre un partenariat avec Israël
    https://www.rfi.fr/fr/technologies/20240417-no-tech-for-apartheid-chez-google-et-amazon-la-fronde-grandit-contre-un

    En 2021, le ministre des Finances israélien annonce la signature avec Amazon et Google d’un contrat faramineux de 1,2 milliard de dollars en échange de l’installation de centres de données régionaux en Israël, assortie de l’utilisation de ses services d’intelligence d’artificielle et de sauvegarde dans le cloud.

    À l’époque déjà, de nombreux employés émettent de vives inquiétudes quant à ce contrat. Une première tribune signée par des employés de Google et Amazon avait été publiée par le Guardian en octobre 2021 pour dénoncer le « projet Nimbus » et la « vente d’une technologie dangereuse à l’armée et au gouvernement israélien » qui pourrait permettre « une surveillance massive des Palestiniens et une collecte de données illégale », notamment en matière de reconnaissance faciale.

    Mais la pression est encore montée d’un cran le 4 mars dernier. Un jeune ingénieur de Google, portant un tee-shirt siglé du slogan « No Tech for Apartheid » a interrompu une conférence sur la tech israélienne se tenant à New York et sponsorisée par le moteur de recherche en criant devant le public : « Je suis ingénieur logiciel chez Google et je refuse de créer une technologie qui alimente un génocide, l’apartheid ou la surveillance ». Le jeune homme de 23 ans est alors évacué manu militari de la salle. Trois jours plus tard, il est convoqué par ses supérieurs et licencié par Google.