• Conférence de #Khrys :

    #IA, #Philosophie du Libre et #Féminisme

    L’objectif de cette #conférence est, tout d’abord, d’apporter une réflexion sur ce que l’on appelle intelligence artificielle et l’#idéologie qui se cache derrière ; ensuite, de montrer en quoi la #philosophie_du_libre et le féminisme peuvent nous guider dans les #choix techniques et politiques à venir en ce domaine. Le tout en revisitant l’histoire des techniques et #imaginaires liés à l’IA sous un angle féministe.

    https://videos-libr.es/w/cKZQqzVxRfC9suiynb2yKt
    #AI #intelligence_artificielle #whisper #OpenAI #technique #machine #apprentissages_profonds #systèmes_experts #chatGPT #Eliza #projet #patriarcat

  • Moteur de recherche : Baisse du trafic organique
    https://www.mapao.net/actualites-web/964-moteur-de-recherche-baisse-du-trafic-organique.html

    Un récent rapport de la plateforme de licence de contenu TollBit, partagé exclusivement avec Forbes, révèle que les #moteurs_de_recherche alimentés par l’#IA, tels que ceux développés par #OpenAI et #Perplexity, envoient 96 % de #trafic_de_référence en moins vers les sites d’#actualités et les #blogs par rapport à la recherche Google traditionnelle.

  • Quand l’IA générative est une exploitation
    https://lepavenumerique.substack.com/p/quand-lia-generative-est-une-exploitation

    Édito du Pavé Numérique du 2 avril 2025
    par Ivan Gaudé

    https://www.youtube.com/watch?v=ngZ0K3lWKRc

    Miyazaki : « La génération d’animation par IA est une insulte à la vie elle-même. »

    Le 25 mars, #OpenAI a intégré à #ChatGPT un nouveau générateur d’images [1] perfectionné (avant de devoir partiellement en limiter l’accès gratuit devant la demande). Aussitôt, sans que l’on sache vraiment pourquoi, les utilisateurs sont devenus obsédés par le style visuel de Ghibli (studio d’animation fondé par Hayao Miyazaki et Isao Takahata). Ils ont inondé les réseaux sociaux de photos modifiées par ChatGPT pour être « dans le style » de #Ghibli [2] (en fait principalement celui de #Miyazaki).

    Quel est le problème ? Qu’y a-t-il de plus innocent qu’une petite ghiblimation du quotidien ? Derrière la génération de ces images optimistes, il y a un hic, et même deux.

    D’abord, cette possibilité implique de toute évidence que l’IA générative d’OpenAI a été entraînée sur la production du studio, sans accord ni autorisation [3]. Et même si le cadre juridique d’une telle utilisation n’est pas encore clarifié, même si la loi ne protège pas un style (et encore moins un style collectif), il est indéniable qu’il s’agit d’une appropriation.

    Circonstance aggravante, cela semble aller directement à l’encontre de la volonté de Miyazaki lui-même, qui est réputé avoir qualifié la génération d’animation par IA « d’insulte à la vie elle-même » (la dureté de cette phrase semble viser plus particulièrement la génération de mouvements non humains, mais sa consternation devant le principe même de la technique est très visible [4]). Seulement, on ne lui a pas demandé son avis.

    Pas plus que ne demandent quoi que ce soit les partisans MAGA [5], qui sont nombreux à s’être emparés de cette machine à mèmes, notamment sur X, ou la Maison-Blanche elle-même qui n’a pas manqué d’enfourcher la tendance de la façon la plus déshumanisante possible. La ghiblimation en cours sert donc aussi à camoufler la violence politique sous un vernis visuel familier et rassurant. Et une œuvre dont les thèmes récurrents sont l’antifascisme, la solidarité et le respect de la nature est recyclée par une idéologie qui prône son exact opposé.

    En somme, la ghiblimation est une sublimation, au sens physique du terme : elle fait passer une œuvre solide directement à l’état gazeux. En extrayant un soi-disant « style » pour le séparer du reste de l’œuvre et donc de son sens, OpenAI a permis une forme d’expropriation du créateur, suivie d’une déclinaison infinie et gratuite, ouverte à tous les contresens puisque dénaturée ; une exploitation totale.

  • L’#IA générative a le potentiel de détruire la planète (mais pas comme vous le pensez)

    Le risque premier avec l’#intelligence_artificielle n’est pas qu’elle s’attaque aux humains comme dans un scénario de science-fiction. Mais plutôt qu’elle participe à détruire notre #environnement en contribuant au #réchauffement_climatique.

    La course à l’intelligence artificielle (IA) s’intensifie. Le 9 février, veille du sommet de l’IA à Paris, Emmanuel Macron promettait 109 milliards d’euros d’investissements publics et privés dans cette technologie pour les années à venir. Il entend concurrencer les États-Unis sur ce terrain, en faisant référence au programme « #Stargate » promis par Donald Trump, qui prévoit des dépenses de 500 milliards de dollars (484 milliards d’euros) dans l’IA aux États-Unis.

    Des deux côtés de l’Atlantique, ces centaines de milliards seront principalement investis dans la construction de nouveaux #centres_de_données pour entraîner puis faire fonctionner les outils d’intelligence artificielle. Pourtant, les #impacts_environnementaux de ces « #data_centers », mis de côté dans ce sprint à l’IA, présentent un danger réel pour notre planète.

    « Plus grand est le modèle, mieux c’est »

    L’ouverture au public de l’agent conversationnel d’#OpenAI, #ChatGPT, en novembre 2022 a marqué un tournant dans les usages de l’intelligence artificielle. Depuis, des dizaines d’#IA_génératives sont accessibles avec la capacité de résoudre des problèmes variés, allant de la rédaction d’un email professionnel à des suggestions de recette de tartes, en passant par des lignes de code informatique.

    Ces #grands_modèles_de_langage (en anglais, « #Large_language_models », ou #LLM), avec un grand nombre de paramètres, se sont développés ces dernières années, comme #Gemini de #Google, #Le_Chat de l’entreprise française #MistralAI ou #Grok de X. D’autres modèles permettent de créer de toutes pièces des images – on pense à #Dall-E ou #Midjourney –, des vidéos ou des chansons.

    Si leur utilisation est gratuite (bien que des versions payantes existent), le prix est payé non seulement par les utilisateurs dont les #données_personnelles sont captées, mais aussi par les populations les plus vulnérables au changement climatique. Avec leurs dizaines voire centaines de milliards de paramètres et des terabytes de #données pour les alimenter, faire tourner les systèmes d’IA générative demande beaucoup de #puissance_de_calcul de #serveurs, situés dans des centres de données. Donc beaucoup d’#électricité.

    Ces chiffres ne font qu’augmenter à mesure que les modèles se perfectionnent. « Aujourd’hui, l’idée dominante dans l’industrie des modèles génératifs est : "Plus grand est le modèle, mieux c’est" », résument les chercheurs Paul Caillon et Alexandre Allauzen dans The Conversation. Malgré un manque de transparence des entreprises, la consommation d’électricité de leurs modèles et leur impact climatique ont fait l’objet d’estimations par nombre de chercheurs et institutions.
    Combien consomme une requête ChatGPT ?

    On sait déjà que la version de ChatGPT sortie en mars 2023, #GPT-4, a demandé plus de puissance de calcul que la précédente. Le Conseil économique et social (Cese), dans un avis de septembre 2024, cite OpenAI et explique : entraîner la troisième version de son modèle de langage a demandé l’équivalent de l’énergie consommée par 120 foyers américains. La version suivante a multiplié par 40 cette consommation, avoisinant la consommation de 5000 foyers.

    Selon une étude, début 2023, une requête ChatGPT consommait environ 2,9 Wh d’électricité, soit presque dix fois plus qu’une simple recherche Google (0,3 Wh). D’autres études estiment l’#impact_carbone d’une requête à ChatGPT autour de 4 à 5 grammes d’équivalent CO2.

    Produire une #image, c’est pire. La startup #HuggingFace, à l’origine de l’#IA_Bloom, a été l’une des premières à estimer les #émissions_de_gaz_à_effet_de_serre de ces modèles. Dans une étude co-écrite avec l’Université états-unienne de Carnegie-Mellon, elle montre que la génération d’image est de loin la plus polluante des requêtes formulées à une IA générative (l’étude ne prend pas en compte les vidéos).

    Pour donner un ordre d’idée, générer 1000 images correspondrait à conduire environ 7 kilomètres avec une voiture essence. En comparaison, 1000 textes générés équivalent à moins d’un 1 mètre parcouru avec un même véhicule. Mais leur utilisation massive rend cet impact non négligeable. Selon le PDG d’OpenAI Sam Altman,, à la fin de l’année 2024, plus d’un milliard de requêtes étaient envoyées à ChatGPT par jour.

    En janvier 2023, soit quelques mois après qu’elle a été rendue accessible au public, ChatGPT avait accumulé 100 millions d’utilisateurs. Selon une estimation de Data for Good, rien que ce mois-là, l’utilisation de ChatGPT aurait pollué à hauteur de 10 113 tonnes équivalent CO2 – soit environ 5700 allers-retours en avion entre Paris et New York.

    En décembre 2024, selon son PDG, le service avait atteint les 300 millions d’utilisateurs… par semaine. Et ce, avec une version bien plus performante – donc bien plus polluante – que la précédente.

    De plus en plus de personnes utilisent l’IA au quotidien, et pour de plus en plus de tâches. Installés dans nos smartphones, accessibles en ligne ou même intégrés dans les frigos haut de gamme, les outils d’intelligence artificielle sont presque partout.

    Une explosion de la consommation d’électricité

    Selon l’Agence internationale de l’énergie, les centres de données représenteraient aujourd’hui environ 1 % de la consommation d’électricité mondiale. Mais cette consommation risque d’augmenter avec les usages croissants et le développement de nouveaux modèles d’IA. Selon l’agence, la consommation des centres de données pour l’IA et les #cryptomonnaies a dépassé 460 TWh en 2022. C’est autant que la consommation de la France. D’ici l’année prochaine, selon les scénarios, cette demande en électricité pourrait augmenter de 35 % (160 TWh en plus) à 130 % (590 TWh) ! « Soit l’équivalent d’au moins une Suède et au maximum une Allemagne » de plus dans le monde en quelques années.

    Une autre étude de l’ONG Beyond Fossils Fuels est encore plus alarmiste : « Au cours des six prochaines années, l’explosion de la demande en énergie des centres de données dans l’UE [Union européenne] pourrait entraîner une hausse de 121 millions de tonnes des émissions de CO2, soit presque l’équivalent des émissions totales de toutes les centrales électriques au gaz d’Italie, d’Allemagne et du Royaume-Uni en 2024 combinées » écrit l’ONG en février 2025.

    Les grandes entreprises de la tech cherchent à faire oublier leurs promesses écologiques. Selon le Financial Times, dans un article d’août 2024, les Gafam tentent de remettre en cause les règles de « zéro carbone net » qui leur permettent de compenser leurs émissions de CO2 par le financement d’énergies renouvelables (des règles déjà critiquées pour leur mode de calcul qui dissimule une grande partie de l’impact carbone réel de leurs consommation d’électricité).

    « Ces géants de la technologie sont sur le point de devenir les plus gros consommateurs d’énergie de demain, dans leur course au développement d’une intelligence artificielle énergivore », écrit le média britannique. Les émissions de gaz à effet de serre de Google augmentent par exemple de 13% par an (selon des chiffres de 2023). Une hausse notamment portée par l’augmentation de la consommation d’énergie de ses centres de données. Les émissions de Microsoft ont bondi de 29 % entre 2020 et 2023.

    Des investissements massifs aux dépens des populations

    Les chefs d’État des États-Unis comme de la France ont pourtant annoncé des investissements massifs dans l’IA pour les années à venir. L’Union européenne, par la voix d’Ursula von der Leyen, a également annoncé un investissement de 200 milliards en partenariat avec de grands groupes.

    Dans les trois cas, ces centaines de milliards d’euros sur la table serviront majoritairement à construire des centres de données pour permettre l’entraînement puis l’utilisation de ces technologies. En France, en amont du sommet de l’IA, le fonds canadien Brookfield a annoncé investir 15 milliards d’euros dans la construction de centres de données, tandis que les Émirats arabes unis ont mis entre 30 et 50 milliards sur la table pour la construction d’un centre de données géant.

    Il est peu probable que cette consommation d’électricité massive ne se fasse pas au détriment des populations. En Irlande, les centres de données monopolisent une part grandissante de l’électricité du pays, ils représentent aujourd’hui plus de 20 % de sa consommation. Cette situation crée des tensions avec les habitants, qui voient leurs factures augmenter alors que la consommation des ménages n’augmente pas.
    Des engagements « durables » non contraignants

    Aux États-Unis, raconte un article de Vert, Microsoft va rouvrir le premier réacteur de la centrale nucléaire de Three Mile Island, site d’un accident en 1979 qui avait irradié toute cette partie de la Pennsylvanie et traumatisé les habitants. Les géants de la Tech – Google, Amazon et Microsoft en tête – cherchent également à investir dans les « petits réacteurs modulaires » nucléaires, en cours de développement, pour alimenter leurs centres de données, ce qui pose la question de la sûreté d’une multitude de petites installations nucléaires face au risque d’accidents. Autre conséquence : le retour en grâce du charbon, fortement émetteur en gaz à effet de serre. Dans l’État de Géorgie, la promesse faite il y a trois ans de fermer toutes ses centrales à charbon a été abandonnée pour répondre au pic de demande d’électricité créé par les centres de données.

    Face à ces risques pour les populations locales comme pour celles les plus vulnérables au changement climatique dans le monde entier, les actions semblent faibles. Une déclaration d’intention a été signée à l’issue du sommet de l’IA, notamment avec l’Inde et la Chine. Il prévoit entre autres la création d’un observatoire de l’impact énergétique de l’IA, sous la responsabilité de l’Agence internationale de l’énergie. Il planifie également la création d’une « coalition pour l’IA durable » avec de grandes entreprises du secteur.

    Ces engagements en matière d’intelligence artificielle signés par les États et les entreprises présentes ne sont pas contraignants, et ne sont pas tournés vers l’action immédiate. De plus, ni le Royaume-Uni ni les États-Unis, qui concentre un tiers des centres de données du monde, n’ont signé ce texte.

    https://basta.media/l-ia-generative-a-le-potentiel-de-detruire-la-planete-mais-pas-comme-vous-l

    #environnement #climat #changement_climatique #pollution #visualisation #infographie

    • Se contenter de « calculer » la consommation énergétique directe de l’IA, c’est omettre de « calculer » ses effets induits, ses conséquences systémiques, puisque « grâce » à l’IA, on peut faire plus de croissance générale. Sans même parler des effets rebonds tous azimuts... Par exemple, on peut utiliser l’IA pour produire un article de blog. Cette utilisation d’IA consomme une unité d’énergie mais elle a aussi permis d’augmenter le volume de contenu qui lui même consomme de l’énergie sur les serveurs.

  • ChatGPT’s Political Views Are Shifting Right, a New Analysis Finds

    While the chatbot still seems to lean left on many issues, its bias is changing.

    When asked about its political perspective, OpenAI’s #ChatGPT says it’s designed to be neutral and doesn’t lean one way or the other. A number of studies in recent years have challenged that claim, finding that when asked politically charged questions, the chatbot tends to respond with left-leaning viewpoints.

    That seems to be changing, according to a new study published in the journal Humanities and Social Sciences Communications by a group of Chinese researchers, who found that the political biases of OpenAI’s models have shifted over time toward the right end of the political spectrum.

    The team from Peking University and Renmin University tested how different versions of ChatGPT—using the GPT-3.5 turbo and GPT-4 models—responded to questions on the Political Compass Test. Overall, the models’ responses still tended toward the left of the spectrum. But when using ChatGPT powered by newer versions of both models, the researchers observed “a clear and statistically significant rightward shift in ChatGPT’s ideological positioning over time” on both economic and social issues.

    While it may be tempting to connect the bias shift to OpenAI and the tech industry’s recent embrace of President Donald Trump, the study authors wrote that several technical factors are likely responsible for the changes they measured.

    The shift could be caused by differences in the data used to train earlier and later versions of models or by adjustments OpenAI has made to its moderation filters for political topics. The company doesn’t disclose specific details about what datasets it uses in different training runs or how it calibrates its filters.

    The change could also be a result of “emergent behaviors” in the models like combinations of parameter weighting and feedback loops that lead to patterns that the developers didn’t intend and can’t explain.

    Or, because the models also adapt over time and learn from their interactions with humans, the political viewpoints they express may also be changing to reflect those favored by their user bases. The researchers found that the responses generated by OpenAI’s GPT-3.5 model, which has had a higher frequency of user interactions, had shifted to the political right significantly more over time compared to those generated by GPT-4.

    The researchers say their findings show popular generative AI tools like ChatGPT should be closely monitored for their political bias and that developers should implement regular audits and transparency reports about their processes to help understand how models’ biases shift over time.

    “The observed ideological shifts raise important ethical concerns, particularly regarding the potential for algorithmic biases to disproportionately affect certain user groups,” the study authors wrote. “These biases could lead to skewed information delivery, further exacerbating social divisions, or creating echo chambers that reinforce existing beliefs.”

    https://gizmodo.com/chatgpts-political-views-are-shifting-right-a-new-analysis-finds-2000562328

    #droite #AI #IA #intelligence_artificielle #droite #algorithmes #idéologie #openAI

  • L’accélération de l’#IA pose déjà des questions de #pénuries d’#eau et d’#énergie

    Le Royaume-Uni comme les États-Unis viennent de présenter de nouveaux plans pour soutenir la mise en place d’#infrastructures pour l’IA dans leurs territoires. Mais actuellement, aux États-Unis, de nouvelles #centrales au gaz sont ouvertes pour répondre aux demandes d’énergie de l’IA. Au Royaume-Uni, l’implantation par le gouvernement de sa « première zone de croissance de l’IA » près d’un nouveau réservoir pose la question des priorités d’#accès_à_l'eau.

    Ce mardi 14 janvier et six jours avant la passation de pouvoir à Donal Trump, Joe Biden a publié un décret pour l’investissement des États-Unis dans des infrastructures. « Je signe aujourd’hui un décret historique visant à accélérer la vitesse à laquelle nous construisons la prochaine génération d’infrastructures d’IA ici aux États-Unis, de manière à renforcer la compétitivité économique, la sécurité nationale, la sécurité de l’IA et l’énergie propre », affirme-t-il.

    Selon certaines estimations, la consommation énergétique de l’IA devrait être multipliée par 4 à 9 d’ici 2050 et la consommation d’énergie des #data_centers aux États-Unis est déjà très carbonée.

    Le #gaz comme source d’énergie future aux États-Unis

    Mais, malgré les différentes annonces d’investissements dans le nucléaire par les géants du numérique, les États-Unis seraient plutôt à l’aube d’un boom de la construction de #centrales_électriques au gaz naturel, selon le Financial Times. Le journal économique américain explique que « les grandes entreprises technologiques se tournent vers les #combustibles_fossiles pour répondre aux énormes besoins en #électricité de la révolution de l’intelligence artificielle, ce qui met en péril les objectifs en matière de climat ».

    Le journal cite le cabinet de conseil en énergie #Enverus qui prévoit qu’au moins 80 centrales électriques au gaz seront construites aux États-Unis d’ici à 2030. Le Financial Times estime la capacité supplémentaire de ces centrales à 46 gigawatts, « soit la taille du réseau électrique norvégien et près de 20 % de plus que ce qui a été ajouté au cours des cinq dernières années ». Et selon Corianna Mah, analyste pour Enverus interrogée par le journal, « le gaz croît en fait plus rapidement aujourd’hui, et à moyen terme, que jamais auparavant ». Aucun des projets qu’Enverus a listés ne prévoit d’être équipé d’un système de capture de dioxyde de carbone.

    Approvisionnement de l’eau dans un lac de barrage prévu pour la population britannique

    De son côté, le gouvernement du Royaume-Uni vient d’annoncer une stratégie nationale pour faire de son pays un leader en matière d’intelligence artificielle. Dedans, il prévoit entre autres des « Zones de croissance de l’IA » (#IA_growth_zones), « des zones bénéficiant d’un meilleur accès à l’électricité et d’un soutien pour les autorisations de planification, afin d’accélérer la mise en place d’une infrastructure d’IA sur le sol britannique », comme l’explique le communiqué du Secrétariat d’État à la science, à l’innovation et à la technologie.

    Mais des questions se posent sur l’emplacement prévu de la première « #zone_de_croissance ». Situé à Culham, au siège de l’Autorité britannique de l’énergie atomique (UKAEA), cet endroit est aussi celui du premier nouveau lac de barrage construit depuis 30 ans aux Royaume-Uni, « qui était censé fournir de l’eau aux habitants du sud-est de l’Angleterre, qui souffre d’un grave problème d’approvisionnement en eau », explique le Guardian.

    Le journal britannique souligne que cette région est celle qui, selon l’agence environnementale nationale, est la plus sensible du pays aux manques d’eau. Entre les réserves d’eau disponibles et la demande attendue sans compter les data centers, le sud-est du pays sera confronté à un déficit potentiel de plus de 2,5 milliards de litres par jour d’ici 2050.

    Du côté énergétique, le gouvernement britannique a mis en place un Conseil de l’énergie de l’IA qui doit travailler avec les entreprises du secteur pour « pour comprendre les demandes et les défis énergétiques » liés à l’intelligence artificielle. Il parie encore sur la possibilité de mettre en place des #SMR (#réacteurs_nucléaires_modulaires).

    « L’expansion de l’IA a été un sujet de préoccupation pour #National_Grid [entreprise de distribution de l’électricité et du gaz notamment au Royaume-Uni], mais la vitesse à laquelle la demande de calcul de l’IA augmente a pris tout le monde par surprise et, à moins que nous n’équilibrions correctement les compromis ci-dessus, avec des politiques appropriées, toute l’énergie verte et bon marché dont nous disposons sera utilisée par les grandes entreprises technologiques, ce qui privera les familles qui souffrent déjà de la pauvreté énergétique », explique Gopal Ramchurn, chercheur de l’université de Southampton, interrogé par le Guardian.

    La #France s’appuie sur son #nucléaire, mais des tensions sont présentes

    Quant à la France, l’instabilité politique ne permet pas d’y voir très clair dans la politique du pays concernant l’IA. Lors de son discours de politique générale, le premier Ministre François Bayrou a évoqué l’IA lorsqu’il a annoncé la création d’un fonds spécial « entièrement [consacré] à la réforme de l’État ». Ce fonds sera financé par des actifs « en particulier immobiliers, qui appartiennent à la puissance publique, de façon à pouvoir investir, par exemple, dans le déploiement de l’intelligence artificielle dans nos services publics ».

    Lors de ses vœux, le Président de la Région Normandie Hervé Morin a évoqué la volonté de sa région d’être référente en matière d’intelligence artificielle et d’accueillir des data centers sur trois ou quatre points du territoire. Il a mis en avant « son potentiel énergétique décarboné », faisant référence aux centrales nucléaires de Flamanville, Paluel et Penly et à l’EPR situé lui aussi à Flamanville.

    Mais RTE tirait récemment un signal d’alarme sur le foisonnement de projets de data centers prévus pour l’IA. Si l’entreprise affirmait en novembre à l’Usine Nouvelle avoir « assez d’électricité pour répondre à la croissance des besoins », elle pointait aussi du doigt une « course à la capacité » et un manque de planification :« plusieurs projets ont été abandonnés en raison de tensions sur la distribution de l’énergie », ajoutait-il.

    https://next.ink/165467/lacceleration-de-lia-pose-deja-des-questions-de-penuries-deau-et-denergie

    #intelligence_artificielle #AI #énergie_nucléaire

    • Pourquoi l’IA générative consomme-t-elle tant d’énergie ?

      #DeepSeek défraye la chronique en proposant un modèle dont les #performances seraient comparables à celles des modèles préexistants, pour un coût très réduit en termes de puissance de calcul et de données, et donc une #consommation_énergétique moindre. Quand on sait que Microsoft a indiqué une hausse de 29,1 % d’émission de carbone sur l’année 2023 et que différentes grandes entreprises du numérique investissent dans des capacités de production d’électricité, le tout en lien avec l’essor de l’#IA_générative, l’enjeu est de taille. Pourquoi l’IA générative consomme-t-elle tant ? Décryptage.

      Les grands modèles de langage (Large Language Models ou LLM), comme ChatGPT (OpenAI), Gemini (Google/DeepMind) ou encore les modèles génératifs d’images comme #Midjourney, sont devenus en très peu de temps des outils incontournables avec des usages qui ne cessent de s’amplifier et de se diversifier. Il est vrai que la fluidité des échanges avec ChatGPT impressionne, et que les promesses de développement sont enthousiasmantes.

      Néanmoins, ces promesses cachent des coûts de calcul, et donc énergétiques, considérables. Or, aujourd’hui l’idée dominante dans l’industrie des modèles génératifs est : « Plus grand est le modèle, mieux c’est. » Cette compétition s’accompagne d’une croissance de la consommation énergétique et, donc, de l’empreinte écologique qui ne peut plus être ignorée et qui questionne quant à sa pérennité et sa viabilité pour la société.
      Pourquoi un tel coût ?

      Un modèle génératif de texte comme un chatbot est un ensemble de paramètres numériques ajustés à partir de données pour accomplir une tâche spécifique. L’architecture dominante s’appuie sur les « transformers ».

      Les #transformers prennent une séquence en entrée, par exemple un prompt (soit votre question), pour la transformer numériquement. En empilant les couches de transformers, le modèle multiplie ces transformations afin de construire la réponse en prolongeant son entrée. Cet empilement de couches confère au modèle son efficacité et fait croître le nombre de paramètres. C’est pourquoi un modèle tel que GPT-4 contient au moins 1 tera (1 000 milliards) de paramètres et nécessite donc au moins 2 tera octets (To) de mémoire vive pour être utilisable.

      Que ce soit pour l’entraînement, pour le stockage des données et des paramètres, ou pour le calcul d’une réponse, des infrastructures de calcul de plus en plus puissantes sont donc indispensables. En d’autres termes, contrairement à ce que l’on croit souvent, ce n’est pas juste pour entraîner le modèle que ces techniques sont très coûteuses.

      Des données émerge la « connaissance »

      Avant tout, un modèle génératif doit être « appris ». Pour cela des données (textes, images, sons, etc.) lui sont présentées à maintes reprises afin d’ajuster ses paramètres. Plus il y a de paramètres, plus la phase d’apprentissage est coûteuse en données, mais aussi en temps et en énergie.

      Ainsi, pour un LLM (grand modèle de langage), on parle par exemple de l’ordre de la dizaine de trillions de données (environ 10 trillions pour GPT-4 et 16 trillions pour Gemini) et aux alentours de trois mois de préapprentissage sur environ 20 000 puces A100 de NVIDIA pour le dernier-né d’OpenAI. Ces modèles les plus performants sont en fait une combinaison de plusieurs énormes modèles (les « Mixture of Experts »), GPT-4 étant ainsi le résultat de 16 experts de 110 milliards de paramètres, selon les rares informations disponibles.

      Après cette phase d’apprentissage, le modèle est déployé afin de répondre aux utilisateurs dans une phase dite d’« inférence ». Pour faire face à la demande (ces systèmes construits pour répondre à plusieurs personnes en même temps) avec un temps de réponse satisfaisant, le modèle est alors dupliqué sur différents clusters de calcul. Un article de recherche constate également que les architectures génératives polyvalentes consomment significativement plus d’énergie à l’inférence que les systèmes spécifiques à une tâche, même à taille de modèle équivalente.

      Ce survol des besoins en termes de calcul donne une idée des ordres de grandeur qui se cachent derrière nos interactions — qui semblent si rapides et efficaces — avec ces énormes modèles. Il permet surtout de poser différemment la question de l’évaluation de ces modèles, en y incluant la question de la soutenabilité en termes énergétiques et écologiques. Des travaux récents proposent ainsi un modèle pour évaluer les impacts environnementaux de la fabrication des cartes graphiques et une analyse multicritère des phases d’entraînement et d’inférence des modèles d’apprentissage automatique.
      Obsolescence et frugalité

      Ainsi les grands modèles génératifs nécessitent des infrastructures matérielles colossales.

      Au-delà de considérations économiques, il a été montré que passé un certain point, les gains de performances ne justifient pas une telle explosion du nombre de paramètres. Toutes les applications ne nécessitent pas d’énormes modèles et des approches plus modestes peuvent être aussi performantes, plus rapides et moins coûteuses.

      Sur le plan environnemental, l’apprentissage et l’inférence de modèles massifs ont un coût énergétique qui nécessitent réflexion. Les travaux de certains auteurs soulignent la complexité de mesurer avec précision l’empreinte carbone de ces grands modèles, tout en montrant leur impact considérable : 50,5 tonnes équivalent CO2 (CO2 eq) pour un modèle de 176 milliards de paramètres, appris en 2023… et pratiquement considéré comme obsolète aujourd’hui. Pour rappel, si un Français moyen rejette actuellement environ 10 tonnes CO2 eq par an, l’objectif à l’horizon 2050 pour respecter l’engagement des accords de Paris est d’environ 2 tonnes CO₂ eq par Français et par an.

      Quant à la phase d’inférence (ou d’utilisation, quand on pose une question à GPT), lorsqu’elle est réalisée des millions de fois par jour, comme c’est le cas pour un assistant conversationnel, elle peut engendrer un coût énergétique considérable, parfois bien supérieur à celui de l’entraînement.

      Ainsi, un outil développé en 2019 a permis d’estimer qu’une inférence de ChatGPT 3.5 produisait environ 4,32 grammes de CO2.

      À l’heure où les assistants conversationnels sont peut-être en passe de remplacer les moteurs de recherche standards (Google, Bing, Qwant), la question de son utilisation se pose, car ces derniers ont un coût 10 à 20 fois moindre (0,2 gramme de CO2 la recherche, d’après Google).

      Enfin, la concentration de pouvoir entre quelques acteurs disposant des ressources nécessaires pour développer ces modèles — data centers, données, compétences — pose des problèmes scientifiques en limitant la diversité des recherches, mais aussi stratégiques et politiques.
      Les recherches en IA frugale

      La frugalité consiste à se fixer dès le départ une enveloppe de ressources (calcul, mémoire, données, énergie) et à concevoir des modèles capables de s’y adapter. L’idée n’est pas de sacrifier les performances, mais de privilégier la sobriété : optimiser chaque étape, du choix de l’architecture à la collecte des données, en passant par des méthodes d’apprentissage plus légères, afin de réduire l’empreinte environnementale, d’élargir l’accès à l’IA et de favoriser des applications réellement utiles.

      La recrudescence de travaux de recherche sur ce thème illustre la volonté de penser l’IA sous l’angle de la sobriété. Il s’agit ainsi de replacer la pertinence, l’impact sociétal et la soutenabilité au cœur de la recherche.

      Concrètement, de nombreuses pistes émergent. Sur le plan de l’apprentissage, il s’agit d’explorer des alternatives algorithmiques au paradigme actuel, hérité du milieu des années 1980 et qui n’a jamais été remis en question alors même que les quantités de données et la puissance de calcul n’ont plus rien à voir avec celles qui prévalaient aux débuts de ces modèles.

      Ainsi, au-delà des optimisations techniques, une réflexion méthodologique de fond s’impose, tant le contexte scientifique a évolué depuis les années 1980. Cette réflexion est au cœur, par exemple, du projet Sharp, financé par le programme France 2030. L’étude d’architectures plus compactes et spécialisées est également abordée avec le projet Adapting du même programme.

      Les mathématiques appliquées peuvent jouer un rôle clé en proposant des « représentations parcimonieuses », des méthodes de factorisation, ou en optimisant l’usage de données faiblement annotées.

      Ainsi, en travaillant avec des contraintes de ressources, ces recherches visent un développement en IA plus frugal et donc durable, ainsi que plus accessible, et indépendant de l’hyperconcentration du marché. Elles limitent les externalités négatives — environnementales, éthiques, économiques — liées à la course effrénée vers le gigantisme.

      Mais pour atteindre ces objectifs, il est aussi important d’avancer sur les critères et les méthodes d’évaluations en IA : avec le paradigme dominant actuel, la dimension de frugalité peine encore à s’imposer, que ce soit du côté de la recherche ou industriel. Il ne faut d’ailleurs pas confondre la récente explosion des outils de DeepSeek avec de la frugalité, les coûts en calcul et en données étant eux aussi extrêmement élevés, avec des méthodes probablement éthiquement répréhensibles.

      Ainsi, le monde académique doit mieux intégrer cette dimension afin d’améliorer la visibilité et la valorisation des travaux qui visent la frugalité.
      L’IA que nous développons est-elle vraiment utile ?

      La frugalité en IA n’est pas un simple concept, mais une nécessité face aux enjeux actuels. Les travaux récents sur son empreinte carbone illustrent l’urgence de repenser nos méthodes. Avant même d’envisager les manières de rendre l’IA plus sobre, il est légitime de se demander si l’IA que nous développons est vraiment utile.

      Une approche plus frugale, mieux pensée et mieux orientée, permettra de construire une IA tournée vers le bien commun, s’appuyant sur des ressources maîtrisées, plutôt que sur la surenchère permanente en taille et en puissance de calcul.

      Cet article a été écrit dans le cadre de la troisième édition des Dauphine Digital Days qui a eu lieu à l’Université Paris Dauphine — PSL, du 18 au 20 novembre 2024.

      https://theconversation.com/pourquoi-lia-generative-consomme-t-elle-tant-denergie-247406

    • IA : un puits sans fond de dépenses en énergie, en #eau et en #CO2

      Emmanuel Macron veut croire que la France a « des #data_centers_propres ». Mais les dégâts environnementaux des industries numériques sont déjà tangibles (consommation d’#électricité, émissions de CO2, besoins en eau et en #minerais, conflits d’usage sur le #foncier) alors que l’idée d’une #IA_verte n’est encore qu’une promesse.

      Si le climat était une intelligence artificielle (IA), le monde serait en train de le sauver. Face au tsunami d’investissements publics et privés programmés pour ses infrastructures, il est tentant de détourner le fameux slogan : « Si le climat était une banque, ils l’auraient déjà sauvé. » Car si ces annonces financières brillent de l’or des profits à venir, elles éclipsent un problème tout aussi exponentiel : les impacts environnementaux désastreux de l’IA.

      109 milliards d’euros en France dans les prochaines années annoncés par Emmanuel Macron, ainsi qu’un projet de méga data center cofinancé par les #Emirats_arabes_unis ; 500 milliards de dollars débloqués pour #Stargate (« la porte des étoiles ») et ses futurs data centers aux États-Unis par #OpenAI et #SoftBank ; 65 milliards de dollars par #Meta, la maison-mère de #Facebook, qui a par ailleurs démoli un centre de données en cours de construction pour le remplacer par un autre adapté aux besoins de l’IA. #Microsoft veut débourser 80 milliards de dollars en divers équipements techniques dans le même objectif.

      Secteur industriel en plein boom ou au bord d’une bulle financière, l’avenir le dira. Mais l’#empreinte_carbone et matérielle de la ruée mondiale vers les #données_numériques est, elle, déjà palpable. Une requête via #ChatGPT consomme dix fois plus d’électricité qu’une recherche Google, selon l’Agence internationale de l’énergie (AIE). Ses expert·es anticipent une explosion de la demande énergétique, équivalente à la consommation actuelle d’un pays comme la Suède ou même l’Allemagne – selon la place du curseur sur la fourchette d’estimation.

      Requêtes énergivores

      Pourquoi ? Deux explications principales semblent faire consensus parmi les spécialistes. D’abord, des raisons strictement matérielles : les #serveurs configurés pour l’#IA_générative utilisent beaucoup plus de courant électrique que leurs prédécesseurs. Notamment parce qu’ils utilisent des puces spécifiques, les #GPU (« # graphics_processing_unit », des #processeurs_graphiques), « qui ont des capacités de #calcul nécessaires à la #technologie d’apprentissage qui permet aux modèles d’IA d’améliorer leur performance, explique Loup Cellard, chercheur associé au médialab de Sciences Po. Une requête sur ChatGPT demande plus de mémoire vive et plus de capacité de #stockage qu’une simple recherche sur un moteur internet ».

      Or, chacun de ces services correspond à des besoins matériels supplémentaires. « Faire une requête ChatGPT pour demander un truc que pourrait donner Google, c’est comme couper votre baguette de pain avec une scie électrique : ça marche mais ça n’est pas la meilleure utilisation que vous pouvez faire des ressources », résume Sylvain Waserman, président de l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), selon qui « il serait absurde de s’opposer à l’IA et il est irresponsable de ne pas s’intéresser à ses impacts ».

      La phase d’entraînement des machines est plus intense en énergie à l’unité, car elles doivent être beaucoup stimulées pour ramasser et distribuer les données. Mais c’est bien sûr celle des usages qui finalement est la plus énergivore, car le nombre des utilisateurs de la technologie dépasse de loin celui des ingénieur·es qui la développent.

      Ainsi « la migration vers le cloud, l’essor de l’IA générative et les #cryptomonnaies sont les trois principaux vecteurs de la reconfiguration en cours des impacts des centres informatiques » selon l’association GreenIT, dont les rapports font référence. Les data centers, les cryptomonnaies et l’intelligence artificielle ont consommé près de 2 % de l’électricité mondiale en 2022, selon l’AIE. Cela peut sembler dérisoire. Mais la quantité d’électricité qu’ils consomment pourrait doubler en 2026 (par rapport à 2022). Il existe aujourd’hui plus de 8 000 centres de données dans le monde, principalement situés aux États-Unis.

      Les data centers adaptés aux besoins de l’intelligence artificielle consomment 18 % de l’électricité des centres informatiques, alors qu’ils n’en représentent que 2 % de la quantité dans le monde, selon les dernières estimations de GreenIT. Ils émettent près de 4 % de tout le CO2 de la filière numérique, soit déjà plus que l’ensemble des ordinateurs portables en circulation. Selon #France_Datacenter, le lobby du secteur, la demande supplémentaire liée à l’IA générative en France d’ici à dix ans sera de 1 gigawatt, l’équivalent d’un petit réacteur nucléaire.

      Mais les opérateurs de data centers n’aiment pas trop aborder le sujet de leurs impacts environnementaux. Interrogé par Mediapart sur ses besoins en électricité pour soutenir le développement de son activité, #Amazon_Web_Service (#AWS), la branche data center du Gafam, répond par la liste très détaillée de ses investissements et créations d’emplois à venir, sans un mot sur ses besoins énergétiques.

      « Avec l’IA, on pourrait changer d’échelle d’ici à 2030 en termes d’impact environnemental car ses serveurs ne représentent que 2 % des équipements et la demande est très importante pour les années à venir, constate Cécile Diguet, spécialiste des infrastructures numériques. Aujourd’hui, le numérique est un des secteurs qui nous mettent dans le rouge quant au respect des limites planétaires : consommation d’énergie, de ressources en minerais et terres rares, en eau. Les technologies et le numérique prétendent régler des problèmes qu’ils aggravent. Grâce à une IA, on pourra peut-être traiter une base de données plus vite ou mieux gérer la complexité de réseaux d’électricité. Mais en définitive, l’accumulation perpétuelle de matériels et de data centers fait que tous les gains en énergie sont consommés derrière. Le numérique n’est pas source de sobriété. »

      C’est particulièrement vrai concernant les quantités de minerais utilisés pour fabriquer les équipements (centres de données mais aussi puces et autres composants) nécessaires à l’IA – et les déchets en résultant. Ils sont la « colonne vertébrale » de l’intelligence artificielle, selon la chercheuse états-unienne Kate Crawford, qui appelle à créer un nouvel atlas du monde pour visualiser les besoins matériels, financiers et politiques de l’IA, qu’elle décrit comme un système « extractiviste » (Contre-Atlas de l’intelligence artificielle, Zulma, 2024).

      En Chine, l’institut de recherche sur le réseau électrique s’attend à ce que la demande en électricité des centres de données double d’ici à 2030 (par rapport à 2020). Cette consommation est dopée par l’expansion rapide de la 5G et de l’Internet des objets. Le concurrent chinois de ChatGPT, #DeepSeek, a été développé à moindre coût économique et avec moins de consommation énergétique, promettent ses fabricants. Mais personne n’est aujourd’hui en mesure de le vérifier.

      En Europe, le cas de l’#Irlande est spectaculaire : les data centers y représentent 17 % de toute la demande en électricité du pays. C’est autant que toute la consommation du résidentiel en ville. Si tous les projets de centres de données qui ont été approuvés sont menés à terme dans les prochaines années, ils utiliseraient 32 % de tout le courant électrique. Au #Danemark, qui mise aussi sur l’économie des data centers tout en soutenant une initiative européenne de réduction du CO2 du numérique, les centres de données pourraient avaler 20 % de l’électricité en 2026. Est-ce soutenable, alors que le Pacte vert européen fixe aux États l’objectif de réduire d’au moins 38 % leur consommation d’énergie finale d’ici à 2050 ? Pour la Commission européenne, la demande en électricité des data centers pourrait augmenter de 30 % dans l’Union entre 2018 et 2030.

      #Bilan_carbone désastreux

      Surtout que, malgré l’essor des énergies dites renouvelables dans le monde, les sources d’électricité du numérique restent globalement très émettrices en carbone. Apple et Google prétendent être neutres en impact climatique, mais c’est parce qu’ils achètent des crédits de compensation carbone, rappelle la chercheuse Kate Crawford. Elle cite l’exemple de la Chine, où l’industrie des centres de données tire à 73 % son électricité du charbon. En France, l’Ademe a dû revoir à la hausse l’empreinte carbone des data centers à 42 % du secteur du numérique, en intégrant les centres de données à l’étranger que font tourner les utilisateurs nationaux.

      En 2022, l’ensemble du secteur numérique a émis autant de CO2 que le secteur des poids lourds (un peu plus de 4 % de tous les rejets de carbone) dans l’Hexagone. Mais grâce à son électricité décarbonée, la France cherche à se positionner sur le marché des usines à données : « Les data centers en France, ce n’est pas comme aux États-Unis où on utilise du pétrole et du gaz. Ce sont des data centers propres », a prétendu Emmanuel Macron dimanche 9 février.

      Ainsi, entraîner le modèle #GPT3 de la firme OpenAI équivaudrait à conduire 112 voitures à essence pendant un an, selon des scientifiques cités dans AOC par les chercheurs Loup Cellard et Christine Parker. Ils y critiquent pourtant les méthodes d’évaluation des impacts de l’intelligence artificielle. Selon eux, les gains écologiques que permettrait « l’IA verte » sont surestimés et potentiels, alors que les impacts sont immédiats et réels. Les projets de récupération de chaleur pour chauffer une piscine, une résidence, une usine, un hôpital sont multiples et s’affrontent à des obstacles : niveau de température de sortie pas toujours assez haut, risque d’intermittence, etc. – voir aussi le rapport de l’ONG Beyond Fossil Fuels sur le sujet.

      « L’IA n’est pas une activité différente des autres, ajoute Loup Cellard. C’est une industrie capitaliste comme une autre, à laquelle se posent les mêmes questions de responsabilité environnementale, de calcul et de mise en visibilité de ses impacts. »

      À titre d’exemple, de nombreux opérateurs de data centers sont des #fonds_d’investissement_immobiliers (#Real_Estate_Investment_Trust, #Digital_Realty, #Equinix), comme le remarque l’Ademe. La multiplication de leurs constructions ainsi que l’augmentation de leur taille posent des problèmes d’#artificialisation et d’#urbanisme : quelle forme de villes annonce la multiplication des centres de données ? Qui a envie de vivre à côté d’un immeuble de serveurs et de ses stocks de fioul inflammable ? En France, un véritable cluster s’est développé à l’ouest de la #Seine-Saint-Denis (La Courneuve, Saint-Denis, Le Bourget, Dugny) et au nord de #Marseille.
      Parmi les effets déjà tangibles aujourd’hui : la consommation en #eau. Car les data centers doivent être refroidis. Plus ils grossissent et produisent de la chaleur, plus la quantité d’eau nécessaire à baisser leur température est importante. Cette question peut s’avérer critique en période de canicule, signale l’Ademe dans un avis de novembre dernier – en France, ses expert·es estiment qu’en fonction de leur système, ils peuvent consommer 2 litres d’eau par kilowattheure. Au prochain épisode de sécheresse, combien de personnes accepteront que leur data center continue d’être alimenté alors que leur eau potable est coupée ? Et qui décidera ?

      Ainsi #Thames_Water, principale compagnie britannique de distribution d’eau, a demandé aux opérateurs de data centers, notamment à #Google_Cloud et #Oracle, un plan de réduction de leur consommation, jugée excessive à l’été 2022 pendant un pic de chaleur. À Amsterdam, Microsoft a dû présenter un plan drastique de réduction de ses besoins en eau. Aux États-Unis, un des plus gros data centers en fonctionnement est celui de l’agence de renseignement NSA, qui s’étend sur plus de 100 000 mètres carrés dans l’Utah, une terre particulièrement exposée à la sécheresse. Il avale à lui tout seul plus de la moitié de la consommation de l’eau de l’État, autour de 60 %, selon une étude.

      Ouvrir le capot des IA ?

      Après avoir longtemps refusé de révéler la quantité de liquide absorbée par son data center, la NSA a finalement fait savoir en 2022 qu’il avait besoin de près de 90 millions de litres d’eau – soit 35 fois la piscine olympique de Paris 2024 – chaque mois. L’Utah mise sur l’industrie des centres de données et leur vend son eau à des prix battant toute concurrence. Les méga hangars à serveurs s’y multiplient – il y en a deux douzaines aujourd’hui. Mais le Grand Lac salé s’en ressent, selon les défenseurs de l’environnement qui s’inquiètent de le voir s’assécher. En novembre 2022, il a atteint son étiage le plus bas, au point de mettre en danger son écosystème, et notamment ses populations de crustacés, dont se nourrissent des millions d’oiseaux migrateurs.

      En France, l’Ademe estime que les data centers pourraient utiliser 6 % de l’électricité en 2050 – aujourd’hui, le numérique en dépense 11 %. Selon RTE, le gestionnaire des réseaux, les data centers en France pourraient tripler leur consommation d’électricité d’ici à 2035, passant d’environ 10 térawattheures aujourd’hui à 28, selon leur plus haute projection. Les demandes de raccordement de nouveaux centres de grande taille sont en très forte hausse depuis quatre à cinq ans, note l’Ademe, et dépassent de 8 gigawatts – soit plus de quatre réacteurs EPR.

      Son président, Sylvain Waserman, veut défendre la thèse « d’une IA française et européenne qui pourrait trouver un avantage concurrentiel en étant plus respectueuse des ressources ». Il estime que ce peut être une piste de différenciation face à des Gafam « qui jamais n’accepteront qu’on ouvre le capot pour étudier leur impact ».

      En attendant, le gouvernement vient de désigner 35 sites privilégiés pour y construire de nouveaux data centers : simplification des procédures administratives, possible dérogation aux obligations de débat public, réduction des délais de recours juridiques… Sans savoir si les industriels accepteront de communiquer sur leur empreinte énergétique, ils bénéficient d’ores et déjà d’une belle offre de dérégulation.

      https://www.mediapart.fr/journal/ecologie/100225/ia-un-puits-sans-fond-de-depenses-en-energie-en-eau-et-en-co2

    • #Antonio_Casilli : « L’intelligence artificielle est l’une des industries extractives de notre époque »

      Professeur de sociologie à Télécom Paris, à l’Institut Polytechnique de Paris, il est l’auteur d’En attendant les robots, enquête sur le travail du clic (Seuil, 2019), dont une version augmentée vient de paraître en anglais aux éditions University of Chicago Press. Antonio Casilli est aussi co-auteur du documentaire Les Sacrifiés de l’IA, qui se penche sur les conditions de production des technologies d’IA utilisées en Occident, et sera diffusé sur France 2 le 11 février.

      À cette occasion, et en parallèle du sommet pour l’action sur l’intelligence artificielle, Next l’a rencontré.

      (#paywall)

      https://next.ink/169487/antonio-casilli-lintelligence-artificielle-est-lune-des-industries-extractives

    • L’IA générative a le potentiel de détruire la planète (mais pas comme vous le pensez)

      Le risque premier avec l’intelligence artificielle n’est pas qu’elle s’attaque aux humains comme dans un scénario de science-fiction. Mais plutôt qu’elle participe à détruire notre #environnement en contribuant au #réchauffement_climatique.

      La course à l’intelligence artificielle (IA) s’intensifie. Le 9 février, veille du sommet de l’IA à Paris, Emmanuel Macron promettait 109 milliards d’euros d’investissements publics et privés dans cette technologie pour les années à venir. Il entend concurrencer les États-Unis sur ce terrain, en faisant référence au programme « #Stargate » promis par Donald Trump, qui prévoit des dépenses de 500 milliards de dollars (484 milliards d’euros) dans l’IA aux États-Unis.

      Des deux côtés de l’Atlantique, ces centaines de milliards seront principalement investis dans la construction de nouveaux centres de données pour entraîner puis faire fonctionner les outils d’intelligence artificielle. Pourtant, les impacts environnementaux de ces « data centers », mis de côté dans ce sprint à l’IA, présentent un danger réel pour notre planète.

      « Plus grand est le modèle, mieux c’est »

      L’ouverture au public de l’agent conversationnel d’OpenAI, ChatGPT, en novembre 2022 a marqué un tournant dans les usages de l’intelligence artificielle. Depuis, des dizaines d’IA génératives sont accessibles avec la capacité de résoudre des problèmes variés, allant de la rédaction d’un email professionnel à des suggestions de recette de tartes, en passant par des lignes de code informatique.

      Ces grands #modèles_de_langage (en anglais, « #Large_language_models », ou #LLM), avec un grand nombre de paramètres, se sont développés ces dernières années, comme #Gemini de #Google, #Le_Chat de l’entreprise française #MistralAI ou #Grok de #X. D’autres modèles permettent de créer de toutes pièces des images – on pense à #Dall-E ou #Midjourney –, des vidéos ou des chansons.

      Si leur utilisation est gratuite (bien que des versions payantes existent), le prix est payé non seulement par les utilisateurs dont les données personnelles sont captées, mais aussi par les populations les plus vulnérables au changement climatique. Avec leurs dizaines voire centaines de milliards de paramètres et des terabytes de données pour les alimenter, faire tourner les systèmes d’IA générative demande beaucoup de #puissance_de_calcul de #serveurs, situés dans des centres de données. Donc beaucoup d’#électricité.

      Ces chiffres ne font qu’augmenter à mesure que les modèles se perfectionnent. « Aujourd’hui, l’idée dominante dans l’industrie des modèles génératifs est : "Plus grand est le modèle, mieux c’est" », résument les chercheurs Paul Caillon et Alexandre Allauzen dans The Conversation. Malgré un manque de transparence des entreprises, la consommation d’électricité de leurs modèles et leur #impact_climatique ont fait l’objet d’estimations par nombre de chercheurs et institutions.

      Combien consomme une requête ChatGPT ?

      On sait déjà que la version de ChatGPT sortie en mars 2023, #GPT-4, a demandé plus de puissance de calcul que la précédente. Le Conseil économique et social (Cese), dans un avis de septembre 2024, cite OpenAI et explique : entraîner la troisième version de son modèle de langage a demandé l’équivalent de l’énergie consommée par 120 foyers américains. La version suivante a multiplié par 40 cette consommation, avoisinant la consommation de 5000 foyers.

      Selon une étude, début 2023, une requête ChatGPT consommait environ 2,9 Wh d’électricité, soit presque dix fois plus qu’une simple recherche Google (0,3 Wh). D’autres études estiment l’impact carbone d’une requête à ChatGPT autour de 4 à 5 grammes d’équivalent CO2.

      Produire une image, c’est pire. La startup #HuggingFace, à l’origine de l’IA #Bloom, a été l’une des premières à estimer les émissions de gaz à effet de serre de ces modèles. Dans une étude co-écrite avec l’Université états-unienne de Carnegie-Mellon, elle montre que la génération d’image est de loin la plus polluante des requêtes formulées à une IA générative (l’étude ne prend pas en compte les vidéos).

      Pour donner un ordre d’idée, générer 1000 images correspondrait à conduire environ 7 kilomètres avec une voiture essence. En comparaison, 1000 textes générés équivalent à moins d’un 1 mètre parcouru avec un même véhicule. Mais leur utilisation massive rend cet impact non négligeable. Selon le PDG d’OpenAI Sam Altman, à la fin de l’année 2024, plus d’un milliard de requêtes étaient envoyées à ChatGPT par jour.

      En janvier 2023, soit quelques mois après qu’elle a été rendue accessible au public, ChatGPT avait accumulé 100 millions d’utilisateurs. Selon une estimation de Data for Good, rien que ce mois-là, l’utilisation de ChatGPT aurait pollué à hauteur de 10 113 tonnes équivalent CO2 – soit environ 5700 allers-retours en avion entre Paris et New York.

      En décembre 2024, selon son PDG, le service avait atteint les 300 millions d’utilisateurs… par semaine. Et ce, avec une version bien plus performante – donc bien plus polluante – que la précédente.

      De plus en plus de personnes utilisent l’IA au quotidien, et pour de plus en plus de tâches. Installés dans nos smartphones, accessibles en ligne ou même intégrés dans les frigos haut de gamme, les outils d’intelligence artificielle sont presque partout.

      Une explosion de la consommation d’électricité

      Selon l’Agence internationale de l’énergie, les centres de données représenteraient aujourd’hui environ 1 % de la consommation d’électricité mondiale. Mais cette consommation risque d’augmenter avec les usages croissants et le développement de nouveaux modèles d’IA. Selon l’agence, la consommation des centres de données pour l’IA et les cryptomonnaies a dépassé 460 TWh en 2022. C’est autant que la consommation de la France. D’ici l’année prochaine, selon les scénarios, cette demande en électricité pourrait augmenter de 35 % (160 TWh en plus) à 130 % (590 TWh) ! « Soit l’équivalent d’au moins une Suède et au maximum une Allemagne » de plus dans le monde en quelques années.

      Une autre étude de l’ONG Beyond Fossils Fuels est encore plus alarmiste : « Au cours des six prochaines années, l’explosion de la demande en énergie des centres de données dans l’UE [Union européenne] pourrait entraîner une hausse de 121 millions de tonnes des émissions de CO2, soit presque l’équivalent des émissions totales de toutes les centrales électriques au gaz d’Italie, d’Allemagne et du Royaume-Uni en 2024 combinées » écrit l’ONG en février 2025.

      Les grandes entreprises de la tech cherchent à faire oublier leurs promesses écologiques. Selon le Financial Times, dans un article d’août 2024, les Gafam tentent de remettre en cause les règles de « zéro carbone net » qui leur permettent de compenser leurs émissions de CO2 par le financement d’énergies renouvelables (des règles déjà critiquées pour leur mode de calcul qui dissimule une grande partie de l’impact carbone réel de leurs consommation d’électricité).

      « Ces géants de la technologie sont sur le point de devenir les plus gros consommateurs d’énergie de demain, dans leur course au développement d’une intelligence artificielle énergivore », écrit le média britannique. Les émissions de gaz à effet de serre de Google augmentent par exemple de 13% par an (selon des chiffres de 2023). Une hausse notamment portée par l’augmentation de la consommation d’énergie de ses centres de données. Les émissions de #Microsoft ont bondi de 29 % entre 2020 et 2023.

      Des investissements massifs aux dépens des populations

      Les chefs d’État des États-Unis comme de la France ont pourtant annoncé des investissements massifs dans l’IA pour les années à venir. L’Union européenne, par la voix d’Ursula von der Leyen, a également annoncé un investissement de 200 milliards en partenariat avec de grands groupes.

      Dans les trois cas, ces centaines de milliards d’euros sur la table serviront majoritairement à construire des centres de données pour permettre l’entraînement puis l’utilisation de ces technologies. En France, en amont du sommet de l’IA, le fonds canadien Brookfield a annoncé investir 15 milliards d’euros dans la construction de centres de données, tandis que les Émirats arabes unis ont mis entre 30 et 50 milliards sur la table pour la construction d’un centre de données géant.

      Il est peu probable que cette consommation d’électricité massive ne se fasse pas au détriment des populations. En Irlande, les centres de données monopolisent une part grandissante de l’électricité du pays, ils représentent aujourd’hui plus de 20 % de sa consommation. Cette situation crée des tensions avec les habitants, qui voient leurs factures augmenter alors que la consommation des ménages n’augmente pas.
      Des engagements « durables » non contraignants

      Aux États-Unis, raconte un article de Vert, Microsoft va rouvrir le premier réacteur de la centrale nucléaire de Three Mile Island, site d’un accident en 1979 qui avait irradié toute cette partie de la Pennsylvanie et traumatisé les habitants. Les géants de la Tech – Google, Amazon et Microsoft en tête – cherchent également à investir dans les « petits réacteurs modulaires » nucléaires, en cours de développement, pour alimenter leurs centres de données, ce qui pose la question de la sûreté d’une multitude de petites installations nucléaires face au risque d’accidents. Autre conséquence : le retour en grâce du charbon, fortement émetteur en gaz à effet de serre. Dans l’État de Géorgie, la promesse faite il y a trois ans de fermer toutes ses centrales à charbon a été abandonnée pour répondre au pic de demande d’électricité créé par les centres de données.

      Face à ces risques pour les populations locales comme pour celles les plus vulnérables au changement climatique dans le monde entier, les actions semblent faibles. Une déclaration d’intention a été signée à l’issue du sommet de l’IA, notamment avec l’Inde et la Chine. Il prévoit entre autres la création d’un observatoire de l’impact énergétique de l’IA, sous la responsabilité de l’Agence internationale de l’énergie. Il planifie également la création d’une « coalition pour l’IA durable » avec de grandes entreprises du secteur.

      Ces engagements en matière d’intelligence artificielle signés par les États et les entreprises présentes ne sont pas contraignants, et ne sont pas tournés vers l’action immédiate. De plus, ni le Royaume-Uni ni les États-Unis, qui concentre un tiers des centres de données du monde, n’ont signé ce texte.

      https://basta.media/l-ia-generative-a-le-potentiel-de-detruire-la-planete-mais-pas-comme-vous-l

      #schéma #visualisation #comparaison

    • Comment l’intelligence artificielle et ses data centers s’accaparent l’eau

      La consommation d’eau de l’intelligence artificielle est souvent oubliée des discussions sur l’impact de cette technologie. Pourtant, les centres de données consomment chaque année des milliards de mètres cubes d’eau – et cela risque d’empirer.

      Google a soif. En 2023, les centres de données et les bureaux de la multinationale du numérique ont à eux seuls englouti 24 milliards de litres d’eau – dont la grande majorité utilisée par les data centers. C’est l’équivalent de la consommation d’eau annuelle d’environ 453 000 Français. La question des besoins en eau est l’un des grands enjeux environnementaux du numérique. Il est amplifié par le développement rapide et incontrôlé de l’intelligence artificielle (IA).

      Chaque année, les grandes entreprises de la tech augmentent de dizaines de pourcents leur consommation d’eau. Entre 2021 et 2022, Microsoft a accru de 34 % la quantité d’eau utilisée pour ses activités, et Google de 20 %. Cela représente des milliards de litres d’eau, en grande partie potable, prélevés en plus chaque année. La course au développement d’intelligences artificielles toujours plus performantes – et donc toujours plus polluantes – participe à cette augmentation. Rien que l’entraînement de GPT-3 (la version en usage jusqu’à mars 2023 du robot conversationnel d’OpenAI) aurait consommé 700 000 litres d’eau dans les centres de données de Microsoft basés aux États-Unis.
      Des centres de données géants dans des régions en proie à la sécheresse

      Les ressources en eau globales sont déjà mises en danger par le réchauffement climatique. De nombreuses régions du monde sont en stress hydrique : l’accès à l’eau y est limité, si ce n’est difficile. Selon des estimations de chercheurs, partagées par The Washington Post, un grand centre de données – comme ceux des Gafam – peut consommer entre 3,8 et 19 millions de litres d’eau par jour.

      Ces millions de litres sont utilisés pour produire l’électricité qui les alimente, mais aussi, pour environ un quart, directement pour le refroidissement des serveurs de ces centres de données. Si cela représente encore une faible partie de la consommation d’eau à l’échelle mondiale, les conséquences locales se font souvent déjà sentir. Le journal américain cite l’exemple de la commune de The Dalles, dans l’Oregon, où Google s’accapare plus d’un quart de l’eau de la petite ville.

      Le refroidissement par l’eau est brandi comme argument écologique par les grandes entreprises. Google, par exemple, s’est vanté d’avoir réduit son empreinte carbone de 300 000 tonnes de CO2 en 2021 grâce à des centres de données refroidis par de l’eau plutôt qu’avec de l’air conditionné. Malgré ses promesses de plus grande responsabilité écologique, deux ans plus tard encore, plus de 30 % de l’eau utilisée venait de zones où les risques de pénurie d’eau sont considérés comme moyens ou élevés.

      En Espagne, à une centaine de kilomètres de Madrid, la ville de Talavera de la Reina s’apprête à accueillir un centre de données de 191 hectares, propriété de Meta (la maison-mère de Facebook et Instagram). Depuis 2022, une trentaine de projets similaires ont été lancés dans le pays, rapporte le média indépendant espagnol elDiario.es. Dans la région de l’Aragón, « la situation est grave : 146 000 hectares ne peuvent être cultivés et 175 000 autres sont gravement endommagés par le manque d’eau ». C’est pourtant là qu’Amazon a décidé d’investir 15,7 milliards d’euros pour installer ses centres de données « hyperscale », autrement dit de très grande taille.
      « 4,2 à 6,6 milliards de mètres cubes d’eau en 2027 »

      Amazon tente de montrer patte blanche, promettant un approvisionnement électrique provenant à 100 % d’énergies renouvelables, mais des mouvements écologistes s’opposent vivement à ce projet. « Nous refusons le discours selon lequel cette méga-infrastructure serait bénigne pour les territoires, bien au contraire. Les dégâts écologiques et sociaux causés par le déploiement massif de centres de données peuvent déjà être observés dans d’autres territoires tels que la Virginie (États-Unis), le Mexique, l’Irlande et les Pays-Bas », écrit Tu Nube Seca Mi Río (« Ton nuage assèche ma rivière »).

      « La consommation directe d’eau pour le refroidissement représentera la moitié de la consommation totale d’eau de la ville de Saragosse (plus de 300 000 personnes et ses commerces et entreprises) et aurait permis d’irriguer 170 hectares de terres, [et ce,] si les chiffres avancés par projet sont respectés, ce qui semble fort peu probable. » Le collectif, qui agrège plusieurs associations écologistes espagnoles, dénonce les conséquences multiples qu’auront ces data centers pour l’accès à l’eau dans la région, tant pour l’agriculture, pour les populations que dans la lutte contre les incendies, de plus en plus fréquents. Tu Nube Seca Mi Río alerte aussi sur le danger pour la faune locale.

      Ce risque n’est pas présent qu’à l’étranger. En France, à Marseille, le collectif Le nuage était sous nos pieds – composé notamment de la Quadrature du Net – dénonce « la quasi-absence des enjeux environnementaux et territoriaux des infrastructures du numérique dans le débat public », entre autres quand il est question de la construction de nouveaux data centers. « Le méga-ordinateur surchauffe, renvoie l’air ou l’eau chaude dans une ville déjà trop souvent sujette à la canicule, pompe des quantités astronomiques d’eau et d’électricité sur le réseau public, et ne génère pratiquement aucun emploi direct », résument-ils, face à un nouveau projet de l’entreprise Digital Realty dans la ville.

      Le développement et la massification de l’utilisation de l’intelligence artificielle entraînent les entreprises dans une course effrénée à la construction de centres de données, sans considérer les conséquences écologiques et sociales. Selon une étude menée par des chercheurs et chercheuses de l’Université de Cornell, aux États-Unis, en 2023, « la demande mondiale en IA devrait représenter 4,2 à 6,6 milliards de mètres cubes d’eau en 2027, soit plus que le prélèvement annuel total d’eau de quatre à six Danemark ou de la moitié du Royaume-Uni ».

      https://basta.media/comment-intelligence-artificielle-IA-data-centers-gafam-s-accaparent-eau

    • Big tech’s water-guzzling data centers are draining some of the world’s driest regions

      #Amazon, #Google, and #Microsoft are expanding data centers in areas already struggling with drought, raising concerns about their use of local water supplies for cooling massive server farms.

      In short:

      - The three largest cloud companies are building or operating 62 data centers in regions facing water scarcity, including in Spain, #Arizona, and other drought-prone areas across five continents.
      - Amazon’s new centers in Spain’s #Aragon region are licensed to use enough water to irrigate hundreds of acres of farmland annually, and the company has requested a 48% increase in water for its existing sites.
      – Tech firms promise to become “water positive” by 2030, but experts and even internal critics say offsetting water use elsewhere doesn’t solve shortages in the communities where centers operate.

      Key quote:

      “Neither people nor data can live without water. But human life is essential and data isn’t.”

      — Aurora Gómez, Tu Nube Seca Mi Río

      Why this matters:

      Data centers are the invisible engines of the internet — processing everything from emails to AI, video calls to cloud storage — but they come with a physical footprint. That footprint includes massive energy use and a surprising dependence on fresh water to keep machines cool. In places where droughts are worsening with climate change, the demands of these centers are clashing with local needs for drinking water and agriculture. Some of these regions are already edging toward desertification, and water-intensive industries like tech may tip them further. Critics worry that promises of sustainability are greenwashing efforts that mask the environmental costs of maintaining digital infrastructure.

      https://www.dailyclimate.org/big-techs-water-guzzling-data-centers-are-draining-some-of-the-worlds-
      #Espagne

    • Big tech’s new datacentres will take water from the world’s driest areas

      Amazon, Google and Microsoft are building datacentres in water-scarce parts of five continents
      Luke Barratt, Costanza Gambarini and data graphics by Andrew Witherspoon and Aliya Uteuova
      Wed 9 Apr 2025 13.30 CEST
      Last modified on Wed 9 Apr 2025 17.40 CEST

      Amazon, Microsoft and Google are operating datacentres that use vast amounts of water in some of the world’s driest areas and are building many more, the non-profit investigatory organisation SourceMaterial and the Guardian have found.

      With Donald Trump pledging to support them, the three technology giants are planning hundreds of datacentres in the US and across the globe, with a potentially huge impact on populations already living with water scarcity.

      “The question of water is going to become crucial,” said Lorena Jaume-Palasí, founder of the Ethical Tech Society. “Resilience from a resource perspective is going to be very difficult for those communities.”

      Efforts by Amazon, the world’s largest online retailer, to mitigate its water use have sparked opposition from inside the company, SourceMaterial’s investigation found, with one of its own sustainability experts warning that its plans are “not ethical”.

      In response to questions from SourceMaterial and the Guardian, spokespeople for Amazon and Google defended their developments, saying they always take water scarcity into account. Microsoft declined to provide a comment.

      Datacentres, vast warehouses containing networked servers used for the remote storage and processing of data, as well as by information technology companies to train AI models such as ChatGPT, use water for cooling. SourceMaterial’s analysis identified 38 active datacentres owned by the big three tech firms in parts of the world already facing water scarcity, as well as 24 more under development.

      https://www.theguardian.com/environment/2025/apr/09/big-tech-datacentres-water

      Datacentres’ locations are often industry secrets. But by using local news reports and industry sources Baxtel and Data Center Map, SourceMaterial compiled a map of 632 datacentres – either active or under development – owned by Amazon, Microsoft and Google.

      It shows that those companies’ plans involve a 78% increase in the number of datacentres they own worldwide as cloud computing and AI cause a surge in the world’s demand for storage, with construction planned in North America, South America, Europe, Asia, Africa and Australia.

      In parts of the world where water is plentiful, datacentres’ high water usage is less problematic, but in 2023 Microsoft said that 42% of its water came from “areas with water stress”, while Google said 15% of its water consumption was in areas with “high water scarcity”. Amazon did not report a figure.

      Now these companies plan to expand their activities in some of the world’s most arid regions, SourceMaterial and the Guardian’s analysis found.

      “It’s no coincidence they are building in dry areas,” as datacentres have to be built inland, where low humidity reduces the risk of metal corrosion, while seawater also causes corrosion if used for cooling, Jaume-Palasí said.
      ‘Your cloud is drying my river’

      Amazon’s three proposed new datacentres in the Aragon region of northern Spain – each next to an existing Amazon datacentre – are licensed to use an estimated 755,720 cubic metres of water a year, roughly enough to irrigate 233 hectares (576 acres) of corn, one of the region’s main crops.

      In practice, the water usage will be even higher as that figure doesn’t take into account water used to generate the electricity that will power the new installations, said Aaron Wemhoff, an energy efficiency specialist at Villanova University in Pennsylvania.

      Between them, Amazon’s new datacentres in the Aragon region are predicted to use more electricity than the entire region currently consumes. Meanwhile, Amazon in December asked the regional government for permission to increase water consumption at its three existing datacentres by 48%.

      Opponents have accused the company of being undemocratic by trying to rush through its application over the Christmas period. More water is needed because “climate change will lead to an increase in global temperatures and the frequency of extreme weather events, including heat waves”, Amazon wrote in its application.

      “They’re using too much water. They’re using too much energy,” said Aurora Gómez of the campaign group Tu Nube Seca Mi Río – Spanish for “Your cloud is drying my river” – which has called for a moratorium on new datacentres in Spain due to water scarcity.

      Spain has seen rising numbers of heat-related deaths in extreme weather events linked by scientists to the climate crisis. Last month, Aragon’s government asked for EU aid to tackle its drought.

      Farmer Chechu Sánchez said he’s worried the datacentres will use up water he needs for his crops.

      “These datacentres use water that comes from northern Aragon, where I am,” he said. “They consume water – where do they take it from? They take it from you, of course.”

      With 75% of the country already at risk of desertification, the combination of the climate crisis and datacentre expansion is “bringing Spain to the verge of ecological collapse”, Jaume-Palasí said.

      Asked about the decision to approve more datacentres, a spokesperson for the Aragonese government said they would not compromise the region’s water resources because their impact is “imperceptible”.
      Water offsetting

      Amazon does not provide overall figures for the water its datacentres use worldwide. But it does claim that it will be “water positive” by 2030, offsetting its consumption by providing water to communities and ecosystems in areas of scarcity elsewhere.

      Amazon says it is currently offsetting 41% of its water usage in areas it deems unsustainable. But it’s an approach that has already caused controversy inside the company.

      “I raised the issue in all the right places that this is not ethical,” said Nathan Wangusi, a former water sustainability manager at Amazon. “I disagreed quite a lot with that principle coming from a pure sustainability background.”

      Microsoft and Google have also pledged to become “water positive” by 2030 through water offsetting, as well as finding ways to use water more efficiently.

      Water offsetting ca not work in the same way as carbon offsetting, where a tonne of pollutants removed from the atmosphere can cancel out a tonne emitted elsewhere, said Wemhoff, the Villanova University specialist. Improving access to water in one area does nothing to help the community that has lost access to it far away.

      “Carbon is a global problem – water is more localised,” he said.

      Amazon should pursue water accessibility projects “because it’s the right thing to do”, not to offset the company’s usage and make claims about being “water positive”, Wangusi said.

      In March, Amazon announced that it would use AI to help farmers in Aragon use water more efficiently.

      But that is “a deliberate strategy of obfuscation” that distracts from the company’s request to raise water consumption, said Gómez, the campaigner.

      Amazon said its approach shouldn’t be described as offsetting because the projects are in communities where the company operates.

      “We know that water is a precious resource, and we’re committed to doing our part to help solve this challenge,” said Harry Staight, an Amazon spokesperson. “It’s important to remember many of our facilities do not require the ongoing use of water to cool operations.”
      ‘Extreme drought’

      Amazon is by far the biggest owner of datacentres in the world by dint of its Amazon Web Services cloud division, but Google and Microsoft are catching up.

      In the US, which boasts the largest number of datacentres in the world, Google is the most likely to build in dry areas, SourceMaterial’s data shows. It has seven active datacentres in parts of the US facing water scarcity and is building six more.

      “We have to be very, very protective around the growth of large water users,” said Jenn Duff, a council member in Mesa, Arizona, a fast-growing datacentre hub. In January, Meta, the owner of Facebook, WhatsApp and Instagram, opened a $1bn datacentre in the city, and Google is developing two more.

      The surrounding Maricopa county, where Microsoft also has two active datacentres, is facing “extreme drought”, according to the National Oceanic and Atmospheric Administration. In June 2023, Arizona state officials revoked construction permits for some new homes there due to a lack of groundwater.

      Drought has not halted Google’s plans for a second Mesa datacentre, while its first centre has a permit to use 5.5m cubic metres of water a year – about the same quantity used by 23,000 ordinary Arizonans.

      “Is the increase in tax revenue and the relatively paltry number of jobs worth the water?” said Kathryn Sorensen, an Arizona State University professor and a former director of Mesa’s water department. “It is incumbent on city councils to think very carefully and examine the trade-offs.”

      Google said it won’t use the full amount of water in its Mesa permit as it plans to use an air cooling system.

      “Cooling systems are a hyperlocal decision – informed by our data-driven strategy called ‘climate-conscious cooling’ that balances the availability of carbon-free energy and responsibly sourced water to minimise climate impact both today and in the future,” said Google spokesperson Chris Mussett.
      Stargate

      In January at the White House, Trump announced “Project Stargate”, which he called “the largest AI infrastructure project in history”.

      Starting in Texas, the $500bn joint venture between OpenAI, the American software company Oracle, Japan-based SoftBank and Emirati investment firm MGX will finance datacentres across the US.

      The day before the Stargate announcement, Trump’s inauguration date, the Chinese company DeepSeek launched its own AI model, claiming it had used far less computing power – and therefore less water – than its western rivals.

      More recently, Bloomberg has reported that Microsoft is pulling back on some of its plans for new datacentres around the world. Microsoft has also published plans for a “zero water” datacentre, and Google has said it will incorporate air cooling to reduce water use – though it isn’t yet clear how its systems will work.

      “I’ll believe it when I see it,” said Jaume-Palasí. “Most datacentres right now are going from air cooling to water cooling because liquid is more efficient when you try to cool down high-density racks, which are the ones that are mostly being used for AI.”

      And while the Trump administration has pledged to fast-track new energy projects to power these new datacentres, it has so far said nothing about the water they could use up.

      “Neither people nor data can live without water,” said Gómez. “But human life is essential and data isn’t.”

  • Une année 2024 parsemée d’embûches en technologie Stéphanie Dupuis - Radio Canada

    Le domaine des technologies a connu quelques échecs en 2024, dont la panne de CrowdStrike, le Humane AI Pin et l’Apple Vision Pro.

    Entre les licenciements massifs, une panne informatique mondiale et des gadgets d’intelligence artificielle inachevés, les 12 derniers mois n’ont pas été des plus prolifiques dans la sphère technologique.

    Des licenciements massifs
    L’année a été particulièrement difficile pour les industries technologiques, dont celle du jeu vidéo.

    “Il n’y a pas un mois où on n’a pas annoncé de licenciements dans le monde de la technologie et des jeux vidéo. Je pense qu’il n’y a pas un studio qui n’a pas été affecté par des coupures et des licenciements”, dit Carl-Edwin Michel, chroniqueur techno.

    L’industrie québécoise a aussi été éclaboussée par la révision à la baisse des crédits d’impôt pour les studios de jeux vidéo, annoncée en mars par le ministre des Finances, Eric Girard.

    C’est vraiment dommage, car ça affectera beaucoup de studios de jeux vidéo.

    D’après la Guilde du jeu vidéo du Québec, la simple annonce du budget Girard a déjà freiné l’élan de studios internationaux qui comptaient investir dans la production locale.

    “J’espère qu’ils vont changer de cap, mais pour l’instant, ça en est au point mort”, déplore-t-il.

    La panne mondiale de CrowdStrike
    Un bilan de fin d’année en technologie ne serait pas digne de ce nom s’il ne comprenait pas le cafouillage entourant la panne mondiale de CrowdStrike sur les appareils de Microsoft.

    Un problème dans un système de tests de mise à jour a causé une anomalie qui a paralysé quelque 8,5 millions d’ordinateurs dans le monde, dont plusieurs ont nécessité l’intervention manuelle d’équipes techniques en informatique.

    Au Canada, les douanes, les hôpitaux, les banques, les marchés boursiers ainsi que les télécommunications et les médias ont été touchés.

    Des avions ont été cloués au sol pendant la panne informatique.

    Le secteur aérien aussi : la compagnie Delta Air Lines a dû annuler des milliers de vols et a mis des semaines à se remettre de la panne. Ces délais lui ont valu une convocation au Congrès américain, au même titre que CrowdStrike, afin d’aborder ces déboires informatiques.

    Des actionnaires de la firme de cybersécurité ont aussi entamé un recours collectif contre l’entreprise, se sentant trompés quant à la fiabilité de ses tests logiciels.

    CrowdStrike devrait encore faire couler de l’encre en 2025.

    L’IA nous en a fait voir de toutes les couleurs
    En technologie, janvier rime souvent avec innovation, puisque c’est à ce moment que se tient l’important salon mondial Consumer Electronics Shows (CES).
    Début 2024, ce sont des gadgets portatifs alimentés par l’intelligence artificielle (IA) qui ont volé la vedette de cette grand-messe de l’industrie : le Humane AI Pin et le Rabbit R1.

    Le Rabbit R1 est un appareil de poche qui peut recevoir des commandes en langage naturel et avec lequel on navigue au moyen d’une roulette. Le Humane AI Pin, pour sa part, se porte sur les vêtements, est doté d’une caméra et utilise la projection et les mains pour interagir avec le système.

    Ces deux gadgets, issus de jeunes pousses, devaient remplacer notre téléphone intelligent, mais il n’en a rien été, selon Carl-Edwin Michel.

    On se rend compte que des entreprises ont surfé sur la vague de l’IA avec toutes sortes de gadgets qui ne font pas [le poids].
    Une citation de Carl-Edwin Michel, chroniqueur techno

    L’IA a également été au cœur de nombreuses mobilisations, notamment judiciaires, pour violation de droit d’auteur. Des médias canadiens se sont également unis pour s’en prendre à OpenAI, qu’ils accusent d’utiliser leurs contenus en ligne sans leur consentement pour entraîner son outil ChatGPT.

    Le quotidien américain The New York Times, déjà en poursuite judiciaire contre OpenAI et Microsoft depuis 2023, a aussi mis en demeure Perplexity AI afin que l’entreprise cesse de piller ses contenus. La Recording Industry Association of America (RIAA) a pour sa part porté plainte contre Suno et Udio, deux outils qui permettent de générer de la musique à partir d’une simple requête.

    Si l’IA n’a pas chamboulé les élections américaines de la manière dont on le croyait, elle a tout de même “été utilisée à mauvais escient sur les réseaux sociaux”, note le chroniqueur techno. “Des personnes comme Elon Musk, qui a utilisé l’IA pour abriter et créer de fausses nouvelles sur son réseau social X, avec de fausses images de Kamala Harris, par exemple [...] je trouve ça déplorable.”

    Déception pour l’Apple Vision Pro
    Le casque de réalité mixte d’Apple, le Vision Pro, était attendu depuis longtemps par les adeptes du métavers. Vendu au Canada au prix de 5000 $ plus taxes, beaucoup ont rapidement déchanté… dont Carl-Edwin Michel.

    On s’est rendu compte que ce casque n’a rien d’extraordinaire, à part le prix qui, lui, est extraordinaire.
    Une citation de Carl-Edwin Michel, chroniqueur techno

    Le coup de grâce pour Apple a été le fait que le casque Meta Quest 3, lancé en octobre 2023, soit “capable de faire plus ou moins les mêmes choses, à une fraction du prix”, souligne le chroniqueur techno, qui a pu tester les deux appareils.

    La présence du géant américain Meta depuis des années dans le créneau des expériences immersives lui offre une longueur d’avance pour créer des partenariats et des applications pour ses appareils – l’une des principales critiques formulées à l’égard du casque d’Apple est un manquement à ce chapitre.

    Le chroniqueur reconnaît néanmoins que la qualité d’image du produit d’Apple est nettement supérieure à celle de son adversaire. “Même si l’expérience est de meilleure qualité du côté du Vision Pro, à application identique, je vais préférer le Meta Quest et payer moins cher”, ajoute-t-il.

    Les attentes étaient élevées pour l’Apple Vision Pro, surtout “qu’un Québécois a été impliqué dans son développement”, ajoute-t-il. Apple a racheté la jeune pousse montréalaise VrVana et sa technologie de réalité mixte pour plus de 30 millions de dollars en 2017.

    Des abonnements de plus en plus chers
    Disney+, Spotify, Netflix… Pratiquement tous les services de diffusion en continu ont connu des hausses de tarifs, ou des changements aux formules d’abonnement qui ont eu des répercussions sur le portefeuille de la population canadienne en 2024.

    L’abonnement premium à Disney+, par exemple, est passé de 120 $ à 160 $ par an. Celui de Spotify a connu une hausse de 24 % en décembre. Netflix, pour sa part, a débranché pour de bon sa formule de base sans publicités, forçant les gens à payer plus cher pour l’offre semblable, ou moins cher pour une offre avec publicités.

    On a décidé de couper le câble, car les applications, c’est l’avenir. [...] On en est à repenser si ça en vaut encore la peine.
    Une citation de Carl-Edwin Michel, chroniqueur techno

    “C’est courant, dans la culture tech, d’offrir un service pas très cher et pratique au début, comme Airbnb. Mais que dès que la masse critique embarque, on augmente les prix”, explique-t-il.

    Le chroniqueur techno se réjouit tout de même de voir émerger des solutions de rechange, moins chères, avec publicités, comme c’est le cas pour Netflix et Crave, par exemple.

    Les géants des réseaux sociaux esquivent certaines responsabilités
    TikTok Canada et Meta devaient être entendues à la Commission spéciale sur les impacts des écrans et des réseaux sociaux sur la santé et le développement des jeunes (CSESJ) une première fois fin septembre. L’audition a été reportée à la fin novembre.

    Entre-temps, la filiale canadienne de TikTok a été dissoute par Ottawa, évoquant “des risques pour la sécurité nationale” et annulant du même coup sa présence à la nouvelle séance. Meta s’est désistée à son tour quelques jours plus tard, forçant l’annulation de l’audition.

    C’est important que ces plateformes, qui sont très importantes au Québec et au Canada [...] soient redevables.
    Une citation de Carl-Edwin Michel, chroniqueur techno

    À cela s’ajoute le blocage des nouvelles sur les plateformes de Meta, maintenu depuis plus d’un an, et dont les discussions sont au point mort entre l’entreprise et le gouvernement.
    Celui-ci n’exclut pas de recourir au pouvoir d’assignation à comparaître.

    #gamelle #échec #illusions #technologies #CrowdStrike #cafouillage #microsoft #fiabilité #ia #ChatGPT #OpenAI #Apple #Vision_Pro #métavers #Disney+ #Spotify #Netflix #v

    Source : https://ici.radio-canada.ca/nouvelle/2128411/annee-2024-flop-techno

  • OpenAI just raised $6.6 billion to build ever-larger AI models - The Verge
    https://www.theverge.com/2024/10/2/24260457/openai-funding-round-thrive-capital-6-billion

    This funding round values OpenAI at roughly 40 times its reported revenue, an unprecedented figure that highlights just how much hype surrounds AI in Silicon Valley. The New York Times reported that OpenAI’s monthly revenue hit $300 million in August, and the company expects about $3.7 billion in annual sales this year (and estimates that its revenue will reach $11.6 billion next year.)

    These billions will go toward the incredibly expensive task of training AI frontier models. Anthropic CEO Dario Amodei has said AI models that cost $1 billion to train are in development and $100 billion models are not far behind. For OpenAI, which wants to build a series of “reasoning” models, those costs are only expected to balloon — making fresh funding rounds like this one critical.

    #Intelligence_artificielle #OpenAI #Finance #Economie_numérique

  • OpenAI, Maker of ChatGPT, Is Trying to Grow Up - The New York Times
    https://www.nytimes.com/2024/09/03/technology/openai-chatgpt-revenue.html

    Cade MetzMike Isaac

    By Cade Metz and Mike Isaac

    Reporting from San Francisco
    Sept. 3, 2024

    OpenAI, the often troubled standard-bearer of the tech industry’s push into artificial intelligence, is making substantial changes to its management team, and even how it is organized, as it courts investments from some of the wealthiest companies in the world.

    Over the past several months, OpenAI, the maker of the online chatbot ChatGPT, has hired a who’s who of tech executives, disinformation experts and A.I. safety researchers. It has also added seven board members — including a four-star Army general who ran the National Security Agency — while revamping efforts to ensure that its A.I. technologies do not cause serious harm.

    OpenAI is also in talks with investors such as Microsoft, Apple, Nvidia and the investment firm Thrive for a deal that would value it at $100 billion. And the company is considering changes to its corporate structure that would make it easier to attract investors.

    The San Francisco start-up, after years of public conflict between management and some of its top researchers, is trying to look more like a no-nonsense company ready to lead the tech industry’s march into artificial intelligence. OpenAI is also trying to push last year’s high-profile fight over the management of Sam Altman, its chief executive, into the background.

    Today, OpenAI has more than 1,700 employees, and 80 percent of them started after the release of ChatGPT in November 2022. Mr. Altman and other leaders have led the recruitment of executive hires, while the new chairman, Bret Taylor, a former Facebook executive, has overseen the expansion of the board.

    “While start-ups must naturally evolve and adapt as their impact grows, we recognize OpenAI is navigating this transformation at an unprecedented pace,” Mr. Taylor said in a statement emailed to The New York Times. “Our board and the dedicated team at OpenAI remain focused on safely building A.I. that can solve hard problems for everyone.”

    OpenAI is also driven by technologies that worry many A.I. researchers, including some OpenAI employees. They argue that these technologies could help spread disinformation, drive cyberattacks or even destroy humanity. That tension led to a blowup in November, when four board members, including the chief scientist and co-founder Ilya Sutskever, removed Mr. Altman.

    After Mr. Altman reasserted his control, a cloud hung over the company. Dr. Sutskever had not returned to work.

    #Intelligence_artificielle #OpenAI #Management

  • How Does OpenAI Survive?
    https://www.wheresyoured.at/to-serve-altman/?ref=ed-zitrons-wheres-your-ed-at-newsletter

    Throughout the last year I’ve written in detail about the rot in tech — the spuriousness of charlatans looking to accumulate money and power, the desperation of the most powerful executives to maintain control and rapacious growth, and the speciousness of the latest hype cycle — but at the end of the day, these are just companies, which leads to a very simple question: can the largest, most prominent company in tech’s latest hype cycle actually survive?

    I am, of course, talking about OpenAI. Regulars to this newsletter will know that I’m highly skeptical of OpenAI’s product, its business model, and its sustainability. While I don’t want to rehash the arguments made in previous newsletters and podcasts, here’s the crux of the matter: generative AI is a product with no mass-market utility - at least on the scale of truly revolutionary movements like the original cloud computing and smartphone booms - and it’s one that costs an eye-watering amount to build and run.

    Those two factors raise genuine questions about OpenAI’s ability to exist on a medium-to-long term, especially if — or, if I may be so bold to say, when — the sluice of investment money and cloud computing credits dries up.

    I don’t have all the answers. I don’t know every part of every deal that informs every part of every aspect of generative AI. I am neither an engineer nor an economist, nor do I have privileged information. However, I do have the ability to read publicly-available data, as well as evaluate the independent reporting of respected journalists and the opinions of well-informed experts and academics, and come to conclusions as a result.

    I am hypothesizing that for OpenAI to survive for longer than two years, it will have to (in no particular order):

    Successfully navigate a convoluted and onerous relationship with Microsoft, one that exists both as a lifeline and a direct source of competition.
    Raise more money than any startup has ever raised in history, and continue to do so at a pace totally unseen in the history of financing.
    Have a significant technological breakthrough such that it reduces the costs of building and operating GPT — or whatever model that succeeds it — by a factor of thousands of percent.
    Have such a significant technological breakthrough that GPT is able to take on entirely unseen new use cases, ones that are not currently possible or hypothesized as possible by any artificial intelligence researchers.
    Have these use cases be ones that are capable of both creating new jobs and entirely automating existing ones in such a way that it will validate the massive capital expenditures and infrastructural investment necessary to continue.

    I ultimately believe that OpenAI in its current form is untenable. There is no path to profitability, the burn rate is too high, and generative AI as a technology requires too much energy for the power grid to sustain it, and training these models is equally untenable, both as a result of ongoing legal issues (as a result of theft) and the amount of training data necessary to develop them.

    #Ed_Zitron #OpenAI #Economie #Intelligence_artificielle

  • How Does OpenAI Survive ?
    https://www.wheresyoured.at/to-serve-altman/?ref=ed-zitrons-wheres-your-ed-at-newsletter

    Throughout the last year I’ve written in detail about the rot in tech — the spuriousness of charlatans looking to accumulate money and power, the desperation of the most powerful executives to maintain control and rapacious growth, and the speciousness of the latest hype cycle — but at the end of the day, these are just companies, which leads to a very simple question: can the largest, most prominent company in tech’s latest hype cycle actually survive?

    I am, of course, talking about OpenAI. Regulars to this newsletter will know that I’m highly skeptical of OpenAI’s product, its business model, and its sustainability. While I don’t want to rehash the arguments made in previous newsletters and podcasts, here’s the crux of the matter: generative AI is a product with no mass-market utility - at least on the scale of truly revolutionary movements like the original cloud computing and smartphone booms - and it’s one that costs an eye-watering amount to build and run.

    Those two factors raise genuine questions about OpenAI’s ability to exist on a medium-to-long term, especially if — or, if I may be so bold to say, when — the sluice of investment money and cloud computing credits dries up.

    I don’t have all the answers. I don’t know every part of every deal that informs every part of every aspect of generative AI. I am neither an engineer nor an economist, nor do I have privileged information. However, I do have the ability to read publicly-available data, as well as evaluate the independent reporting of respected journalists and the opinions of well-informed experts and academics, and come to conclusions as a result.

    I am hypothesizing that for OpenAI to survive for longer than two years, it will have to (in no particular order):

    Successfully navigate a convoluted and onerous relationship with Microsoft, one that exists both as a lifeline and a direct source of competition.
    Raise more money than any startup has ever raised in history, and continue to do so at a pace totally unseen in the history of financing.
    Have a significant technological breakthrough such that it reduces the costs of building and operating GPT — or whatever model that succeeds it — by a factor of thousands of percent.
    Have such a significant technological breakthrough that GPT is able to take on entirely unseen new use cases, ones that are not currently possible or hypothesized as possible by any artificial intelligence researchers.
    Have these use cases be ones that are capable of both creating new jobs and entirely automating existing ones in such a way that it will validate the massive capital expenditures and infrastructural investment necessary to continue.

    I ultimately believe that OpenAI in its current form is untenable. There is no path to profitability, the burn rate is too high, and generative AI as a technology requires too much energy for the power grid to sustain it, and training these models is equally untenable, both as a result of ongoing legal issues (as a result of theft) and the amount of training data necessary to develop them.

    To summarize:

    OpenAI’s only real options are to reduce costs or the price of its offerings. It has not succeeded in reducing costs so far, and reducing prices would only increase costs.
    To progress to the next models of GPT, OpenAI’s core product, the company would have to find new functionality.
    OpenAI is inherently limited by GPT’s transformer-based architecture, which does not actually automate things, and as a result may only be able to do “more” and “faster,” which does not significantly change the product, at least not in such a way that would make it as valuable as it needs to be.
    OpenAI’s only other option is to invent an entirely new kind of technology, and be able to productize and monetize said technology, something that the company has not yet been able to do.

    Scaling AI would require an investment in power generation that would be equivalent in ambition to the New Deal, or Eisenhower’s Interstate Highway System, and it would need to happen quickly. That’s something that doesn’t happen in the power-generation world. For context, in 2021 it took an average of 2.8 years for a new solar farm to be connected to the electrical grid. Two years later, that time rose to four years. Small modular reactors — a promising approach designed to reduce the cost and build times of nuclear power generations — are still far from mass-commercialization, and even if they weren’t, they’d still have to tend with the bureaucracy of the sector.

    Even if changing this were possible — and it’d be good for society if it was — artificial intelligence (driven by generative AI) is already massively increasing global emissions, particularly from companies like Google, which saw its emissions increase by 48% in the last five years thanks to AI.

    And because OpenAI (and the competition) are so deep in the hole with transformer-based models, I believe they will continue to drive billions into them, burning money on training them using data that may or may not have been legally acquired, and any lawsuit that goes in favor of the plaintiff would have potentially apocalyptic consequences for these models, requiring them to be retrained from scratch with an entirely new dataset, costing further hundreds of millions or billions.

    Perhaps I’m wrong. Perhaps there are things that I don’t know — about OpenAI, about the things it’s working on in secret, about some sort of energy or chip breakthrough that will approach so suddenly that I will eat crow. Perhaps it has more money in the bank than I thought, or perhaps their costs are currently inflated in a way that I — and the entirety of the tech media — are unaware of.

    But if there were, I believe we would know, or at least have some sort of sign.

    I don’t know what happens next, but I do know things have to change. I fear OpenAI will compete on price, sending its costs upward, or charge what it needs to to approach break-even, which I don’t think it’s willing to do. I fear for Anthropic, which has less money, less revenue, and equally gruesome burn. I fear for those founders relying on the current pricing for GPT and other models.

    Without OpenAI, the bottom drops out of the entire generative AI market, and will more than likely brutalize any public stock associated with the generative AI boom.

    #Ed_Zitron #OpenAI #Economie #Intelligence_artificielle

  • Opinion | Scarlett Johansson’s Voice Isn’t the Only Thing A.I. Companies Want - The New York Times
    https://www.nytimes.com/live/2024/05/21/opinion/thepoint#openai-scarlett-johansson

    Par Zeynep Tufekci

    When OpenAI introduced its virtual assistant, Sky, last week, many gasped. It sounded just like Scarlett Johansson, who had famously played an artificial intelligence voice assistant in the movie “Her.”

    On the surface, the choice made sense: Last year, Sam Altman, the C.E.O. of OpenAI, had named it his favorite science fiction movie, even posting the single word “her” around the assistant’s debut.

    OpenAI approached Johansson to be the voice for its virtual assistant, and she turned it down. The company approached her again two days before the debut of Sky, but this time, she said in a blistering statement, it didn’t even wait for her official “no” before releasing a voice that sounds so similar to hers that it even fooled her friends and family.

    In response to Johansson’s scathing letter, OpenAI claimed that the voice was someone else and “was never intended to resemble hers,” but it took Sky down anyway.

    The A.I. industry is built on grabbing our data — the output that humanity has collectively produced: books, art, music, blog posts, social media, videos — and using it to train their models, from which they then make money or use as they wish. For the most part, A.I. companies haven’t asked or paid the people who created the data they grab and whose actual employment and future are threatened by the models trained on it.

    Politicians haven’t stepped in to ask why humanity’s collective output should be usurped and monopolized by a handful of companies. They’ve practically let the industry do what it wants for decades.

    I am someone who believes in the true upside of technology, including A.I. But amid all the lofty talk about its transformational power, these companies are perpetuating an information grab, a money grab and a “break the rules and see what we can get away with” mentality that’s worked very well for them for the past few decades.

    Altman, it seems, liked Johansson’s voice, so the company made a simulacrum of it. Why not?

    When you’re a tech industry star, they let you do anything.

    #Zeynep_Tufekci #Intelligence_artificielle #OpenAI #Voice

  • Le directeur d’#OpenAI : ‘Une percée énergétique s’avère nécessaire pour l’avenir de l’intelligence artificielle’ - Data News
    https://datanews.levif.be/actualite/innovation/le-directeur-dopenai-une-percee-energetique-savere-necessaire-pour-la

    ‘Il n’y a aucun moyen d’y parvenir sans une avancée décisive’, a-t-il déclaré à propos de l’avenir de l’IA. ‘Cela nous motive à investir davantage dans la #fusion nucléaire.’ En 2021 déjà, Altman avait personnellement procuré 375 millions de dollars à la société américaine de #fusion_nucléaire #Helion Energy. Cette dernière avait ensuite signé un accord pour fournir de l’énergie à #Microsoft, le principal bailleur de fonds d’OpenAI.

    Je partageais hier l’info, déjà. Là, on constate que le monsieur participe aussi à une startup de la fusion nucléaire.

    https://seenthis.net/messages/1037047

    La fusion, c’est pour au bas mot dans 15 ans, ce qui finalement, est presque proche... mais d’ici là... pour alimenter nos super-intelligences qui vont nous rendre la vie plus facile, et nous permettre à tous de profiter de la vie (au chômage https://seenthis.net/messages/1037216), pour les alimenter, donc, il va falloir de l’énergie... et cette énergie, c’est dans la fission qu’on va la trouver, pendant encore au moins 15 ans.

    La SF qui imagine que les derniers électrons produits par l’humanité le seront pour faire fonctionner la dernière IA avant extinction finale, elle n’est pas à côté de la plaque ?

  • #OpenAI CEO Sam Altman Says Future Of AI Depends On #Nuclear #Fusion Breakthrough - News18
    https://www.news18.com/tech/openai-ceo-sam-altman-says-future-of-ai-depends-on-nuclear-fusion-breakthrou

    OpenAI’s CEO Sam Altman on Tuesday said an energy breakthrough is necessary for future artificial intelligence, which will consume vastly more power than people have expected.

    Coco, tu vois, on va mettre 40% de la planète au chômage https://seenthis.net/messages/1037216, et en plus, cette fois, on ne va pas pouvoir leur faire faire autre chose à la place de ce qu’ils faisaient.
    Mais en plus, il va falloir être capable de produire encore plus d’énergie, parce que sinon, les promesses annoncées ne seront pas tenables.
    Pire, peut-être que si on est incapable de maintenir le niveau d’énergie requis par les super-intelligences qui doivent nous remplacer, on devra faire travailler des humains alors qu’ils ne seront plus capables de faire mieux que d’acheter des Nike ou des Reebok en édition spéciale Black Friday. Ça sera la fin des haricots et il faudra aller se réarmer chez Macron.

  • OpenAI releases third version of DALL-E - The Verge
    https://www.theverge.com/2023/9/20/23881241/openai-dalle-third-version-generative-ai

    OpenAI announced the third version of its generative AI visual art platform DALL-E, which now lets users use ChatGPT to create prompts and includes more safety options.

    DALL-E converts text prompts to images. But even DALL-E 2 got things wrong, often ignoring specific wording. The latest version, OpenAI researchers said, understands context much better.

    A new feature of DALL-E 3 is integration with ChatGPT. By using ChatGPT, someone doesn’t have to come up with their own detailed prompt to guide DALL-E 3; they can just ask ChatGPT to come up with a prompt, and the chatbot will write out a paragraph (DALL-E works better with longer sentences) for DALL-E 3 to follow. Other users can still use their own prompts if they have specific ideas for DALL-E.

    This connection with the chatbot, OpenAI said, allows more people to create AI art because they don’t have to be very good at coming up with a prompt.

    OpenAI, possibly to avoid lawsuits, will also allow artists to opt their art out of future versions of text-to-image AI models. Creators can submit an image that they own the rights to and request its removal in a form on its website. A future version of DALL-E can then block results that look similar to the artist’s image and style. Artists sued DALL-E competitors Stability AI and Midjourney, along with art website DeviantArt, for allegedly using their copyrighted work to train their text-to-image models.

    #Dall-E #OpenAI #Intelligence_artificielle

  • The plan for AI to eat the world - POLITICO
    https://www.politico.com/newsletters/digital-future-daily/2023/09/06/the-plan-for-ai-to-eat-the-world-00114310
    https://static.politico.com/59/d4/f444c07c4c97b0a60ad9c1b62cf7/https-delivery-gettyimages.com/downloads/1258197310

    Les aerticles de Politico sur l’Intelligence artificielle sont toujours très intéressants.

    If “artificial general intelligence” ever arrives — an AI that surpasses human intelligence and capability — what will it actually do to society, and how can we prepare ourselves for it?

    That’s the big, long-term question looming over the effort to regulate this new technological force.

    Tech executives have tried to reassure Washington that their new AI products are tools for harmonious progress and not scary techno-revolution. But if you read between the lines of a new, exhaustive profile of OpenAI — published yesterday in Wired — the implications of the company’s takeover of the global tech conversation become stark, and go a long way toward answering those big existential questions.

    Veteran tech journalist Steven Levy spent months with the company’s leaders, employees and former engineers, and came away convinced that Sam Altman and his team don’t only believe that artificial general intelligence, or AGI, is inevitable, but that it’s likely to transform the world entirely.

    That makes their mission a political one, even if it doesn’t track easily along our current partisan boundaries, and they’re taking halting, but deliberate, steps toward achieving it behind closed doors in San Francisco. They expect AGI to change society so much that the company’s bylaws contain written provisions for an upended, hypothetical version of the future where our current contracts and currencies have no value.

    “Somewhere in the restructuring documents is a clause to the effect that, if the company does manage to create AGI, all financial arrangements will be reconsidered,” Levy notes. “After all, it will be a new world from that point on.”

    Sandhini Agarwal, an OpenAI policy researcher, put a finer point on how he sees the company’s mission at this point in time: “Look back at the industrial revolution — everyone agrees it was great for the world… but the first 50 years were really painful… We’re trying to think how we can make the period before adaptation of AGI as painless as possible.”

    There’s an immediately obvious laundry list of questions that OpenAI’s race to AGI raises, most of them still unanswered: Who will be spared the pain of this “period before adaptation of AGI,” for example? Or how might it transform civic and economic life? And just who decided that Altman and his team get to be the ones to set its parameters, anyway?

    The biggest players in the AI world see the achievement of OpenAI’s mission as a sort of biblical Jubilee, erasing all debts and winding back the clock to a fresh start for our social and political structures.

    So if that’s really the case, how is it possible that the government isn’t kicking down the doors of OpenAI’s San Francisco headquarters like the faceless space-suited agents in “E.T.”?

    In a society based on principles of free enterprise, of course, Altman and his employees are as legally entitled to do what they please in this scenario as they would be if they were building a dating app or Uber competitor. They’ve also made a serious effort to demonstrate their agreement with the White House’s own stated principles for AI development. Levy reported on how democratic caution was a major concern in releasing progressively more powerful GPT models, with chief technology officer Mira Murati telling him they “did a lot of work with misinformation experts and did some red-teaming” and that “there was a lot of discussion internally on how much to release” around the 2019 release of GPT-2.

    Those nods toward social responsibility are a key part of OpenAI’s business model and media stance, but not everyone is satisfied with them. That includes some of the company’s top executives, who split to found Anthropic in 2019. That company’s CEO, Dario Amodei, told the New York Times this summer that his company’s entire goal isn’t to make money or usher in AGI necessarily, but to set safety standards with which other top competitors will feel compelled to comply.

    The big questions about AI changing the world all might seem theoretical. But those within the AI community, and increasing numbers of watchdogs and politicians, are already taking them deadly seriously (despite a steadfast chorus of computer scientists still entirely skeptical about the possibility of AGI at all).

    Just take a recent jeremiad from Foundation for American Innovation senior economist Samuel Hammond, who in a series of blog posts has tackled the political implications of AGI boosters’ claims if taken at face value, and the implications of a potential response from government:

    “The moment governments realize that AI is a threat to their sovereignty, they will be tempted to clamp down in a totalitarian fashion,” Hammond writes. “It’s up to liberal democracies to demonstrate institutional co-evolution as a third-way between degenerate anarchy and an AI Leviathan.”

    For now, that’s a far-fetched future scenario. But as Levy’s profile of OpenAI reveals, it’s one that the people with the most money, computing power and public sway in the AI world hold as gospel truth. Should the AGI revolution put politicians across the globe on their back foot, or out of power entirely, they won’t be able to say they didn’t have a warning.

    #Intelligence_artificielle #OpenAI #Nouveaux_mythes #Utopie

  • L’Italie bloque l’usage de #ChatGPT
    https://www.france24.com/fr/%C3%A9co-tech/20230331-l-italie-bloque-l-usage-de-l-intelligence-artificielle-chatgpt

    Dans un communiqué, l’Autorité italienne de protection des données personnelles prévient que sa décision a un « effet immédiat » et accuse le robot conversationnel de ne pas respecter la réglementation européenne et de ne pas vérifier l’âge des usagers mineurs.

    #ia #intelligence_artificielle #OpenAI

    • ChatGPT de nouveau autorisé en Italie
      https://www.liberation.fr/economie/economie-numerique/chatgpt-de-nouveau-autorise-en-italie-20230429_HZAXWZDVXFBYLP2H5IHUDVJQBU

      L’Autorité italienne de protection des données personnelles avait bloqué fin mars ChatGPT, qu’elle accusait de ne pas respecter la réglementation européenne et de ne pas avoir de système pour vérifier l’âge des usagers mineurs.

      Bloqué il y a un mois pour atteinte à la législation sur les données personnelles, le programme d’intelligence artificielle ChatGPT est de nouveau autorisé en Italie depuis vendredi. « ChatGPT est de nouveau disponible pour nos utilisateurs en Italie. Nous sommes ravis de leur souhaiter à nouveau la bienvenue et restons engagés dans la protection de leurs données personnelles », a indiqué un porte-parole de OpenAI vendredi 28 avril.

      L’Autorité italienne de protection des données personnelles avait bloqué fin mars ChatGPT, qu’elle accusait de ne pas respecter la réglementation européenne et de ne pas avoir de système pour vérifier l’âge des usagers mineurs. L’Autorité reprochait aussi à ChatGPT « l’absence d’une note d’information aux utilisateurs dont les données sont récoltées par OpenAI […] dans le but “d’entraîner” les algorithmes faisant fonctionner la plateforme ».

      En outre, alors que le programme est destiné aux personnes de plus de 13 ans, l’Autorité mettait « l’accent sur le fait que l’absence de tout filtre pour vérifier l’âge des utilisateurs expose les mineurs à des réponses absolument non conformes par rapport à leur niveau de développement ».

      Sonnets et code informatique
      OpenAI publie désormais sur son site des informations sur la façon dont il « collecte » et « utilise les données liées à l’entraînement » et offre une « plus grande visibilité » sur la page d’accueil de ChatGPT et OpenAI de la politique concernant les données personnelles. La compagnie assure aussi avoir mis en place un outil « permettant de vérifier en Italie l’âge des utilisateurs » une fois qu’ils se branchent.

      L’Autorité italienne a donc donné acte vendredi « des pas en avant accomplis pour conjuguer le progrès technologique avec le respect des droits des personnes ».

      ChatGPT est apparu en novembre et a rapidement été pris d’assaut par des utilisateurs impressionnés par sa capacité à répondre clairement à des questions difficiles, à écrire des sonnets ou du code informatique. Financé notamment par le géant informatique Microsoft, qui l’a ajouté à plusieurs de ses services, il est parfois présenté comme un concurrent potentiel du moteur de recherche Google.

      Le 13 avril, jour où l’Union européenne a lancé un groupe de travail pour favoriser la coopération européenne sur le sujet, l’Espagne a annoncé l’ouverture d’une enquête sur ChatGPT.

  • Selon Goldman Sachs, #ChatGPT et l’#automatisation liée à l’IA générative menacent 300 millions d’emplois dans le monde et pourraient contribuer à faire progresser de 7 % le #PIB annuel

    Dans le détail, le rapport indique qu’environ deux tiers des emplois actuels sont exposés à un certain degré d’automatisation par l’IA, tandis qu’elle pourrait remplacer jusqu’à un quart du travail actuel. Les #cols_blancs sont parmi les plus susceptibles d’être affectés par ces nouveaux outils.

    Le rapport souligne aussi qu’aux Etats-Unis, les ​métiers du juridique ainsi que du support et de l’administratif sont particulièrement menacés par ces nouvelles #technologies. En Europe, les #cadres et les métiers liés à l’administratif sont aussi les plus en danger.

    #Goldman_Sachs suggère également que si l’IA générative est largement adoptée, elle pourrait entraîner d’importantes économies de coûts de main-d’oeuvre et la création de nouveaux emplois. […]

    Une étude réalisée conjointement par #OpenAI et l’université de Pennsylvanie a ainsi calculé de son côté que 80 % des employés américains seraient affectés par l’#IA générative pour au moins 10 % de leurs tâches et que 19 % d’entre eux seraient touchés pour plus de la moitié de leurs tâches. L’étude note que les plus diplômés doivent se préparer à davantage d’ajustements que les moins diplômés.

    (Les Échos)