• Face à l’#IA générative, l’#objection_de_conscience

    #Manifeste pour l’#enseignement_supérieur et l’#éducation_nationale

    Nous, membres de l’enseignement supérieur et de la recherche (ESR) et de l’éducation nationale (EN), déclarons adopter une posture d’objection de conscience face au déploiement des technologies d’#IA_générative[1] (#IAg) dans nos institutions.

    L’objection de conscience désigne le #refus individuel, mais aussi collectif en tant qu’il est publiquement partagé, de prendre part à une activité que l’on perçoit comme incompatible avec des #valeurs fondamentales.

    Dans le cas présent, nous considérons que le déploiement de l’IAg dans les institutions de l’ESR et de l’EN est incompatible avec les valeurs de #rationalité et d’#humanisme que nous sommes censé·es représenter et diffuser.

    Trois considérations majeures justifient cette position. Pour des raisons de concision, ce manifeste ne les développe pas mais on trouve dans la littérature scientifique de quoi les étayer solidement[2].

    Considération 1.

    L’IAg est un gouffre énergétique et matériel tel que personne ne peut prétendre qu’elle soit compatible avec les grands engagements internationaux tels que l’#Accord_de_Paris sur le climat, et plus généralement avec la #protection_du_vivant. Accepter le déploiement de l’IAg, c’est amplifier le dépassement des limites planétaires. Ceci est une attitude résolument anti-humaniste eu égard à la gravité de la situation. Le caractère écocidaire de l’IAg est en soi une raison suffisante pour en refuser le déploiement au sein de nos institutions.

    Considération 2.

    L’IAg représente un #choix_technologique qui agit comme un accélérateur des #infrastructures_industrielles sur lesquelles repose le secteur du #numérique : #mines, #datacenters, #centrales_électriques, usines de matériel électronique, etc. Ainsi, outre les problèmes de #pollution massive déjà évoqués, ce sont les lourds dégâts sociaux associés à ce système qui se voient renforcés : #travail prolétarisé dans les usines de fabrication et ultraprolétarisé dans le « #travail_du_clic », non-respect des #droits_humains, conflits d’usage (#eau, #métaux, #énergie), rapports extractivistes et néo-coloniaux entre pays du Nord et du Sud, #déstabilisation_géopolitique des régions minières, etc. Dans tous ces domaines, la compétition effrénée à laquelle se livrent les acteurs de l’IAg mènera aux méthodes les plus sauvages et prédatrices. Il nous semble inacceptable de contribuer à une telle dynamique par nos pratiques pédagogiques et scientifiques.

    Considération 3.

    La #banalisation des IAg dans le grand public alimente des usages qui ouvrent la voie à un futur dystopique – qui est, pour partie, déjà là : multiplication des vidéos deepfake, #désinformation à grande échelle par des « usines à trolls », #dépendance affective aux compagnies virtuelles, intensification du #marketing_digital et des #escroqueries, etc. Plus généralement, il permet à des mégafirmes d’accumuler un pouvoir démiurgique, mégafirmes dont les dirigeants ne font pas mystère de leurs projets mégalomaniaques, eugénistes et de leur détestation de la #démocratie. Nos institutions ne peuvent soutenir de telles techno-oligarchies, y compris de manière indirecte.

    *

    Le support principal de l’objection de conscience est le refus de participer à une activité qui contrevient à des valeurs fondamentales. Dans le cas de l’IAg, les trois considérations ci-dessus permettent d’assurer cette #posture au regard de nos missions d’éducation et de diffusion des savoirs.

    Face à ces analyses globales, les arguments les plus fréquents de légitimation de l’introduction de l’IAg dans nos institutions apparaissent immédiatement irrecevables[3]. Notamment, l’idée commune selon laquelle la diffusion de l’IAg dans nos sociétés serait « inéluctable » ne remet aucunement en cause la pertinence de l’objection de conscience. En effet, le principe de l’objection de conscience, voire de toutes les formes de #résistance, consiste à s’opposer à ce qui contrevient à nos valeurs fondamentales non pas parce que l’on pense que l’on va « gagner », mais parce que l’on a la certitude que c’est ce qui est juste et digne, ici et maintenant. Par ailleurs, contrairement à d’autres technologies délétères déjà profondément implantées dans nos sociétés, l’apparition des IAg est récente et par conséquent ses usages ne sont pas profondément intégrés dans nos pratiques professionnelles. Ainsi, l’effet de « verrouillage sociotechnique » empêchant tout retour en arrière n’est pas encore pleinement là avec les IAg et il est encore effectivement possible d’exercer un refus.

    Engagements

    Nous, membres de l’ESR et de l’EN signataires de ce manifeste nous engageons à :

    – adopter face au déploiement des IAg dans nos institutions une posture d’objection de conscience. Face à un phénomène qui nous dépasse mais dont nous savons qu’il est mortifère, nous choisissons d’opposer un refus net, indiscutable, et politique parce qu’il est partagé : nous ne les utiliserons pas, à moins d’y être expressément contraint·es, dans nos cours, dans nos communications, dans nos recherches, dans nos activités administratives. Nous refuserons, autant que nos situations individuelles nous le permettent, de participer à des projets ou à des activités qui les mobilisent (enregistrement et compte-rendu automatique de réunion ; activité pédagogique ; formation à l’usage, fût-il qualifié de raisonné ou éthique, etc.). À tout le moins, nous exprimerons publiquement notre malaise profond face à ces pratiques. Nous sommes par ailleurs conscient·es que le terme « IAg » recouvre des applications très diverses, dont certaines sont déjà largement intégrées à nos pratiques, telles que la traduction ou la transcription automatique. S’il n’est pas réaliste de tout remettre en cause, il s’agit au moins de stopper ce qui peut encore l’être.

    – afficher dans nos activités, nos signatures mails, nos publications, nos diaporamas, etc. notre ralliement à ce manifeste via un logo et/ou le lien vers le présent texte. L’enjeu est de ne jamais laisser l’IAg apparaître dans nos milieux professionnels « comme si de rien n’était » et d’afficher partout dans nos sphères d’activité que « cela ne va pas de soi ». Parvenir à ouvrir des discussions sur le sujet par cet affichage permettrait déjà d’éviter une banalisation qui, dans des institutions prescriptrices comme les nôtres, se confond avec de la promotion.

    – promouvoir autant que possible une réflexion collective sur la place du numérique dans nos institutions. Si les arguments que nous opposons au déploiement de l’IAg nous permettent en effet de refuser une nouvelle « escalade numérique », nous savons également que le système sociotechnique du numérique dans son ensemble est sujet aux mêmes questionnements. Le « stop » opposé à l’IAg pourrait ainsi être l’ouverture d’une séquence d’évaluation de nos dépendances plus générales à un système problématique, qui permette de s’engager vers la « sobriété numérique »[4] en vue d’aboutir à un numérique effectivement soutenable.

    [1]Les IA génératives constituent un type particulier de système d’Intelligence Artificielle, destiné à générer du texte, des images, des sons, des vidéos, sur la base de modèles de langage (LLM pour Large Language Model) entraînés sur de vastes corpus de données.

    [2]Une bibliographie indicative est proposée en fin de document.

    [3]Celles et ceux qui souhaitent des éléments de discussions plus précis sur ce type d’arguments (l’IA « souveraine », l’IA « sobre », la « praticité », l’IAg « inéluctable », etc.) pourront par exemple consulter le texte « Oui mais l’IAg… » publié sur le site web de l’Atécopol de Toulouse.

    [4]Pour aller plus loin sur ce sujet voir : affiche 10 de l’exposition « Pour la sobriété numérique dans l’ESR » (https://www.irit.fr/exposition-sobriete-numerique).

    –-
    Voici deux logos qui permettront aux signataires d’afficher leur adhésion à cette position. Chacun·e est invité·e à choisir le logo qui lui convient en fonction du contexte et/ou de ses préférences.

    https://atecopol.hypotheses.org/13082
    #intelligence_artificielle #résistance #éducation #ESR #université #enseignement #limites_planétaires #extractivisme #néo-colonialisme

  • #JOP2030 : un projet à contre-courant de la #transition Alpine

    Selon ses principaux promoteurs, les Jeux Olympiques et Paralympiques de 2030 seront structurants pour les Alpes françaises. Il ne s’agit pas seulement de penser l’avenir des #stations_de_ski, comme le suggère l’#Association_Nationale_des_Maires_de_Stations_de_Montagne (#ANMSM), mais de redéfinir rien de moins que les contours d’une « #civilisation_alpine [1] » (sic). Derrière les grands discours, quel projet de #territoire se dessine, ou se confirme avec les JOP 2030 ?

    La vie des montagnard·es est marquée par le #relief. Il remplit notre champ de vision, contraint et draine nos déplacements, définit notre #identité. Le relief est omniprésent dans nos vies. Cette géomorphologie contraignante est aussi protectrice : contre les canicules, contre les sécheresses - précipitations plus abondantes, stockage de l’eau en altitude sous forme de glace... Contre les excès humains aussi, par la résistance naturelle qu’elle oppose à l’#aménagement, à la domination de l’environnement, à l’organisation des concurrences inter-humaines, et contre le vivant.

    Le projet de territoire porté par les promoteurs des JOP 2030 voudrait briser cette résistance. Pour Renaud Muselier, président du conseil régional de Provence-Alpes-Côte d’Azur (PACA), les jeux olympiques et paralympiques sont "une opportunité pour l’accélération de la #transition_montagnarde”. Mais laquelle ? Dans une interview pour La Provence (14/10/23), il répondait à la question de l’impact du projet sur l’environnement : "Quand on parle de bilan carbone, mettre 5 heures pour faire Marseille Briançon, est-ce acceptable ? L’embouteillage à Tallard, on l’accepte ?"

    Il pointait ainsi du doigt un de ces embouteillages des vendredi et dimanche soirs de la saison de ski, dans lequel se retrouvent coincés, les skieurs venus des grandes métropoles régionales du sud : Montpellier, Marseille, toute la côte varoise. Dont un certain Renaud Muselier, qui vient faire du ski en Haute Ubaye en passant par... Tallard pour accéder à son lieu de villégiature. D’autres “bouchons” ou goulets d’étranglement existent partout dans les Alpes françaises (et ailleurs) conséquence d’une hyper affluence ponctuelle qui engorge les massifs avec une régularité métronomique.

    Voilà qui illustre la vision de territoire portée par les JOP 2030, et ses promoteurs : en pleine période de restriction budgétaire massive, il s’agit essentiellement de favoriser quelques grands #domaines_skiables (deux pour les Alpes du sud) et l’amélioration des #axes_routiers pour y parvenir. Et ce au détriment des #populations_locales, des #services_publics, de l’#environnement… mais également de tous les "petits territoires”, éloignés (à peine) de ces domaines skiables et des grands axes qui y mènent. Ces “petits” territoires comprennent un ensemble de stations de #moyenne_montagne qui souffrent déjà particulièrement du #réchauffement_climatique, et dont les premières fermetures emblématiques se succèdent déjà.

    Et le #ferroviaire, demanderez-vous ? Dans cette vision territoriale, le ferroviaire est certes mis en avant par les porteurs du projet, comme caution verte : il s’agit de passer, d’ici aux jeux, d’un temps de trajet de quasi 5 heures à 3h30 entre Marseille et Briançon. Or, les temps de parcours actuels sont le résultat d’une politique de délaissement du #rail, depuis de nombreuses années, portée par les mêmes qui promeuvent les jeux. L’état du #réseau_ferroviaire alpin est tellement dégradé, qu’il paraît difficile de le rendre rapidement à nouveau attractif d’ici 2030. De sorte que l’option la plus "réaliste" pour réduire le temps de trajet serait... de ne pas s’arrêter dans les gares intermédiaires !

    La vision portée par les JOP 2030 est celle de la #spécialisation du territoire, celui des Alpes, au service d’un #tourisme_de_masse issu des grands centres urbains. #Chamonix, #Briançon en sont des exemples emblématiques. La population locale, habitant à l’année, est progressivement chassée des hautes vallées spécialisées dans le ski, devenues trop chères, et invivables au quotidien. Elle subit l’arrivée d’un nombre toujours croissant de vacancier·es, pour qui tout est organisé, dans une “montée en gamme” de l’accueil. On perçoit ainsi deux réalités et logiques distinctes, celle des habitant·es des territoires de montagne, et celle des consommateur·ices d’un territoire.

    Issue des catégories aisées des grands centres urbains, sous pression des contraintes citadines du quotidien, cette population de vacancier·es a besoin, le temps du weekend et des #vacances, de fuir leur lieu de vie, pour s’aérer, pour décompresser. Iels deviennent consommateur·ices d’un territoire, avec le besoin impérieux de changer d’air, de se détendre et de couper d’un quotidien oppressant... pour mieux se présenter le lundi matin au bureau avec la mine hâlée de ceux qui ont les moyens de s’échapper momentanément de l’"enfer" des grandes cités, et de profiter, le temps du weekend ou de vacances, des espaces naturels et des bienfaits de l’activité en extérieur.

    La spécialisation de territoire (au service des centres urbains) que dessine le #surtourisme se retrouve aussi dans d’autres secteurs d’activités : l’#énergie par exemple. Dans les Alpes du sud, des zones “excentrées” sont vues comme territoire à “faible pression foncière”, qui laisse la place au développement des #énergies_renouvelables, solaire photovoltaïque entre autres (du fait du climat particulièrement ensoleillé) et l’apparition de #centrales_photovoltaïques géantes, remplaçant forets et espaces naturels “sauvages”.Ou encore le secteur des #déchets, les arrières pays servant de zone de stockage des déchets des grandes agglomérations.

    Cette #spécialisation_territoriale n’a pourtant pas d’avenir dans le contexte actuel de réchauffement climatique. Dès janvier 2023, la trajectoire climatique de la France a été définie par le ministère de la Transition écologique à +4 degrés à l’horizon 2100, moins de 8 ans après les Accords de Paris qui stipulaient un objectif de 1,5 degrés. Dans les Alpes, ces +4 degrés pourraient être atteints bien avant 2100, ce territoire se réchauffant plus vite que le reste du pays. Quelle hausse de température pouvons nous y attendre et craindre +5, + 6 degrés ?... Une étude européenne sur plus de 2500 stations de ski montrent qu’à plus 4 degrés, 98 % des stations auront un problème existentiel d’enneigement.

    Dans ce contexte de réchauffement climatique fort, les territoires de montagne sont à la fois fragiles, et pourvus d’atouts importants : fraîcheur (relative), réserves en eau, espaces naturels disponibles pour la biodiversité… Un ensemble de facteurs nécessaires à la résilience de territoire. La #revitalisation du territoire alpin ne pourra pas être activée sans prendre en compte ses particularités et sans sa population. Et c’est pourtant ainsi qu’est bâti le projet JOP 2030 ! Il paraît urgent de remettre la #vie_montagnarde, celle des habitant·es des Alpes, au cœur de la question de l’avenir des massifs, au cœur de la question de la #transition_alpine ; Urgent de rompre avec un modèle de consommation de la montagne, urgent d’intégrer les populations pour construire de nouvelles orientations.

    https://france.attac.org/nos-publications/lignes-d-attac/article/jop-2030-un-projet-a-contre-courant-de-la-transition-alpine
    #JO2030 #jeux_olympiques #Alpes #migrations #consumérisme #climat #changement_climatique

  • Paris, Nice... Quand des #fleuves rafraîchissent des villes

    Les #réseaux_de_froid urbains, méconnus, sont de solides alternatives à la climatisation classique. À Paris, la Seine permet de rafraîchir 800 bâtiments. D’autres villes ont sauté le pas.
    Casque sur la tête, Tim Guigon marche à côté d’énormes machines qui bourdonnent au milieu de tuyaux de toutes tailles. « C’est une #climatisation à taille géante », s’exclame le responsable de la communication chez #Fraîcheur_de_Paris en me tendant des bouchons d’oreilles antibruit. Enfouie dans le sol, la centrale de Bercy refroidit une partie des bâtiments de la capitale avec l’aide de la #fraîcheur_naturelle de la Seine. Quelques mètres plus haut, des passants se promènent au bord du fleuve, sans se douter de ce qui se trame en profondeur.

    Le projet a été mis en place à partir de 1978. Aujourd’hui, plus de 100 kilomètres de #canalisations_glacées rafraîchissent 870 bâtiments : le Louvre, l’Assemblée nationale, l’Opéra Garnier, l’hôpital des Quinze‑Vingts, le Forum des Halles...

    Le réseau se présente comme un modèle de la #transition_écologique, et ne cesse de s’allonger. « Nous voulons atteindre les 250 km de réseau dans les vingt prochaines années et raccorder des bâtiments résidentiels en 2050 », annonce Tim Guigon. D’autres villes comme Lyon, Marseille et Nice possèdent aussi des réseaux utilisant la fraîcheur de l’eau. Mais la technique reste rare : seuls 43 #réseaux_de_froid fonctionnaient en 2023 contre 1 000 réseaux de chaleur.

    Un enjeu de taille : se rafraîchir

    Un réseau de froid est une sorte de #labyrinthe_glacé. D’abord, une centrale frigorifique refroidit une boucle d’eau indépendante. Cette dernière refroidit ensuite — sans se mélanger — de longues canalisations qui se fraient un passage sous terre afin d’atteindre chaque bâtiment. Une fois arrivée, l’eau refroidit le petit réseau indépendant du bâtiment, qui refroidit l’air qui est projeté dans le bâtiment, comme une climatisation classique.

    La plupart du temps, les #centrales_frigorifiques sont nécessaires pour refroidir l’eau circulant dans les tuyaux. Mais quand la Seine est assez fraîche, ces centrales sont éteintes, ou moins utilisées. Cette technique, nommée le #free-cooling, consomme beaucoup moins d’électricité, même si celle-ci est renouvelable.

    Cette manière de rafraîchir consomme moins d’énergie, émet moins de gaz à effet de serre et moins de fuites de fluide frigorigène — les #hydrofluorocarbures, des gaz principalement utilisés pour le refroidissement, ont un fort pouvoir polluant. Certains réseaux comme celui de Paris ont même la capacité de stocker du froid, notamment sous forme de glace, afin de le libérer en fonction de la demande.

    C’est à se demander pourquoi un système aussi performant n’est pas étendu davantage car l’enjeu est de taille. Selon une étude étasunienne de 2022, la climatisation émet 4 % des émissions mondiales de gaz à effet de serre et notre consommation de frais va doubler d’ici à 2050, selon une étude (en anglais) de l’Agence internationale de l’énergie.

    Des réseaux mieux adaptés aux #villes

    « L’enjeu principal des réseaux de froid, c’est de réussir à se faufiler jusqu’aux émetteurs adaptés [c’est-à-dire amener le froid jusque dans les pièces concernées]. Les radiateurs en fonte ne sont pas compatibles par exemple. Pour les bâtiments neufs, c’est assez simple, mais pour les bâtiments existants, c’est plus compliqué », indique Luc Petitpain, ingénieur chargé d’étude Réseaux de chaleur et de froid au #Cerema, organisme public travaillant dans le secteur de l’aménagement du territoire.

    De plus, « les usagers potentiels et les bureaux d’études ont une mauvaise connaissance des besoins en froid des bâtiments », conclut le Cerema dans une enquête sur les réseaux de froid en France en 2021.

    À Nice, par exemple, le réseau Méridia a été finalisé après la construction de certains bâtiments, ce qui a empêché leur raccordement au réseau. Ce dernier est par conséquent doté d’un excédent de puissance, de même qu’à Grenoble, où la puissance du réseau Grand’place a été surestimée.

    Luc Petitpain a œuvré à identifier la demande de froid partout en France en croisant les données recueillies avec celles des #zones_climatiques_locales (#LCZ), c’est-à-dire des environnements urbains soumis aux #îlots_de_chaleur (ICU). L’Île-de-France, une région où beaucoup habitent dans des immeubles et dans de grands ensembles, est le client parfait des réseaux de froid. « Ce travail s’adresse aux collectivités afin qu’elles sachent qu’une solution économique, technique et écologique existe », signale l’ingénieur.

    Des contraintes géographiques

    Dans un rapport de 2022, le Cerema note que les réseaux de froid se concentrent principalement dans les grandes villes pour répondre à un objectif de rentabilité.

    Mais certaines petites localités se sont aussi lancées comme Le Barp (Gironde), 5 713 habitants. Sous terre courent 700 mètres de tuyaux qui refroidissent une partie du centre d’études scientifiques et techniques d’Aquitaine. Il y a toutefois peu de chances que ces réseaux se développent en milieu rural.

    « Il y a des contraintes géographiques, précise Rémi Babut, ingénieur, urbaniste et chef de projet dans le secteur du logement au Shift Project. Premièrement, il faut prendre en compte la densité du lieu. Deuxièmement, il faut que le lieu soit doté d’une source de froid. » L’intérêt est d’utiliser les spécificités de la région pour utiliser un minimum d’énergie, comme un lac, la mer ou un fleuve comme la Seine.

    À Doha (Qatar), là où se trouve le plus grand réseau de froid du globe, la température de surface du golfe Persique avoisine les 30 °C en été. Les pompes tournent alors à plein régime pour que les degrés descendent drastiquement et permettent aux habitants de ne pas suffoquer. « Quand la Seine est à 29 °C, on continue à livrer de l’eau, mais parfois un peu plus chaude. C’est fini la climatisation à 14 °C lorsqu’il fait 34 °C dehors », analyse Tim Guigon de Fraîcheur de Paris.

    « Les réseaux de froid ne sont pas idéaux : ils consomment beaucoup d’#électricité — nous sommes un des premiers consommateurs de Paris — et utilisent toujours des fluides frigorigènes comme des hydrofluorocarbures [dont les pertes sont néanmoins vingt fois inférieures à celles d’une climatisation autonome]. Les transports en commun non plus ne sont pas parfaits, mais comparés à plusieurs voitures, ils sont plus vertueux. »

    Fraîcheur de Paris travaille sur une façon de se débarrasser de ces fluides en les remplaçant par de l’eau, mais il s’agit d’une machine moins performante et qui en est encore au stade de prototype. « On se réveille un peu tard », admet Tim Guigon.

    A-t-on besoin de la clim’ ?

    Selon Rémi Babut, le retard historique de la France concernant l’utilisation de cette technique peut s’expliquer par le fait que les Français n’en avaient pas besoin. « Tendre des draps, fermer les volets, vivre dans le noir, faire la sieste »... sont autant de pratiques culturelles dans la partie sud du pays. « On en revient à l’éternel débat : dois-je m’adapter à l’environnement ou adapter mon environnement ? En France, on choisit plutôt la deuxième option », analyse-t-il.

    « Il faut distinguer le #refroidissement du #rafraîchissement », poursuit l’ingénieur. Le refroidissement regroupe tous les moyens actifs d’abaisser le mercure, le plus connu étant la climatisation. Le rafraîchissement englobe quant à lui tout un tas de #techniques passives qui concernent la conception de l’habitat. « Les brise-soleil, les brasseurs d’air (ventilateurs), les dispositifs d’occultation, etc. ont un effet significatif sur la baisse des températures, assure Rémi Babut tout en nuance. Je m’oppose à ce débat “clim ou pas clim” qu’on peut entendre dans les médias. L’électricité française étant relativement bas-carbone, il faut penser une stratégie de climatisation, notamment pour les publics les plus fragiles. »

    À l’évidence, pour lutter contre les fortes chaleurs, il s’agit aussi de mieux penser notre manière d’habiter la planète. « Il faut rafraîchir la ville, dit Rémi Babut. Planter des arbres, désimperméabiliser les sols… » En attendant, les Français climatisent toujours plus leur domicile. De 2017 à la fin de l’année 2019, la part de résidences climatisées est passée de 11 % à 22 %.

    https://reporterre.net/Paris-Lyon-Quand-des-fleuves-rafraichissent-des-villes
    #rivières #froid #chaleur #chaud #refroidir #refroidissement

  • La centrale nucléaire de Gravelines à l’arrêt à cause de méduses qui ont bloqué les stations de pompage d’eau
    https://www.lemonde.fr/energies/article/2025/08/11/des-meduses-a-l-origine-de-l-arret-de-la-centrale-nucleaire-de-gravelines_66

    Quatre unités de la centrale nucléaire de Gravelines (Nord) sont à l’arrêt en raison de la « présence massive et non prévisible de méduses », dans les stations de pompage de l’eau servant au refroidissement des réacteurs, a annoncé EDF, lundi 11 août, dans un communiqué. Ces animaux gélatineux ont été retrouvés dans les filtres des stations de pompage qui aspirent l’eau de mer destinée à maîtriser la température des réacteurs de la centrale.

    Après, tu entends dans le poste que, ah ben zut, la surpêche « entrainerait » une diminution des prédateurs, que le réchauffement des océans « provoquerait » des proliférations de bestioles gélatineuses et que ces dernières (portés par les vents et les courants) se rassembleraient en mode yolo pour venir « bloquer » nos centrales ...

    Qui a dit que l’électrification ne pourrait pas nous surprendre ?

    • https://www.goodplanet.info/2025/08/11/des-meduses-forcent-larret-de-la-centrale-nucleaire-de-gravelines

      La prolifération de ces animaux marins gélatineux et urticants est due à plusieurs facteurs, dont le réchauffement des océans avec celui du climat, mais aussi la surpêche, qui élimine certains de leurs prédateurs directs comme le thon.

      Bon après, on peut pas non plus trop leur en vouloir aux méduses. Elles ont entendu parler de #blocage. Elles sont juste un peu en avance sur l’agenda ...

    • L’été 2025 a été chaud. Faune, flore et humains en ont pâti, les réacteurs nucléaires aussi.

      La prolifération des méduses – phénomène accentué par le changement climatiques – a provoqué l’arrêt en urgence des 4 réacteurs en fonctionnement de la centrale de Gravelines dans la nuit du 10 au 11 août (1). Ces « agresseurs » se sont fait aspirer par les colossales prises d’eau de mer, indispensable au refroidissement de la centrale. L’Autorité de sûreté nucléaire et de radioprotection (ASNR) a pu constater les dégâts causés par le massacre (2) et a souligné qu’EDF devait mieux surveiller ses agresseurs potentiels (méduses, groseilles de mer…).

      Dans les terres, la température élevée du Rhône et de la Garonne a obligé EDF à baisser la puissance d’un réacteur au Bugey le 8 août (qui sera finalement arrêté) (3), et d’un autre à Golfech le 12 août (4). Leurs rejets réchauffent trop les cours d’eau et leurs écosystèmes déjà mis à mal par les conditions climatiques.

      Et juste avant tout ça, l’ASNR a accepté les demandes de l’exploitant d’un réacteur de recherche pour tenir compte des sécheresses récurrentes (5) : continuer à rejeter ses effluents radioactifs dans l’Isère même si son débit est plus faible qu’avant (moins de dilution), et augmenter ses rejets d’eaux chaudes dans la rivière d’à côté (plus de réchauffement).

      Cherchez l’erreur.

      https://www.criirad.org/28-08-2025-ete-et-nucleaire-qui-aura-le-dernier-mot

    • Nucléaire : à Gravelines, EDF confronté à un « défi majeur » pour construire des réacteurs sur un sol « aux caractéristiques mécaniques médiocres »
      https://www.lemonde.fr/planete/article/2025/10/17/nucleaire-a-gravelines-edf-confronte-a-un-defi-majeur-pour-construire-des-re


      Centrale nucléaire de Gravelines (Nord) et de la plage de Petit-Fort-Philippe, le 28 mai 2012. PASCAL ROSSIGNOL / REUTERS

      « Le renforcement envisagé du sol du site de Gravelines constitue un défi technique majeur », écrit [l’#ASNR], qui ajoute qu’EDF « pourrait examiner la pertinence d’autres solutions d’amélioration du sol ».

      Situé en bord de mer, le site de Gravelines se caractérise par « un sol meuble sur une forte épaisseur », dont certaines couches présentent « des caractéristiques mécaniques médiocres ». Or, les EPR qui pourraient y être construits seront presque deux fois plus denses que les réacteurs actuellement en fonctionnement dans la centrale, en raison notamment de leur très forte puissance. Résultat, #EDF doit mettre en place un système de renforcement du sol afin d’éviter des tassements et des déformations trop importants, incompatibles avec l’exploitation de ces nouvelles unités.

      Si l’électricien n’a pas encore déposé de demande d’autorisation de création pour les EPR de Gravelines, l’ASNR a examiné de manière anticipée sa proposition sur ce sujet, qui consiste à associer plusieurs techniques (barrettes en béton armé, mélanges mécaniques du sol avec un liant hydraulique…). Sur différents aspects, l’autorité estime que l’approche retenue n’est « pas suffisamment robuste » et soulève des points de vigilance.

      « Cumul de dispositifs »

      Le système de renforcement du sol proposé est « d’une ampleur sans précédent, d’une grande complexité et sans retour d’expérience représentatif en France et à l’international », écrivent les experts. Ils affirment que les exemples fournis par EDF pour appuyer sa proposition, concernant des réservoirs méthaniers au Koweït ou le pont Rion-Antirion, en Grèce, « correspondent à des configurations de renforcement différentes de celle envisagée pour les futurs EPR2 » de Gravelines, et ne présentant pas « les mêmes enjeux de sûreté ».

      « EDF a proposé une solution avec de multiples composants, précise Julien Collet, directeur général adjoint de l’ASNR. Chacun a déjà été mis en œuvre de manière isolée mais ce qui est compliqué, c’est le cumul de ces dispositifs qui interagissent entre eux. »
      L’avis souligne qu’en cas de séisme, le risque de liquéfaction – un phénomène par lequel un sol saturé en eau perd brutalement une partie ou la totalité de sa portance, pouvant conduire à l’enfoncement ou l’effondrement des constructions – n’est pas totalement écarté. « Le comportement sismique d’un sol renforcé par un système aussi dense et complexe que celui prévu reste aujourd’hui largement inconnu et relève encore de la recherche », indique le gendarme du nucléaire. Une autre interrogation porte sur la durabilité des dispositifs, constitués de divers matériaux et qui seront en interaction avec du sable et de l’eau de mer. Comment garantir qu’ils fonctionneront tout au long de la durée de vie des réacteurs ?

      « Foncer tête baissée »

      Dans un courrier adressé à EDF jeudi, l’ASNR appelle l’entreprise à définir des exigences de performance pour son système de renforcement du sol et à démontrer qu’elle peut y répondre. « C’est un sujet à enjeux en termes de coûts et de calendrier, c’est pour cela qu’il a été identifié en amont » de la demande d’autorisation de création, qui devrait être déposée dans les prochains mois, ajoute Julien Collet. Interrogé, le groupe EDF se contente d’indiquer qu’il « étudie plusieurs options possibles » et que les échanges avec l’ASNR se poursuivront.

      L’ONG Greenpeace estime de son côté que « cet avis accablant remet en cause » les EPR2. Il est « une nouvelle preuve que les critères de choix des sites de construction de nouveaux réacteurs sont largement questionnables » et démontre « la précipitation d’EDF qui fonce tête baissée dans ses projets » à Gravelines, a réagi Pauline Boyer, chargée de campagne nucléaire.

      La relance de l’atome, avec la construction d’au moins six EPR2, a été annoncée en 2022 par le président Emmanuel Macron. Elle est inscrite dans le projet de nouvelle feuille de route énergétique de la France (la programmation pluriannuelle de l’#énergie, PPE3), qui n’est toujours pas publiée.

  • Trgovska Gora: i rifiuti radioattivi nella periferia d’Europa
    https://www.balcanicaucaso.org/aree/Bosnia-Erzegovina/Trgovska-Gora-i-rifiuti-radioattivi-nella-periferia-d-Europa-238918

    Sono iniziati i lavori di demolizione di fabbricati dismessi nell’area dell’ex caserma di Čerkezovac, in Croazia, al confine con la Bosnia Erzegovina, per lasciare spazio al controverso nuovo centro per lo smaltimento dei rifiuti radioattivi della centrale nucleare di Krško

  • Créatures de Tchernobyl | Hugh Raffles
    https://bureburebure.info/creatures-de-tchernobyl

    « Je regarde cette photo de Cornelia Hesse-Honegger dans son appartement de Zurich et j’essaie d’imaginer ce qu’elle voit au microscope. Sous la lentille, se trouve un tout petit insecte vert et doré, une de ces punaises des plantes du sous-ordre hétéroptère qu’elle peint depuis plus de trente ans. Le microscope binoculaire les grossit quatre-vingts fois. L’échelle millimétrée qui se trouve sur l’oculaire gauche lui permet de reproduire le moindre détail du corps observé avec une précision minutieuse. Cornelia a ramassé ce spécimen non loin de la centrale nucléaire de Gundremmingen, dans le sud de l’Allemagne. Comme la plupart des insectes qu’elle peint, il est déformé. » Source : Extraits de « Créatures de Tchernobyl, L’art de Cornelia Hesse-Honegger (...)

  • L’accélération de l’#IA pose déjà des questions de #pénuries d’#eau et d’#énergie

    Le Royaume-Uni comme les États-Unis viennent de présenter de nouveaux plans pour soutenir la mise en place d’#infrastructures pour l’IA dans leurs territoires. Mais actuellement, aux États-Unis, de nouvelles #centrales au gaz sont ouvertes pour répondre aux demandes d’énergie de l’IA. Au Royaume-Uni, l’implantation par le gouvernement de sa « première zone de croissance de l’IA » près d’un nouveau réservoir pose la question des priorités d’#accès_à_l'eau.

    Ce mardi 14 janvier et six jours avant la passation de pouvoir à Donal Trump, Joe Biden a publié un décret pour l’investissement des États-Unis dans des infrastructures. « Je signe aujourd’hui un décret historique visant à accélérer la vitesse à laquelle nous construisons la prochaine génération d’infrastructures d’IA ici aux États-Unis, de manière à renforcer la compétitivité économique, la sécurité nationale, la sécurité de l’IA et l’énergie propre », affirme-t-il.

    Selon certaines estimations, la consommation énergétique de l’IA devrait être multipliée par 4 à 9 d’ici 2050 et la consommation d’énergie des #data_centers aux États-Unis est déjà très carbonée.

    Le #gaz comme source d’énergie future aux États-Unis

    Mais, malgré les différentes annonces d’investissements dans le nucléaire par les géants du numérique, les États-Unis seraient plutôt à l’aube d’un boom de la construction de #centrales_électriques au gaz naturel, selon le Financial Times. Le journal économique américain explique que « les grandes entreprises technologiques se tournent vers les #combustibles_fossiles pour répondre aux énormes besoins en #électricité de la révolution de l’intelligence artificielle, ce qui met en péril les objectifs en matière de climat ».

    Le journal cite le cabinet de conseil en énergie #Enverus qui prévoit qu’au moins 80 centrales électriques au gaz seront construites aux États-Unis d’ici à 2030. Le Financial Times estime la capacité supplémentaire de ces centrales à 46 gigawatts, « soit la taille du réseau électrique norvégien et près de 20 % de plus que ce qui a été ajouté au cours des cinq dernières années ». Et selon Corianna Mah, analyste pour Enverus interrogée par le journal, « le gaz croît en fait plus rapidement aujourd’hui, et à moyen terme, que jamais auparavant ». Aucun des projets qu’Enverus a listés ne prévoit d’être équipé d’un système de capture de dioxyde de carbone.

    Approvisionnement de l’eau dans un lac de barrage prévu pour la population britannique

    De son côté, le gouvernement du Royaume-Uni vient d’annoncer une stratégie nationale pour faire de son pays un leader en matière d’intelligence artificielle. Dedans, il prévoit entre autres des « Zones de croissance de l’IA » (#IA_growth_zones), « des zones bénéficiant d’un meilleur accès à l’électricité et d’un soutien pour les autorisations de planification, afin d’accélérer la mise en place d’une infrastructure d’IA sur le sol britannique », comme l’explique le communiqué du Secrétariat d’État à la science, à l’innovation et à la technologie.

    Mais des questions se posent sur l’emplacement prévu de la première « #zone_de_croissance ». Situé à Culham, au siège de l’Autorité britannique de l’énergie atomique (UKAEA), cet endroit est aussi celui du premier nouveau lac de barrage construit depuis 30 ans aux Royaume-Uni, « qui était censé fournir de l’eau aux habitants du sud-est de l’Angleterre, qui souffre d’un grave problème d’approvisionnement en eau », explique le Guardian.

    Le journal britannique souligne que cette région est celle qui, selon l’agence environnementale nationale, est la plus sensible du pays aux manques d’eau. Entre les réserves d’eau disponibles et la demande attendue sans compter les data centers, le sud-est du pays sera confronté à un déficit potentiel de plus de 2,5 milliards de litres par jour d’ici 2050.

    Du côté énergétique, le gouvernement britannique a mis en place un Conseil de l’énergie de l’IA qui doit travailler avec les entreprises du secteur pour « pour comprendre les demandes et les défis énergétiques » liés à l’intelligence artificielle. Il parie encore sur la possibilité de mettre en place des #SMR (#réacteurs_nucléaires_modulaires).

    « L’expansion de l’IA a été un sujet de préoccupation pour #National_Grid [entreprise de distribution de l’électricité et du gaz notamment au Royaume-Uni], mais la vitesse à laquelle la demande de calcul de l’IA augmente a pris tout le monde par surprise et, à moins que nous n’équilibrions correctement les compromis ci-dessus, avec des politiques appropriées, toute l’énergie verte et bon marché dont nous disposons sera utilisée par les grandes entreprises technologiques, ce qui privera les familles qui souffrent déjà de la pauvreté énergétique », explique Gopal Ramchurn, chercheur de l’université de Southampton, interrogé par le Guardian.

    La #France s’appuie sur son #nucléaire, mais des tensions sont présentes

    Quant à la France, l’instabilité politique ne permet pas d’y voir très clair dans la politique du pays concernant l’IA. Lors de son discours de politique générale, le premier Ministre François Bayrou a évoqué l’IA lorsqu’il a annoncé la création d’un fonds spécial « entièrement [consacré] à la réforme de l’État ». Ce fonds sera financé par des actifs « en particulier immobiliers, qui appartiennent à la puissance publique, de façon à pouvoir investir, par exemple, dans le déploiement de l’intelligence artificielle dans nos services publics ».

    Lors de ses vœux, le Président de la Région Normandie Hervé Morin a évoqué la volonté de sa région d’être référente en matière d’intelligence artificielle et d’accueillir des data centers sur trois ou quatre points du territoire. Il a mis en avant « son potentiel énergétique décarboné », faisant référence aux centrales nucléaires de Flamanville, Paluel et Penly et à l’EPR situé lui aussi à Flamanville.

    Mais RTE tirait récemment un signal d’alarme sur le foisonnement de projets de data centers prévus pour l’IA. Si l’entreprise affirmait en novembre à l’Usine Nouvelle avoir « assez d’électricité pour répondre à la croissance des besoins », elle pointait aussi du doigt une « course à la capacité » et un manque de planification :« plusieurs projets ont été abandonnés en raison de tensions sur la distribution de l’énergie », ajoutait-il.

    https://next.ink/165467/lacceleration-de-lia-pose-deja-des-questions-de-penuries-deau-et-denergie

    #intelligence_artificielle #AI #énergie_nucléaire

    • Pourquoi l’IA générative consomme-t-elle tant d’énergie ?

      #DeepSeek défraye la chronique en proposant un modèle dont les #performances seraient comparables à celles des modèles préexistants, pour un coût très réduit en termes de puissance de calcul et de données, et donc une #consommation_énergétique moindre. Quand on sait que Microsoft a indiqué une hausse de 29,1 % d’émission de carbone sur l’année 2023 et que différentes grandes entreprises du numérique investissent dans des capacités de production d’électricité, le tout en lien avec l’essor de l’#IA_générative, l’enjeu est de taille. Pourquoi l’IA générative consomme-t-elle tant ? Décryptage.

      Les grands modèles de langage (Large Language Models ou LLM), comme ChatGPT (OpenAI), Gemini (Google/DeepMind) ou encore les modèles génératifs d’images comme #Midjourney, sont devenus en très peu de temps des outils incontournables avec des usages qui ne cessent de s’amplifier et de se diversifier. Il est vrai que la fluidité des échanges avec ChatGPT impressionne, et que les promesses de développement sont enthousiasmantes.

      Néanmoins, ces promesses cachent des coûts de calcul, et donc énergétiques, considérables. Or, aujourd’hui l’idée dominante dans l’industrie des modèles génératifs est : « Plus grand est le modèle, mieux c’est. » Cette compétition s’accompagne d’une croissance de la consommation énergétique et, donc, de l’empreinte écologique qui ne peut plus être ignorée et qui questionne quant à sa pérennité et sa viabilité pour la société.
      Pourquoi un tel coût ?

      Un modèle génératif de texte comme un chatbot est un ensemble de paramètres numériques ajustés à partir de données pour accomplir une tâche spécifique. L’architecture dominante s’appuie sur les « transformers ».

      Les #transformers prennent une séquence en entrée, par exemple un prompt (soit votre question), pour la transformer numériquement. En empilant les couches de transformers, le modèle multiplie ces transformations afin de construire la réponse en prolongeant son entrée. Cet empilement de couches confère au modèle son efficacité et fait croître le nombre de paramètres. C’est pourquoi un modèle tel que GPT-4 contient au moins 1 tera (1 000 milliards) de paramètres et nécessite donc au moins 2 tera octets (To) de mémoire vive pour être utilisable.

      Que ce soit pour l’entraînement, pour le stockage des données et des paramètres, ou pour le calcul d’une réponse, des infrastructures de calcul de plus en plus puissantes sont donc indispensables. En d’autres termes, contrairement à ce que l’on croit souvent, ce n’est pas juste pour entraîner le modèle que ces techniques sont très coûteuses.

      Des données émerge la « connaissance »

      Avant tout, un modèle génératif doit être « appris ». Pour cela des données (textes, images, sons, etc.) lui sont présentées à maintes reprises afin d’ajuster ses paramètres. Plus il y a de paramètres, plus la phase d’apprentissage est coûteuse en données, mais aussi en temps et en énergie.

      Ainsi, pour un LLM (grand modèle de langage), on parle par exemple de l’ordre de la dizaine de trillions de données (environ 10 trillions pour GPT-4 et 16 trillions pour Gemini) et aux alentours de trois mois de préapprentissage sur environ 20 000 puces A100 de NVIDIA pour le dernier-né d’OpenAI. Ces modèles les plus performants sont en fait une combinaison de plusieurs énormes modèles (les « Mixture of Experts »), GPT-4 étant ainsi le résultat de 16 experts de 110 milliards de paramètres, selon les rares informations disponibles.

      Après cette phase d’apprentissage, le modèle est déployé afin de répondre aux utilisateurs dans une phase dite d’« inférence ». Pour faire face à la demande (ces systèmes construits pour répondre à plusieurs personnes en même temps) avec un temps de réponse satisfaisant, le modèle est alors dupliqué sur différents clusters de calcul. Un article de recherche constate également que les architectures génératives polyvalentes consomment significativement plus d’énergie à l’inférence que les systèmes spécifiques à une tâche, même à taille de modèle équivalente.

      Ce survol des besoins en termes de calcul donne une idée des ordres de grandeur qui se cachent derrière nos interactions — qui semblent si rapides et efficaces — avec ces énormes modèles. Il permet surtout de poser différemment la question de l’évaluation de ces modèles, en y incluant la question de la soutenabilité en termes énergétiques et écologiques. Des travaux récents proposent ainsi un modèle pour évaluer les impacts environnementaux de la fabrication des cartes graphiques et une analyse multicritère des phases d’entraînement et d’inférence des modèles d’apprentissage automatique.
      Obsolescence et frugalité

      Ainsi les grands modèles génératifs nécessitent des infrastructures matérielles colossales.

      Au-delà de considérations économiques, il a été montré que passé un certain point, les gains de performances ne justifient pas une telle explosion du nombre de paramètres. Toutes les applications ne nécessitent pas d’énormes modèles et des approches plus modestes peuvent être aussi performantes, plus rapides et moins coûteuses.

      Sur le plan environnemental, l’apprentissage et l’inférence de modèles massifs ont un coût énergétique qui nécessitent réflexion. Les travaux de certains auteurs soulignent la complexité de mesurer avec précision l’empreinte carbone de ces grands modèles, tout en montrant leur impact considérable : 50,5 tonnes équivalent CO2 (CO2 eq) pour un modèle de 176 milliards de paramètres, appris en 2023… et pratiquement considéré comme obsolète aujourd’hui. Pour rappel, si un Français moyen rejette actuellement environ 10 tonnes CO2 eq par an, l’objectif à l’horizon 2050 pour respecter l’engagement des accords de Paris est d’environ 2 tonnes CO₂ eq par Français et par an.

      Quant à la phase d’inférence (ou d’utilisation, quand on pose une question à GPT), lorsqu’elle est réalisée des millions de fois par jour, comme c’est le cas pour un assistant conversationnel, elle peut engendrer un coût énergétique considérable, parfois bien supérieur à celui de l’entraînement.

      Ainsi, un outil développé en 2019 a permis d’estimer qu’une inférence de ChatGPT 3.5 produisait environ 4,32 grammes de CO2.

      À l’heure où les assistants conversationnels sont peut-être en passe de remplacer les moteurs de recherche standards (Google, Bing, Qwant), la question de son utilisation se pose, car ces derniers ont un coût 10 à 20 fois moindre (0,2 gramme de CO2 la recherche, d’après Google).

      Enfin, la concentration de pouvoir entre quelques acteurs disposant des ressources nécessaires pour développer ces modèles — data centers, données, compétences — pose des problèmes scientifiques en limitant la diversité des recherches, mais aussi stratégiques et politiques.
      Les recherches en IA frugale

      La frugalité consiste à se fixer dès le départ une enveloppe de ressources (calcul, mémoire, données, énergie) et à concevoir des modèles capables de s’y adapter. L’idée n’est pas de sacrifier les performances, mais de privilégier la sobriété : optimiser chaque étape, du choix de l’architecture à la collecte des données, en passant par des méthodes d’apprentissage plus légères, afin de réduire l’empreinte environnementale, d’élargir l’accès à l’IA et de favoriser des applications réellement utiles.

      La recrudescence de travaux de recherche sur ce thème illustre la volonté de penser l’IA sous l’angle de la sobriété. Il s’agit ainsi de replacer la pertinence, l’impact sociétal et la soutenabilité au cœur de la recherche.

      Concrètement, de nombreuses pistes émergent. Sur le plan de l’apprentissage, il s’agit d’explorer des alternatives algorithmiques au paradigme actuel, hérité du milieu des années 1980 et qui n’a jamais été remis en question alors même que les quantités de données et la puissance de calcul n’ont plus rien à voir avec celles qui prévalaient aux débuts de ces modèles.

      Ainsi, au-delà des optimisations techniques, une réflexion méthodologique de fond s’impose, tant le contexte scientifique a évolué depuis les années 1980. Cette réflexion est au cœur, par exemple, du projet Sharp, financé par le programme France 2030. L’étude d’architectures plus compactes et spécialisées est également abordée avec le projet Adapting du même programme.

      Les mathématiques appliquées peuvent jouer un rôle clé en proposant des « représentations parcimonieuses », des méthodes de factorisation, ou en optimisant l’usage de données faiblement annotées.

      Ainsi, en travaillant avec des contraintes de ressources, ces recherches visent un développement en IA plus frugal et donc durable, ainsi que plus accessible, et indépendant de l’hyperconcentration du marché. Elles limitent les externalités négatives — environnementales, éthiques, économiques — liées à la course effrénée vers le gigantisme.

      Mais pour atteindre ces objectifs, il est aussi important d’avancer sur les critères et les méthodes d’évaluations en IA : avec le paradigme dominant actuel, la dimension de frugalité peine encore à s’imposer, que ce soit du côté de la recherche ou industriel. Il ne faut d’ailleurs pas confondre la récente explosion des outils de DeepSeek avec de la frugalité, les coûts en calcul et en données étant eux aussi extrêmement élevés, avec des méthodes probablement éthiquement répréhensibles.

      Ainsi, le monde académique doit mieux intégrer cette dimension afin d’améliorer la visibilité et la valorisation des travaux qui visent la frugalité.
      L’IA que nous développons est-elle vraiment utile ?

      La frugalité en IA n’est pas un simple concept, mais une nécessité face aux enjeux actuels. Les travaux récents sur son empreinte carbone illustrent l’urgence de repenser nos méthodes. Avant même d’envisager les manières de rendre l’IA plus sobre, il est légitime de se demander si l’IA que nous développons est vraiment utile.

      Une approche plus frugale, mieux pensée et mieux orientée, permettra de construire une IA tournée vers le bien commun, s’appuyant sur des ressources maîtrisées, plutôt que sur la surenchère permanente en taille et en puissance de calcul.

      Cet article a été écrit dans le cadre de la troisième édition des Dauphine Digital Days qui a eu lieu à l’Université Paris Dauphine — PSL, du 18 au 20 novembre 2024.

      https://theconversation.com/pourquoi-lia-generative-consomme-t-elle-tant-denergie-247406

    • IA : un puits sans fond de dépenses en énergie, en #eau et en #CO2

      Emmanuel Macron veut croire que la France a « des #data_centers_propres ». Mais les dégâts environnementaux des industries numériques sont déjà tangibles (consommation d’#électricité, émissions de CO2, besoins en eau et en #minerais, conflits d’usage sur le #foncier) alors que l’idée d’une #IA_verte n’est encore qu’une promesse.

      Si le climat était une intelligence artificielle (IA), le monde serait en train de le sauver. Face au tsunami d’investissements publics et privés programmés pour ses infrastructures, il est tentant de détourner le fameux slogan : « Si le climat était une banque, ils l’auraient déjà sauvé. » Car si ces annonces financières brillent de l’or des profits à venir, elles éclipsent un problème tout aussi exponentiel : les impacts environnementaux désastreux de l’IA.

      109 milliards d’euros en France dans les prochaines années annoncés par Emmanuel Macron, ainsi qu’un projet de méga data center cofinancé par les #Emirats_arabes_unis ; 500 milliards de dollars débloqués pour #Stargate (« la porte des étoiles ») et ses futurs data centers aux États-Unis par #OpenAI et #SoftBank ; 65 milliards de dollars par #Meta, la maison-mère de #Facebook, qui a par ailleurs démoli un centre de données en cours de construction pour le remplacer par un autre adapté aux besoins de l’IA. #Microsoft veut débourser 80 milliards de dollars en divers équipements techniques dans le même objectif.

      Secteur industriel en plein boom ou au bord d’une bulle financière, l’avenir le dira. Mais l’#empreinte_carbone et matérielle de la ruée mondiale vers les #données_numériques est, elle, déjà palpable. Une requête via #ChatGPT consomme dix fois plus d’électricité qu’une recherche Google, selon l’Agence internationale de l’énergie (AIE). Ses expert·es anticipent une explosion de la demande énergétique, équivalente à la consommation actuelle d’un pays comme la Suède ou même l’Allemagne – selon la place du curseur sur la fourchette d’estimation.

      Requêtes énergivores

      Pourquoi ? Deux explications principales semblent faire consensus parmi les spécialistes. D’abord, des raisons strictement matérielles : les #serveurs configurés pour l’#IA_générative utilisent beaucoup plus de courant électrique que leurs prédécesseurs. Notamment parce qu’ils utilisent des puces spécifiques, les #GPU (« # graphics_processing_unit », des #processeurs_graphiques), « qui ont des capacités de #calcul nécessaires à la #technologie d’apprentissage qui permet aux modèles d’IA d’améliorer leur performance, explique Loup Cellard, chercheur associé au médialab de Sciences Po. Une requête sur ChatGPT demande plus de mémoire vive et plus de capacité de #stockage qu’une simple recherche sur un moteur internet ».

      Or, chacun de ces services correspond à des besoins matériels supplémentaires. « Faire une requête ChatGPT pour demander un truc que pourrait donner Google, c’est comme couper votre baguette de pain avec une scie électrique : ça marche mais ça n’est pas la meilleure utilisation que vous pouvez faire des ressources », résume Sylvain Waserman, président de l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), selon qui « il serait absurde de s’opposer à l’IA et il est irresponsable de ne pas s’intéresser à ses impacts ».

      La phase d’entraînement des machines est plus intense en énergie à l’unité, car elles doivent être beaucoup stimulées pour ramasser et distribuer les données. Mais c’est bien sûr celle des usages qui finalement est la plus énergivore, car le nombre des utilisateurs de la technologie dépasse de loin celui des ingénieur·es qui la développent.

      Ainsi « la migration vers le cloud, l’essor de l’IA générative et les #cryptomonnaies sont les trois principaux vecteurs de la reconfiguration en cours des impacts des centres informatiques » selon l’association GreenIT, dont les rapports font référence. Les data centers, les cryptomonnaies et l’intelligence artificielle ont consommé près de 2 % de l’électricité mondiale en 2022, selon l’AIE. Cela peut sembler dérisoire. Mais la quantité d’électricité qu’ils consomment pourrait doubler en 2026 (par rapport à 2022). Il existe aujourd’hui plus de 8 000 centres de données dans le monde, principalement situés aux États-Unis.

      Les data centers adaptés aux besoins de l’intelligence artificielle consomment 18 % de l’électricité des centres informatiques, alors qu’ils n’en représentent que 2 % de la quantité dans le monde, selon les dernières estimations de GreenIT. Ils émettent près de 4 % de tout le CO2 de la filière numérique, soit déjà plus que l’ensemble des ordinateurs portables en circulation. Selon #France_Datacenter, le lobby du secteur, la demande supplémentaire liée à l’IA générative en France d’ici à dix ans sera de 1 gigawatt, l’équivalent d’un petit réacteur nucléaire.

      Mais les opérateurs de data centers n’aiment pas trop aborder le sujet de leurs impacts environnementaux. Interrogé par Mediapart sur ses besoins en électricité pour soutenir le développement de son activité, #Amazon_Web_Service (#AWS), la branche data center du Gafam, répond par la liste très détaillée de ses investissements et créations d’emplois à venir, sans un mot sur ses besoins énergétiques.

      « Avec l’IA, on pourrait changer d’échelle d’ici à 2030 en termes d’impact environnemental car ses serveurs ne représentent que 2 % des équipements et la demande est très importante pour les années à venir, constate Cécile Diguet, spécialiste des infrastructures numériques. Aujourd’hui, le numérique est un des secteurs qui nous mettent dans le rouge quant au respect des limites planétaires : consommation d’énergie, de ressources en minerais et terres rares, en eau. Les technologies et le numérique prétendent régler des problèmes qu’ils aggravent. Grâce à une IA, on pourra peut-être traiter une base de données plus vite ou mieux gérer la complexité de réseaux d’électricité. Mais en définitive, l’accumulation perpétuelle de matériels et de data centers fait que tous les gains en énergie sont consommés derrière. Le numérique n’est pas source de sobriété. »

      C’est particulièrement vrai concernant les quantités de minerais utilisés pour fabriquer les équipements (centres de données mais aussi puces et autres composants) nécessaires à l’IA – et les déchets en résultant. Ils sont la « colonne vertébrale » de l’intelligence artificielle, selon la chercheuse états-unienne Kate Crawford, qui appelle à créer un nouvel atlas du monde pour visualiser les besoins matériels, financiers et politiques de l’IA, qu’elle décrit comme un système « extractiviste » (Contre-Atlas de l’intelligence artificielle, Zulma, 2024).

      En Chine, l’institut de recherche sur le réseau électrique s’attend à ce que la demande en électricité des centres de données double d’ici à 2030 (par rapport à 2020). Cette consommation est dopée par l’expansion rapide de la 5G et de l’Internet des objets. Le concurrent chinois de ChatGPT, #DeepSeek, a été développé à moindre coût économique et avec moins de consommation énergétique, promettent ses fabricants. Mais personne n’est aujourd’hui en mesure de le vérifier.

      En Europe, le cas de l’#Irlande est spectaculaire : les data centers y représentent 17 % de toute la demande en électricité du pays. C’est autant que toute la consommation du résidentiel en ville. Si tous les projets de centres de données qui ont été approuvés sont menés à terme dans les prochaines années, ils utiliseraient 32 % de tout le courant électrique. Au #Danemark, qui mise aussi sur l’économie des data centers tout en soutenant une initiative européenne de réduction du CO2 du numérique, les centres de données pourraient avaler 20 % de l’électricité en 2026. Est-ce soutenable, alors que le Pacte vert européen fixe aux États l’objectif de réduire d’au moins 38 % leur consommation d’énergie finale d’ici à 2050 ? Pour la Commission européenne, la demande en électricité des data centers pourrait augmenter de 30 % dans l’Union entre 2018 et 2030.

      #Bilan_carbone désastreux

      Surtout que, malgré l’essor des énergies dites renouvelables dans le monde, les sources d’électricité du numérique restent globalement très émettrices en carbone. Apple et Google prétendent être neutres en impact climatique, mais c’est parce qu’ils achètent des crédits de compensation carbone, rappelle la chercheuse Kate Crawford. Elle cite l’exemple de la Chine, où l’industrie des centres de données tire à 73 % son électricité du charbon. En France, l’Ademe a dû revoir à la hausse l’empreinte carbone des data centers à 42 % du secteur du numérique, en intégrant les centres de données à l’étranger que font tourner les utilisateurs nationaux.

      En 2022, l’ensemble du secteur numérique a émis autant de CO2 que le secteur des poids lourds (un peu plus de 4 % de tous les rejets de carbone) dans l’Hexagone. Mais grâce à son électricité décarbonée, la France cherche à se positionner sur le marché des usines à données : « Les data centers en France, ce n’est pas comme aux États-Unis où on utilise du pétrole et du gaz. Ce sont des data centers propres », a prétendu Emmanuel Macron dimanche 9 février.

      Ainsi, entraîner le modèle #GPT3 de la firme OpenAI équivaudrait à conduire 112 voitures à essence pendant un an, selon des scientifiques cités dans AOC par les chercheurs Loup Cellard et Christine Parker. Ils y critiquent pourtant les méthodes d’évaluation des impacts de l’intelligence artificielle. Selon eux, les gains écologiques que permettrait « l’IA verte » sont surestimés et potentiels, alors que les impacts sont immédiats et réels. Les projets de récupération de chaleur pour chauffer une piscine, une résidence, une usine, un hôpital sont multiples et s’affrontent à des obstacles : niveau de température de sortie pas toujours assez haut, risque d’intermittence, etc. – voir aussi le rapport de l’ONG Beyond Fossil Fuels sur le sujet.

      « L’IA n’est pas une activité différente des autres, ajoute Loup Cellard. C’est une industrie capitaliste comme une autre, à laquelle se posent les mêmes questions de responsabilité environnementale, de calcul et de mise en visibilité de ses impacts. »

      À titre d’exemple, de nombreux opérateurs de data centers sont des #fonds_d’investissement_immobiliers (#Real_Estate_Investment_Trust, #Digital_Realty, #Equinix), comme le remarque l’Ademe. La multiplication de leurs constructions ainsi que l’augmentation de leur taille posent des problèmes d’#artificialisation et d’#urbanisme : quelle forme de villes annonce la multiplication des centres de données ? Qui a envie de vivre à côté d’un immeuble de serveurs et de ses stocks de fioul inflammable ? En France, un véritable cluster s’est développé à l’ouest de la #Seine-Saint-Denis (La Courneuve, Saint-Denis, Le Bourget, Dugny) et au nord de #Marseille.
      Parmi les effets déjà tangibles aujourd’hui : la consommation en #eau. Car les data centers doivent être refroidis. Plus ils grossissent et produisent de la chaleur, plus la quantité d’eau nécessaire à baisser leur température est importante. Cette question peut s’avérer critique en période de canicule, signale l’Ademe dans un avis de novembre dernier – en France, ses expert·es estiment qu’en fonction de leur système, ils peuvent consommer 2 litres d’eau par kilowattheure. Au prochain épisode de sécheresse, combien de personnes accepteront que leur data center continue d’être alimenté alors que leur eau potable est coupée ? Et qui décidera ?

      Ainsi #Thames_Water, principale compagnie britannique de distribution d’eau, a demandé aux opérateurs de data centers, notamment à #Google_Cloud et #Oracle, un plan de réduction de leur consommation, jugée excessive à l’été 2022 pendant un pic de chaleur. À Amsterdam, Microsoft a dû présenter un plan drastique de réduction de ses besoins en eau. Aux États-Unis, un des plus gros data centers en fonctionnement est celui de l’agence de renseignement NSA, qui s’étend sur plus de 100 000 mètres carrés dans l’Utah, une terre particulièrement exposée à la sécheresse. Il avale à lui tout seul plus de la moitié de la consommation de l’eau de l’État, autour de 60 %, selon une étude.

      Ouvrir le capot des IA ?

      Après avoir longtemps refusé de révéler la quantité de liquide absorbée par son data center, la NSA a finalement fait savoir en 2022 qu’il avait besoin de près de 90 millions de litres d’eau – soit 35 fois la piscine olympique de Paris 2024 – chaque mois. L’Utah mise sur l’industrie des centres de données et leur vend son eau à des prix battant toute concurrence. Les méga hangars à serveurs s’y multiplient – il y en a deux douzaines aujourd’hui. Mais le Grand Lac salé s’en ressent, selon les défenseurs de l’environnement qui s’inquiètent de le voir s’assécher. En novembre 2022, il a atteint son étiage le plus bas, au point de mettre en danger son écosystème, et notamment ses populations de crustacés, dont se nourrissent des millions d’oiseaux migrateurs.

      En France, l’Ademe estime que les data centers pourraient utiliser 6 % de l’électricité en 2050 – aujourd’hui, le numérique en dépense 11 %. Selon RTE, le gestionnaire des réseaux, les data centers en France pourraient tripler leur consommation d’électricité d’ici à 2035, passant d’environ 10 térawattheures aujourd’hui à 28, selon leur plus haute projection. Les demandes de raccordement de nouveaux centres de grande taille sont en très forte hausse depuis quatre à cinq ans, note l’Ademe, et dépassent de 8 gigawatts – soit plus de quatre réacteurs EPR.

      Son président, Sylvain Waserman, veut défendre la thèse « d’une IA française et européenne qui pourrait trouver un avantage concurrentiel en étant plus respectueuse des ressources ». Il estime que ce peut être une piste de différenciation face à des Gafam « qui jamais n’accepteront qu’on ouvre le capot pour étudier leur impact ».

      En attendant, le gouvernement vient de désigner 35 sites privilégiés pour y construire de nouveaux data centers : simplification des procédures administratives, possible dérogation aux obligations de débat public, réduction des délais de recours juridiques… Sans savoir si les industriels accepteront de communiquer sur leur empreinte énergétique, ils bénéficient d’ores et déjà d’une belle offre de dérégulation.

      https://www.mediapart.fr/journal/ecologie/100225/ia-un-puits-sans-fond-de-depenses-en-energie-en-eau-et-en-co2

    • #Antonio_Casilli : « L’intelligence artificielle est l’une des industries extractives de notre époque »

      Professeur de sociologie à Télécom Paris, à l’Institut Polytechnique de Paris, il est l’auteur d’En attendant les robots, enquête sur le travail du clic (Seuil, 2019), dont une version augmentée vient de paraître en anglais aux éditions University of Chicago Press. Antonio Casilli est aussi co-auteur du documentaire Les Sacrifiés de l’IA, qui se penche sur les conditions de production des technologies d’IA utilisées en Occident, et sera diffusé sur France 2 le 11 février.

      À cette occasion, et en parallèle du sommet pour l’action sur l’intelligence artificielle, Next l’a rencontré.

      (#paywall)

      https://next.ink/169487/antonio-casilli-lintelligence-artificielle-est-lune-des-industries-extractives

    • L’IA générative a le potentiel de détruire la planète (mais pas comme vous le pensez)

      Le risque premier avec l’intelligence artificielle n’est pas qu’elle s’attaque aux humains comme dans un scénario de science-fiction. Mais plutôt qu’elle participe à détruire notre #environnement en contribuant au #réchauffement_climatique.

      La course à l’intelligence artificielle (IA) s’intensifie. Le 9 février, veille du sommet de l’IA à Paris, Emmanuel Macron promettait 109 milliards d’euros d’investissements publics et privés dans cette technologie pour les années à venir. Il entend concurrencer les États-Unis sur ce terrain, en faisant référence au programme « #Stargate » promis par Donald Trump, qui prévoit des dépenses de 500 milliards de dollars (484 milliards d’euros) dans l’IA aux États-Unis.

      Des deux côtés de l’Atlantique, ces centaines de milliards seront principalement investis dans la construction de nouveaux centres de données pour entraîner puis faire fonctionner les outils d’intelligence artificielle. Pourtant, les impacts environnementaux de ces « data centers », mis de côté dans ce sprint à l’IA, présentent un danger réel pour notre planète.

      « Plus grand est le modèle, mieux c’est »

      L’ouverture au public de l’agent conversationnel d’OpenAI, ChatGPT, en novembre 2022 a marqué un tournant dans les usages de l’intelligence artificielle. Depuis, des dizaines d’IA génératives sont accessibles avec la capacité de résoudre des problèmes variés, allant de la rédaction d’un email professionnel à des suggestions de recette de tartes, en passant par des lignes de code informatique.

      Ces grands #modèles_de_langage (en anglais, « #Large_language_models », ou #LLM), avec un grand nombre de paramètres, se sont développés ces dernières années, comme #Gemini de #Google, #Le_Chat de l’entreprise française #MistralAI ou #Grok de #X. D’autres modèles permettent de créer de toutes pièces des images – on pense à #Dall-E ou #Midjourney –, des vidéos ou des chansons.

      Si leur utilisation est gratuite (bien que des versions payantes existent), le prix est payé non seulement par les utilisateurs dont les données personnelles sont captées, mais aussi par les populations les plus vulnérables au changement climatique. Avec leurs dizaines voire centaines de milliards de paramètres et des terabytes de données pour les alimenter, faire tourner les systèmes d’IA générative demande beaucoup de #puissance_de_calcul de #serveurs, situés dans des centres de données. Donc beaucoup d’#électricité.

      Ces chiffres ne font qu’augmenter à mesure que les modèles se perfectionnent. « Aujourd’hui, l’idée dominante dans l’industrie des modèles génératifs est : "Plus grand est le modèle, mieux c’est" », résument les chercheurs Paul Caillon et Alexandre Allauzen dans The Conversation. Malgré un manque de transparence des entreprises, la consommation d’électricité de leurs modèles et leur #impact_climatique ont fait l’objet d’estimations par nombre de chercheurs et institutions.

      Combien consomme une requête ChatGPT ?

      On sait déjà que la version de ChatGPT sortie en mars 2023, #GPT-4, a demandé plus de puissance de calcul que la précédente. Le Conseil économique et social (Cese), dans un avis de septembre 2024, cite OpenAI et explique : entraîner la troisième version de son modèle de langage a demandé l’équivalent de l’énergie consommée par 120 foyers américains. La version suivante a multiplié par 40 cette consommation, avoisinant la consommation de 5000 foyers.

      Selon une étude, début 2023, une requête ChatGPT consommait environ 2,9 Wh d’électricité, soit presque dix fois plus qu’une simple recherche Google (0,3 Wh). D’autres études estiment l’impact carbone d’une requête à ChatGPT autour de 4 à 5 grammes d’équivalent CO2.

      Produire une image, c’est pire. La startup #HuggingFace, à l’origine de l’IA #Bloom, a été l’une des premières à estimer les émissions de gaz à effet de serre de ces modèles. Dans une étude co-écrite avec l’Université états-unienne de Carnegie-Mellon, elle montre que la génération d’image est de loin la plus polluante des requêtes formulées à une IA générative (l’étude ne prend pas en compte les vidéos).

      Pour donner un ordre d’idée, générer 1000 images correspondrait à conduire environ 7 kilomètres avec une voiture essence. En comparaison, 1000 textes générés équivalent à moins d’un 1 mètre parcouru avec un même véhicule. Mais leur utilisation massive rend cet impact non négligeable. Selon le PDG d’OpenAI Sam Altman, à la fin de l’année 2024, plus d’un milliard de requêtes étaient envoyées à ChatGPT par jour.

      En janvier 2023, soit quelques mois après qu’elle a été rendue accessible au public, ChatGPT avait accumulé 100 millions d’utilisateurs. Selon une estimation de Data for Good, rien que ce mois-là, l’utilisation de ChatGPT aurait pollué à hauteur de 10 113 tonnes équivalent CO2 – soit environ 5700 allers-retours en avion entre Paris et New York.

      En décembre 2024, selon son PDG, le service avait atteint les 300 millions d’utilisateurs… par semaine. Et ce, avec une version bien plus performante – donc bien plus polluante – que la précédente.

      De plus en plus de personnes utilisent l’IA au quotidien, et pour de plus en plus de tâches. Installés dans nos smartphones, accessibles en ligne ou même intégrés dans les frigos haut de gamme, les outils d’intelligence artificielle sont presque partout.

      Une explosion de la consommation d’électricité

      Selon l’Agence internationale de l’énergie, les centres de données représenteraient aujourd’hui environ 1 % de la consommation d’électricité mondiale. Mais cette consommation risque d’augmenter avec les usages croissants et le développement de nouveaux modèles d’IA. Selon l’agence, la consommation des centres de données pour l’IA et les cryptomonnaies a dépassé 460 TWh en 2022. C’est autant que la consommation de la France. D’ici l’année prochaine, selon les scénarios, cette demande en électricité pourrait augmenter de 35 % (160 TWh en plus) à 130 % (590 TWh) ! « Soit l’équivalent d’au moins une Suède et au maximum une Allemagne » de plus dans le monde en quelques années.

      Une autre étude de l’ONG Beyond Fossils Fuels est encore plus alarmiste : « Au cours des six prochaines années, l’explosion de la demande en énergie des centres de données dans l’UE [Union européenne] pourrait entraîner une hausse de 121 millions de tonnes des émissions de CO2, soit presque l’équivalent des émissions totales de toutes les centrales électriques au gaz d’Italie, d’Allemagne et du Royaume-Uni en 2024 combinées » écrit l’ONG en février 2025.

      Les grandes entreprises de la tech cherchent à faire oublier leurs promesses écologiques. Selon le Financial Times, dans un article d’août 2024, les Gafam tentent de remettre en cause les règles de « zéro carbone net » qui leur permettent de compenser leurs émissions de CO2 par le financement d’énergies renouvelables (des règles déjà critiquées pour leur mode de calcul qui dissimule une grande partie de l’impact carbone réel de leurs consommation d’électricité).

      « Ces géants de la technologie sont sur le point de devenir les plus gros consommateurs d’énergie de demain, dans leur course au développement d’une intelligence artificielle énergivore », écrit le média britannique. Les émissions de gaz à effet de serre de Google augmentent par exemple de 13% par an (selon des chiffres de 2023). Une hausse notamment portée par l’augmentation de la consommation d’énergie de ses centres de données. Les émissions de #Microsoft ont bondi de 29 % entre 2020 et 2023.

      Des investissements massifs aux dépens des populations

      Les chefs d’État des États-Unis comme de la France ont pourtant annoncé des investissements massifs dans l’IA pour les années à venir. L’Union européenne, par la voix d’Ursula von der Leyen, a également annoncé un investissement de 200 milliards en partenariat avec de grands groupes.

      Dans les trois cas, ces centaines de milliards d’euros sur la table serviront majoritairement à construire des centres de données pour permettre l’entraînement puis l’utilisation de ces technologies. En France, en amont du sommet de l’IA, le fonds canadien Brookfield a annoncé investir 15 milliards d’euros dans la construction de centres de données, tandis que les Émirats arabes unis ont mis entre 30 et 50 milliards sur la table pour la construction d’un centre de données géant.

      Il est peu probable que cette consommation d’électricité massive ne se fasse pas au détriment des populations. En Irlande, les centres de données monopolisent une part grandissante de l’électricité du pays, ils représentent aujourd’hui plus de 20 % de sa consommation. Cette situation crée des tensions avec les habitants, qui voient leurs factures augmenter alors que la consommation des ménages n’augmente pas.
      Des engagements « durables » non contraignants

      Aux États-Unis, raconte un article de Vert, Microsoft va rouvrir le premier réacteur de la centrale nucléaire de Three Mile Island, site d’un accident en 1979 qui avait irradié toute cette partie de la Pennsylvanie et traumatisé les habitants. Les géants de la Tech – Google, Amazon et Microsoft en tête – cherchent également à investir dans les « petits réacteurs modulaires » nucléaires, en cours de développement, pour alimenter leurs centres de données, ce qui pose la question de la sûreté d’une multitude de petites installations nucléaires face au risque d’accidents. Autre conséquence : le retour en grâce du charbon, fortement émetteur en gaz à effet de serre. Dans l’État de Géorgie, la promesse faite il y a trois ans de fermer toutes ses centrales à charbon a été abandonnée pour répondre au pic de demande d’électricité créé par les centres de données.

      Face à ces risques pour les populations locales comme pour celles les plus vulnérables au changement climatique dans le monde entier, les actions semblent faibles. Une déclaration d’intention a été signée à l’issue du sommet de l’IA, notamment avec l’Inde et la Chine. Il prévoit entre autres la création d’un observatoire de l’impact énergétique de l’IA, sous la responsabilité de l’Agence internationale de l’énergie. Il planifie également la création d’une « coalition pour l’IA durable » avec de grandes entreprises du secteur.

      Ces engagements en matière d’intelligence artificielle signés par les États et les entreprises présentes ne sont pas contraignants, et ne sont pas tournés vers l’action immédiate. De plus, ni le Royaume-Uni ni les États-Unis, qui concentre un tiers des centres de données du monde, n’ont signé ce texte.

      https://basta.media/l-ia-generative-a-le-potentiel-de-detruire-la-planete-mais-pas-comme-vous-l

      #schéma #visualisation #comparaison

    • Comment l’intelligence artificielle et ses data centers s’accaparent l’eau

      La consommation d’eau de l’intelligence artificielle est souvent oubliée des discussions sur l’impact de cette technologie. Pourtant, les centres de données consomment chaque année des milliards de mètres cubes d’eau – et cela risque d’empirer.

      Google a soif. En 2023, les centres de données et les bureaux de la multinationale du numérique ont à eux seuls englouti 24 milliards de litres d’eau – dont la grande majorité utilisée par les data centers. C’est l’équivalent de la consommation d’eau annuelle d’environ 453 000 Français. La question des besoins en eau est l’un des grands enjeux environnementaux du numérique. Il est amplifié par le développement rapide et incontrôlé de l’intelligence artificielle (IA).

      Chaque année, les grandes entreprises de la tech augmentent de dizaines de pourcents leur consommation d’eau. Entre 2021 et 2022, Microsoft a accru de 34 % la quantité d’eau utilisée pour ses activités, et Google de 20 %. Cela représente des milliards de litres d’eau, en grande partie potable, prélevés en plus chaque année. La course au développement d’intelligences artificielles toujours plus performantes – et donc toujours plus polluantes – participe à cette augmentation. Rien que l’entraînement de GPT-3 (la version en usage jusqu’à mars 2023 du robot conversationnel d’OpenAI) aurait consommé 700 000 litres d’eau dans les centres de données de Microsoft basés aux États-Unis.
      Des centres de données géants dans des régions en proie à la sécheresse

      Les ressources en eau globales sont déjà mises en danger par le réchauffement climatique. De nombreuses régions du monde sont en stress hydrique : l’accès à l’eau y est limité, si ce n’est difficile. Selon des estimations de chercheurs, partagées par The Washington Post, un grand centre de données – comme ceux des Gafam – peut consommer entre 3,8 et 19 millions de litres d’eau par jour.

      Ces millions de litres sont utilisés pour produire l’électricité qui les alimente, mais aussi, pour environ un quart, directement pour le refroidissement des serveurs de ces centres de données. Si cela représente encore une faible partie de la consommation d’eau à l’échelle mondiale, les conséquences locales se font souvent déjà sentir. Le journal américain cite l’exemple de la commune de The Dalles, dans l’Oregon, où Google s’accapare plus d’un quart de l’eau de la petite ville.

      Le refroidissement par l’eau est brandi comme argument écologique par les grandes entreprises. Google, par exemple, s’est vanté d’avoir réduit son empreinte carbone de 300 000 tonnes de CO2 en 2021 grâce à des centres de données refroidis par de l’eau plutôt qu’avec de l’air conditionné. Malgré ses promesses de plus grande responsabilité écologique, deux ans plus tard encore, plus de 30 % de l’eau utilisée venait de zones où les risques de pénurie d’eau sont considérés comme moyens ou élevés.

      En Espagne, à une centaine de kilomètres de Madrid, la ville de Talavera de la Reina s’apprête à accueillir un centre de données de 191 hectares, propriété de Meta (la maison-mère de Facebook et Instagram). Depuis 2022, une trentaine de projets similaires ont été lancés dans le pays, rapporte le média indépendant espagnol elDiario.es. Dans la région de l’Aragón, « la situation est grave : 146 000 hectares ne peuvent être cultivés et 175 000 autres sont gravement endommagés par le manque d’eau ». C’est pourtant là qu’Amazon a décidé d’investir 15,7 milliards d’euros pour installer ses centres de données « hyperscale », autrement dit de très grande taille.
      « 4,2 à 6,6 milliards de mètres cubes d’eau en 2027 »

      Amazon tente de montrer patte blanche, promettant un approvisionnement électrique provenant à 100 % d’énergies renouvelables, mais des mouvements écologistes s’opposent vivement à ce projet. « Nous refusons le discours selon lequel cette méga-infrastructure serait bénigne pour les territoires, bien au contraire. Les dégâts écologiques et sociaux causés par le déploiement massif de centres de données peuvent déjà être observés dans d’autres territoires tels que la Virginie (États-Unis), le Mexique, l’Irlande et les Pays-Bas », écrit Tu Nube Seca Mi Río (« Ton nuage assèche ma rivière »).

      « La consommation directe d’eau pour le refroidissement représentera la moitié de la consommation totale d’eau de la ville de Saragosse (plus de 300 000 personnes et ses commerces et entreprises) et aurait permis d’irriguer 170 hectares de terres, [et ce,] si les chiffres avancés par projet sont respectés, ce qui semble fort peu probable. » Le collectif, qui agrège plusieurs associations écologistes espagnoles, dénonce les conséquences multiples qu’auront ces data centers pour l’accès à l’eau dans la région, tant pour l’agriculture, pour les populations que dans la lutte contre les incendies, de plus en plus fréquents. Tu Nube Seca Mi Río alerte aussi sur le danger pour la faune locale.

      Ce risque n’est pas présent qu’à l’étranger. En France, à Marseille, le collectif Le nuage était sous nos pieds – composé notamment de la Quadrature du Net – dénonce « la quasi-absence des enjeux environnementaux et territoriaux des infrastructures du numérique dans le débat public », entre autres quand il est question de la construction de nouveaux data centers. « Le méga-ordinateur surchauffe, renvoie l’air ou l’eau chaude dans une ville déjà trop souvent sujette à la canicule, pompe des quantités astronomiques d’eau et d’électricité sur le réseau public, et ne génère pratiquement aucun emploi direct », résument-ils, face à un nouveau projet de l’entreprise Digital Realty dans la ville.

      Le développement et la massification de l’utilisation de l’intelligence artificielle entraînent les entreprises dans une course effrénée à la construction de centres de données, sans considérer les conséquences écologiques et sociales. Selon une étude menée par des chercheurs et chercheuses de l’Université de Cornell, aux États-Unis, en 2023, « la demande mondiale en IA devrait représenter 4,2 à 6,6 milliards de mètres cubes d’eau en 2027, soit plus que le prélèvement annuel total d’eau de quatre à six Danemark ou de la moitié du Royaume-Uni ».

      https://basta.media/comment-intelligence-artificielle-IA-data-centers-gafam-s-accaparent-eau

    • Big tech’s water-guzzling data centers are draining some of the world’s driest regions

      #Amazon, #Google, and #Microsoft are expanding data centers in areas already struggling with drought, raising concerns about their use of local water supplies for cooling massive server farms.

      In short:

      - The three largest cloud companies are building or operating 62 data centers in regions facing water scarcity, including in Spain, #Arizona, and other drought-prone areas across five continents.
      - Amazon’s new centers in Spain’s #Aragon region are licensed to use enough water to irrigate hundreds of acres of farmland annually, and the company has requested a 48% increase in water for its existing sites.
      – Tech firms promise to become “water positive” by 2030, but experts and even internal critics say offsetting water use elsewhere doesn’t solve shortages in the communities where centers operate.

      Key quote:

      “Neither people nor data can live without water. But human life is essential and data isn’t.”

      — Aurora Gómez, Tu Nube Seca Mi Río

      Why this matters:

      Data centers are the invisible engines of the internet — processing everything from emails to AI, video calls to cloud storage — but they come with a physical footprint. That footprint includes massive energy use and a surprising dependence on fresh water to keep machines cool. In places where droughts are worsening with climate change, the demands of these centers are clashing with local needs for drinking water and agriculture. Some of these regions are already edging toward desertification, and water-intensive industries like tech may tip them further. Critics worry that promises of sustainability are greenwashing efforts that mask the environmental costs of maintaining digital infrastructure.

      https://www.dailyclimate.org/big-techs-water-guzzling-data-centers-are-draining-some-of-the-worlds-
      #Espagne

    • Big tech’s new datacentres will take water from the world’s driest areas

      Amazon, Google and Microsoft are building datacentres in water-scarce parts of five continents
      Luke Barratt, Costanza Gambarini and data graphics by Andrew Witherspoon and Aliya Uteuova
      Wed 9 Apr 2025 13.30 CEST
      Last modified on Wed 9 Apr 2025 17.40 CEST

      Amazon, Microsoft and Google are operating datacentres that use vast amounts of water in some of the world’s driest areas and are building many more, the non-profit investigatory organisation SourceMaterial and the Guardian have found.

      With Donald Trump pledging to support them, the three technology giants are planning hundreds of datacentres in the US and across the globe, with a potentially huge impact on populations already living with water scarcity.

      “The question of water is going to become crucial,” said Lorena Jaume-Palasí, founder of the Ethical Tech Society. “Resilience from a resource perspective is going to be very difficult for those communities.”

      Efforts by Amazon, the world’s largest online retailer, to mitigate its water use have sparked opposition from inside the company, SourceMaterial’s investigation found, with one of its own sustainability experts warning that its plans are “not ethical”.

      In response to questions from SourceMaterial and the Guardian, spokespeople for Amazon and Google defended their developments, saying they always take water scarcity into account. Microsoft declined to provide a comment.

      Datacentres, vast warehouses containing networked servers used for the remote storage and processing of data, as well as by information technology companies to train AI models such as ChatGPT, use water for cooling. SourceMaterial’s analysis identified 38 active datacentres owned by the big three tech firms in parts of the world already facing water scarcity, as well as 24 more under development.

      https://www.theguardian.com/environment/2025/apr/09/big-tech-datacentres-water

      Datacentres’ locations are often industry secrets. But by using local news reports and industry sources Baxtel and Data Center Map, SourceMaterial compiled a map of 632 datacentres – either active or under development – owned by Amazon, Microsoft and Google.

      It shows that those companies’ plans involve a 78% increase in the number of datacentres they own worldwide as cloud computing and AI cause a surge in the world’s demand for storage, with construction planned in North America, South America, Europe, Asia, Africa and Australia.

      In parts of the world where water is plentiful, datacentres’ high water usage is less problematic, but in 2023 Microsoft said that 42% of its water came from “areas with water stress”, while Google said 15% of its water consumption was in areas with “high water scarcity”. Amazon did not report a figure.

      Now these companies plan to expand their activities in some of the world’s most arid regions, SourceMaterial and the Guardian’s analysis found.

      “It’s no coincidence they are building in dry areas,” as datacentres have to be built inland, where low humidity reduces the risk of metal corrosion, while seawater also causes corrosion if used for cooling, Jaume-Palasí said.
      ‘Your cloud is drying my river’

      Amazon’s three proposed new datacentres in the Aragon region of northern Spain – each next to an existing Amazon datacentre – are licensed to use an estimated 755,720 cubic metres of water a year, roughly enough to irrigate 233 hectares (576 acres) of corn, one of the region’s main crops.

      In practice, the water usage will be even higher as that figure doesn’t take into account water used to generate the electricity that will power the new installations, said Aaron Wemhoff, an energy efficiency specialist at Villanova University in Pennsylvania.

      Between them, Amazon’s new datacentres in the Aragon region are predicted to use more electricity than the entire region currently consumes. Meanwhile, Amazon in December asked the regional government for permission to increase water consumption at its three existing datacentres by 48%.

      Opponents have accused the company of being undemocratic by trying to rush through its application over the Christmas period. More water is needed because “climate change will lead to an increase in global temperatures and the frequency of extreme weather events, including heat waves”, Amazon wrote in its application.

      “They’re using too much water. They’re using too much energy,” said Aurora Gómez of the campaign group Tu Nube Seca Mi Río – Spanish for “Your cloud is drying my river” – which has called for a moratorium on new datacentres in Spain due to water scarcity.

      Spain has seen rising numbers of heat-related deaths in extreme weather events linked by scientists to the climate crisis. Last month, Aragon’s government asked for EU aid to tackle its drought.

      Farmer Chechu Sánchez said he’s worried the datacentres will use up water he needs for his crops.

      “These datacentres use water that comes from northern Aragon, where I am,” he said. “They consume water – where do they take it from? They take it from you, of course.”

      With 75% of the country already at risk of desertification, the combination of the climate crisis and datacentre expansion is “bringing Spain to the verge of ecological collapse”, Jaume-Palasí said.

      Asked about the decision to approve more datacentres, a spokesperson for the Aragonese government said they would not compromise the region’s water resources because their impact is “imperceptible”.
      Water offsetting

      Amazon does not provide overall figures for the water its datacentres use worldwide. But it does claim that it will be “water positive” by 2030, offsetting its consumption by providing water to communities and ecosystems in areas of scarcity elsewhere.

      Amazon says it is currently offsetting 41% of its water usage in areas it deems unsustainable. But it’s an approach that has already caused controversy inside the company.

      “I raised the issue in all the right places that this is not ethical,” said Nathan Wangusi, a former water sustainability manager at Amazon. “I disagreed quite a lot with that principle coming from a pure sustainability background.”

      Microsoft and Google have also pledged to become “water positive” by 2030 through water offsetting, as well as finding ways to use water more efficiently.

      Water offsetting ca not work in the same way as carbon offsetting, where a tonne of pollutants removed from the atmosphere can cancel out a tonne emitted elsewhere, said Wemhoff, the Villanova University specialist. Improving access to water in one area does nothing to help the community that has lost access to it far away.

      “Carbon is a global problem – water is more localised,” he said.

      Amazon should pursue water accessibility projects “because it’s the right thing to do”, not to offset the company’s usage and make claims about being “water positive”, Wangusi said.

      In March, Amazon announced that it would use AI to help farmers in Aragon use water more efficiently.

      But that is “a deliberate strategy of obfuscation” that distracts from the company’s request to raise water consumption, said Gómez, the campaigner.

      Amazon said its approach shouldn’t be described as offsetting because the projects are in communities where the company operates.

      “We know that water is a precious resource, and we’re committed to doing our part to help solve this challenge,” said Harry Staight, an Amazon spokesperson. “It’s important to remember many of our facilities do not require the ongoing use of water to cool operations.”
      ‘Extreme drought’

      Amazon is by far the biggest owner of datacentres in the world by dint of its Amazon Web Services cloud division, but Google and Microsoft are catching up.

      In the US, which boasts the largest number of datacentres in the world, Google is the most likely to build in dry areas, SourceMaterial’s data shows. It has seven active datacentres in parts of the US facing water scarcity and is building six more.

      “We have to be very, very protective around the growth of large water users,” said Jenn Duff, a council member in Mesa, Arizona, a fast-growing datacentre hub. In January, Meta, the owner of Facebook, WhatsApp and Instagram, opened a $1bn datacentre in the city, and Google is developing two more.

      The surrounding Maricopa county, where Microsoft also has two active datacentres, is facing “extreme drought”, according to the National Oceanic and Atmospheric Administration. In June 2023, Arizona state officials revoked construction permits for some new homes there due to a lack of groundwater.

      Drought has not halted Google’s plans for a second Mesa datacentre, while its first centre has a permit to use 5.5m cubic metres of water a year – about the same quantity used by 23,000 ordinary Arizonans.

      “Is the increase in tax revenue and the relatively paltry number of jobs worth the water?” said Kathryn Sorensen, an Arizona State University professor and a former director of Mesa’s water department. “It is incumbent on city councils to think very carefully and examine the trade-offs.”

      Google said it won’t use the full amount of water in its Mesa permit as it plans to use an air cooling system.

      “Cooling systems are a hyperlocal decision – informed by our data-driven strategy called ‘climate-conscious cooling’ that balances the availability of carbon-free energy and responsibly sourced water to minimise climate impact both today and in the future,” said Google spokesperson Chris Mussett.
      Stargate

      In January at the White House, Trump announced “Project Stargate”, which he called “the largest AI infrastructure project in history”.

      Starting in Texas, the $500bn joint venture between OpenAI, the American software company Oracle, Japan-based SoftBank and Emirati investment firm MGX will finance datacentres across the US.

      The day before the Stargate announcement, Trump’s inauguration date, the Chinese company DeepSeek launched its own AI model, claiming it had used far less computing power – and therefore less water – than its western rivals.

      More recently, Bloomberg has reported that Microsoft is pulling back on some of its plans for new datacentres around the world. Microsoft has also published plans for a “zero water” datacentre, and Google has said it will incorporate air cooling to reduce water use – though it isn’t yet clear how its systems will work.

      “I’ll believe it when I see it,” said Jaume-Palasí. “Most datacentres right now are going from air cooling to water cooling because liquid is more efficient when you try to cool down high-density racks, which are the ones that are mostly being used for AI.”

      And while the Trump administration has pledged to fast-track new energy projects to power these new datacentres, it has so far said nothing about the water they could use up.

      “Neither people nor data can live without water,” said Gómez. “But human life is essential and data isn’t.”

  • Croazia, il fiume Una è salvo
    https://www.balcanicaucaso.org/aree/Croazia/Croazia-il-fiume-Una-e-salvo-233086

    È vittoria per il fiume Una: un gruppo di cittadini e attivisti, supportati da personalità del mondo dello spettacolo e organizzazioni internazionali come Riverwatch, è riuscito a far sospendere i lavori di costruzione di una centrale idroelettrica. Il fiume è salvo, almeno per ora

  • Les sombres secrets des cartes en #Suisse

    Cartes secrètes, interdictions de vente et retouches : plusieurs mesures ont été prises dans le domaine de la cartographie suisse pour protéger les #secrets_militaires.

    L’Armée suisse a toujours protégé ses installations les plus importantes des regards indiscrets : dépôts de munition dissimulés dans des parois rocheuses, positions d’artillerie camouflées en chalets, usines d’armement entourées de forêts denses et aérodromes militaires encerclés de barbelés.

    Cette discrétion a conduit à des objectifs contradictoires en matière de cartographie : les cartes topographiques censées reproduire la surface de la Terre aussi fidèlement que possible ne devaient toutefois pas trahir les secrets militaires. Au fil des décennies, l’Office fédéral de topographie (aujourd’hui swisstopo) ne cessa d’inventer des moyens de résoudre ce dilemme.

    Deux cartogra­phies, l’une officielle et l’autre secrète

    La production cartographique officielle de la Suisse se scinda en deux dès la fin du XIXe siècle : une section publique et une section secrète. D’un côté, l’Office fédéral de topographie établit la cartographie officiellement en vigueur à ce moment-là, la carte Siegfried, à l’échelle 1:50’000 pour l’espace alpin et 1:25’000 pour le reste du pays. Ces cartes étaient en vente libre.

    De l’autre côté, le Département militaire fédéral (DMF) élabora des cartes à l’échelle 1:10’000 strictement confidentielles répertoriant les fortifications militaires de 1888 à 1952. Contrairement à la carte Siegfried, elles ne couvraient pas l’ensemble du pays, mais se limitaient aux endroits stratégiques comme la région du Gothard ou le Coude du Rhône. L’armée positionnée au sein de ces fortifications militaires avait rapidement besoin de ces cartes, car l’échelle 1:10’000 était indispensable pour calculer avec précision les trajectoires des tirs d’artillerie.

    Pendant la Première Guerre mondiale, la situation hautement dangereuse conduisit le Département militaire à ne plus délivrer la carte Siegfried, auparavant en libre accès, que sur présentation d’une autorisation spéciale, l’objectif étant de compliquer l’accès des espions étrangers aux cartes suisses récentes. Si les restrictions de vente furent levées en 1919, elles réapparurent 20 ans plus tard sous une forme encore plus stricte.

    Peu après le début de la Seconde Guerre mondiale en septembre 1939, le commandant en chef de l’Armée suisse Henri Guisan constata « que certains manifestaient un intérêt pour les cartes suisses qu’il convenait de surveiller ». Cette observation ne tombait pas du ciel : l’état-major suisse avait déjà soupçonné la Wehrmacht en mai 1939 de commander des cartes suisses via une adresse de couverture à Berlin.

    Henri Guisan s’inquiétait par ailleurs du fait que les réserves de cartes suisses « ne suffisent pas pour répondre aux besoins exceptionnels de réapprovisionnement, ni même pour fournir un second lot de nouvelles cartes aux états-majors et unités autorisés. » Pas de guerre possible sans connaissance du terrain : toute carte disponible devait donc être réquisitionnée et remise à l’armée au nom d’une stratégie défensive.

    En octobre 1939, le Conseil fédéral réagit à la pénurie de cartes et au problème de la confidentialité en interdisant la vente et l’exportation des cartes de la Suisse à l’échelle 1:1’000’000 ou supérieure. La reproduction d’informations cartographiques fut également interdite dans les livres, les journaux et même sur les cartes postales. Ces mesures, qui revenaient à une opération de grande envergure de censure des cartes, ne furent levées qu’à l’été 1945, à la fin de la guerre.

    Des données classées secrètes pendant la Guerre froide

    La stratégie de traitement des données spatiales sensibles changea après la Seconde Guerre mondiale. La production des cartes confidentielles des fortifications fut interrompue en 1952 et aucune nouvelle interdiction de vente ne fut prononcée pour les cartes officielles : la carte Siegfried et la carte nationale qui lui succéda à partir de 1938 furent disponibles à partir de 1945 en version intégrale et en vente libre. Ce changement était dû à la paix retrouvée en Europe, mais aussi au constat que les interdictions de vente n’empêchaient guère les autres Etats de se procurer les cartes souhaitées.

    Après 1945, la stratégie de confidentialité cartographique consista plutôt à dissimuler de manière ciblée les installations militaires importantes. Les aérodromes militaires, barrages antichars, usines d’armement et autres équipements stratégiques disparurent des cartes.

    Avec ou sans chalet ?

    Une fois les objets sensibles rayés de la carte, la question de la confidentialité semblait a priori réglée. Or des discussions enflammées éclatèrent pour décider de ce qu’on devait dissimuler ou non.

    Dans les années 1970, un groupe d’objets posa un véritable casse-tête : dans le cas des installations militaires camouflées en équipements civils, par exemple une position d’artillerie dissimulée derrière une façade de chalet, la confidentialité cartographique pouvait induire le contraire de ce qui était visé. Si, sur place, un espion apercevait un chalet qui ne figurait pas sur la carte, cela le désignait d’autant plus comme objet militaire. C’est pourquoi ces installations retrouvèrent leur place sur les cartes à partir de 1978.

    L’année 1978 marqua non seulement l’apparition d’un élément sur la carte, mais aussi la disparition d’un autre. Dans les années 1970, le risque d’attentats terroristes avait considérablement augmenté en Suisse. Les conduites forcées des centrales hydroélectriques furent donc rayées des cartes afin que leur représentation ne facilite pas les actes de sabotage. Cette dissimulation fut maintenue jusqu’au tournant du siècle.

    Déjà pendant la Guerre froide, certains commencèrent à émettre des doutes sur l’efficacité de la dissimulation cartographique. C’est finalement une avancée technologique qui fut à l’origine d’un changement de pratique : vers 1990, la télédétection par satellite était si aboutie que cela avait de moins en moins de sens de dissimuler des objets sur une carte. S’obstiner dans cette pratique aurait même pu se révéler contre-productif en attirant l’attention précisément sur les objets manquants sur la carte.

    Par conséquent, de nouvelles ordonnances et directives basées sur un principe de visibilité furent adoptées à partir de 1991. Cela signifiait que si des installations étaient visibles à la surface de la Terre, elles devaient figurer sur une carte. Ce principe s’avéra bel et bien valable puisqu’il est encore appliqué aujourd’hui.

    https://www.watson.ch/fr/blogs/suisse/214417070-les-sombres-secrets-des-cartes-en-suisse

    #cartographie #secret #armée #secret_militaire #histoire #guerre #guerre_froide #WWII #seconde_guerre_mondiale #bunkers #swisstopo #Office_fédéral_de_topographie #carte_Siegfried #fortifications_militaires #Gothard #Coude_du_Rhône #Première_Guerre_mondiale #général_Guisan #Henri_Guisan #censure #confidentialité #chalets #conduites_forcées #centrales_hydroélectriques #dissimulation #dissimulation_cartographique #images_satellitaires #télédétection #in/visibilité

    via @reka

  • Croazia, allarme fiume Una
    https://www.balcanicaucaso.org/aree/Croazia/Croazia-allarme-fiume-Una-232667

    Un crimine da fermare, un ecocidio. Così ambientalisti, attivisti e qualche politico descrivono quello che sta accadendo al fiume Una, monumento naturale in Croazia e parco naturale in Bosnia Erzegovina. Un privato sta costruendo in fretta e furia una mini idrocentrale, ma a quanto pare senza permessi

  • Romania, allerta deforestazione
    https://www.balcanicaucaso.org/aree/Romania/Romania-allerta-deforestazione-231018

    La Romania si è impegnata ad eliminare gradualmente la produzione di energia da lignite e carbon fossile: nonostante le buone intenzioni, però, lo stato continua a cedere fette di foreste pubbliche per l’apertura e l’espansione di centrali a carbone

  • Jolie trouvaille de Princertitude sur X
    https://twitter.com/princertitude/status/1768569994005148068

    Harry Oudini, en charge du suivi de la production, nous explique comment un fortuit devient programmé en quelques versions .
    « Cela permet de sortir des chiffres intéressant en commission ’enquête parlementaire, c’est un bel outil »

    #centrale_nucléaire #EdF

  • France : #Tricastin : 4 fois trop d’#hydrocarbures dans l’eau

    Publié le 22 février 2024, un très discret et très succin communiqué d’#EDF annonce sans le dire une #pollution du #Rhône. Un dépassement des concentrations en hydrocarbures dans les rejets de la #centrale_nucléaire du Tricastin (#Drôme) a été mesuré il y a 2 mois. L’industriel ne précise pas l’origine de cette pollution qui est pourtant révélatrice de dysfonctionnements sur le site.

    "Défaut ponctuel d’exploitation", c’est l’explication "la plus probable" selon EDF. L’industriel semble accorder bien peu d’importance au fait d’avoir très largement dépassé ses autorisations de #rejets dans l’environnement. En effet, un taux de 46.6 mg/l a été mesuré fin décembre 2023 dans les rejets de l’installation, alors que la limite est fixée à 10 mg/l. Plus de 4 fois la concentration maximale autorisée.

    Les eaux provenant des zones industrielles du site (comme la salle des machines par exemple) sont susceptibles d’être polluées par des hydrocarbures (#huiles, #pétrole et #dérivés). Elles passent par un système appelé #déshuileur : par un procédé de décantation dans des bassins, les hydrocarbures - qui restent en surface - sont séparés de l’eau avant qu’elle ne soit rejetée dans le milieu naturel (en l’occurrence le Rhône pour la centrale du Tricastin). Quand EDF parle de mesure en sortie de déshuileur, c’est donc bien après le procédé de (soi-disant) dépollution et avant le rejet dans l’environnement. Mais pour qui ne connaît pas le fonctionnement des installations, il n’est pas évident de saisir qu’il s’agit bien d’une pollution.

    Malgré le peu de lignes accordées à la description des faits, EDF prend soin de préciser dans son communiqué qu’il n’y a aucun impact pour l’environnement. Pourtant, ponctuel ou pas, tout déversement de produit chimique dans la nature est une pollution, une altération du milieu naturel qui vient s’ajouter à tous les précédents. Peut-être pour appuyer un peu plus sur le caractère "sans gravité", EDF annonce que les faits sont classés au plus bas niveau de l’échelle INES [1], l’échelle des incidents nucléaires. Sans préciser qu’elle est utilisée uniquement pour les faits qui impliquent de la radioactivité. Ce qui n’est pas le cas de cette pollution chimique. Il est donc normal que l’incident en question ne soit pas classé sur l’échelle INES : il n’a rien à y faire. Ce qui ne veut pas dire qu’il est sans gravité ou sans conséquences.

    Outre le communiqué laconique de l’industriel et son annonce plus que tardive (2 mois après les faits), outre l’art du discourt qui élude toute mention de pollution et ne favorise pas - loin de là - une compréhension des faits, la fréquence des mesures et la surveillance des installations posent questions.

    Que des mesures ne soient faites qu’une fois par mois, est-ce suffisant quand il s’agit de surveiller ce qui est déversé dans l’environnement ? Comment l’exploitant peut-il détecter - et encore mieux, stopper - des rejets qui ne respectent pas les limites fixées pour leurs teneurs en substances chimiques ? Comment, avec un prélèvement tous les 30 jours, détecter des dysfonctionnements du système de dépollution des eaux et réagir à temps pour épargner l’environnement ?
    Surveiller de près le fonctionnement du dispositif anti-pollution, l’entretenir et le nettoyer régulièrement pourrait éventuellement venir contre-carrer des prélèvements et des analyses trop peu fréquents. De même, débusquer les fuites d’huiles et agir dès que l’une d’elle est détectée pourrait aussi renforcer la prévention et la lutte contre les pollutions générées par le site industriel. En d’autres termes, surveiller plus et mieux les équipements pour éviter et résoudre au plus tôt les "défauts d’exploitation". Mais manifestement, ce n’est pas comme ça marche à la centrale EDF du Tricastin.

    Cet incident, déclaré aux autorités car significatif pour l’environnement [2], montre très clairement que le fonctionnement de l’installation et l’organisation d’EDF ne permettent pas de prévenir les pollutions ni de préserver le milieu naturel. Et malheureusement, le cas du Tricastin n’est pas isolé, pour preuve les nombreuses déclarations de dépassement des limites autorisées dans les rejets liquides des centrales nucléaires (voir notre cartEau). EDF est loin, très loin de se donner les moyens de limiter la casse environnementale produite par son activité industrielle.
    Ce que dit EDF :

    Evénements significatifs de décembre 2023

    Publié le 22/02/2024

    Les évènements significatifs suivants ont été déclarés au niveau 0 en dessous de l’échelle INES à l’Autorité de sûreté nucléaire. Ils n’ont eu aucune conséquence sur la sûreté des installations ou sur l’environnement.

    29 décembre 2023, événement significatif environnement

    Conformément à la réglementation, les équipes réalisent un prélèvement mensuel afin d’analyser la quantité d’hydrocarbures en sortie du déshuileur. Le résultat est de 46,6 mg/l pour une limite autorisée de 10 mg/l. Les analyses effectuées en janvier 2024 ne montrent pas de dépassement. Un défaut ponctuel d’exploitation est la cause la plus probable.

    https://www.edf.fr/la-centrale-nucleaire-du-tricastin/les-actualites-de-la-centrale-nucleaire-du-tricastin/evenements-significatifs-de-decembre-2023

    [1] INES : International nuclear and radiological event scale (Échelle internationale des événements nucléaires et radiologiques) - Description et niveaux ici - https://www.asn.fr/Lexique/I/INES

    [2] Événements significatifs : incidents ou accidents présentant une importance particulière en matière, notamment, de conséquences réelles ou potentielles sur les travailleurs, le public, les patients ou l’environnement. https://www.asn.fr/Lexique/E/Evenement-significatif En dessous des évènements significatifs, il y a les évènements dits « intéressants », et encore en dessous les « signaux faibles ». Un évènement catégorisé « significatif » est donc déjà « en haut de l’échelle » d’importance des évènements

    https://www.sortirdunucleaire.org/France-Tricastin-4-fois-trop-d-hydrocarbures-dans-l-eau

    #rivière #nucléaire #pollution_de_l'eau

  • France : Gravelines : Série noire à la centrale, 5 accidents en 5 semaines

    https://www.sortirdunucleaire.org/France-Gravelines-Serie-noire-a-la-centrale-5-accidents-en-5-sema

    Mi janvier 2024, plusieurs interventions sont en cours sur le réacteur 1 de la centrale #nucléaire de Gravelines (Nord), qui fonctionne à pleine puissance. En lançant ces opérations en même temps, EDF n’a pas anticipé que son réacteur serait privé de plusieurs systèmes qui doivent être pleinement fonctionnels. Manque d’analyse, mauvaise gestion et absence de vision globale, ce nouvel incident montre un sérieux défaut de compétences de l’exploitant nucléaire. Et il n’y a pas que sur le réacteur 1 que les problèmes se multiplient : c’est le 5ème accident déclaré par le site en à peine 5 semaines.

  • France : #Gravelines : #EDF déverse des #déchets (trop) radioactifs en mer

    Quand l’industriel prend la nature pour une décharge

    Début décembre 2023, la centrale de Gravelines (Hauts-de-France) a déversé dans la mer les déchets liquides radioactifs qu’elle produit. Les alarmes ont retenti au bout de quelques secondes, alertant sur leur niveau de radioactivité et de dangerosité.

    La bonne nouvelle c’est que les alarmes fonctionnent. La mauvaise c’est que EDF prend la mer pour une décharge et y déverse ses déchets sans vérifier avant ce qu’il y a dedans. Il aura fallu 23 secondes pour que les alarment se déclenchent et que les rejets soient arrêtés. Durant près d’une demie minute, EDF a déversé dans la nature trop de radioactivité, plus que ce qui lui est autorisé.

    Les réacteurs nucléaires produisent lors de leur fonctionnement toutes sortes de déchets et de résidus, chimiques et/ou radioactifs, de différents niveau de dangerosité. Certains sont liquides, d’autres gazeux, d’autres solides. Seuls les déchets solides sont envoyés vers des filières extérieures, les substances liquides et gazeuses finissent dans la nature, après avoir été plus ou moins traitées. C’est que EDF, comme toutes les industries, a obtenu des autorités un droit à polluer : il a des autorisations de rejets. Mais il ne peut pas déverser n’importe quoi n’importe quand n’importe où dans la nature, il y a des conditions précises et des limites fixées pour les rejets de chaque substance.

    C’est justement ces autorisations que EDF n’a pas respectées. Il a lancé le déversement du contenu d’un réservoir de déchets liquides produits en zone nucléaire dans la nuit du 2 au 3 décembre 2023, sans en vérifier au préalable la teneur. Au bout de 23 secondes les alarmes signalant trop radioactivité se sont déclenchées, et les rejets en mer ont été interrompus. EDF ne dit pas si tout ce qui a été déversé durant ces 23 secondes a été récupéré ou pas. Il est probable qu’une partie du contenu du réservoir radioactif ait atteint la mer avant que EDF ne ferme les écoutilles. L’industriel ne précise pas non plus quels types de radioéléments étaient présents, ni en quelle concentration, pas plus qu’il ne dit quelle(s) limite(s) a été dépassée.
    Une chose est sûre : ces limites existent pour limiter la dangerosité de ces rejets. Selon leur niveau de concentration, les substances radiochimiques peuvent être très néfastes, pour l’homme et pour les écosystèmes. EDF a prévenu les autorités quelques jours après l’incident. Le public lui, ne sera averti que 3 semaines après, par un bref communiqué qui n’explique rien.

    Pourquoi les équipes de conduite ont autorisé ce rejet radioactif alors qu’il ne respectait pas les limites ? Problème de place et d’espace de stockage de ces déchets liquides produits en permanence sur le site nucléaire ? « Oubli » d’une étape dans la procédure ? Quoiqu’il en soit, l’incident montre bien que pour EDF, respecter ses autorisations de rejet et penser avant tout à préserver l’environnement n’est pas la priorité. Sa priorité semble plutôt d’aller vite, et de continuer à produire. Quitte à mal faire et à faire mal. Sachant que le site nucléaire comporte déjà 6 réacteurs et que EDF voudrait en construire deux autres, les accidents relevant d’une mauvaise gestion - déjà très fréquents (voir le bandeau à droite de cet article) - ne risquent pas de s’arrêter.

    Ce que dit EDF :

    Les évènements significatifs déclarés à l’Autorité de sûreté nucléaire en décembre 2023

    Publié le 21/12/2023

    Le 2 décembre en fin d’après midi, un réservoir d’effluents liquides dilués (KER) de l’ilôt nucléaire est mis à la disposition du service Conduite afin d’effectuer un rejet réglementé dans l’environnement naturel. Dans la nuit du 2 ou 3 décembre, l’opération est engagée, contrôlée par les chaines de mesure de radioprotection (KRT) qui assurent notamment la surveillance et le respect des seuils de rejet fixé par les décrets.

    Au bout de 23 secondes, ces chaines déclenchent et stoppent automatiquement le rejet, en raison d’un dépassement du seuil d’alarme. Cet écart n’a pas eu de conséquence sur l’environnement et a été déclaré à l’Autorité de sûreté nucléaire le 6 décembre 2023 en événement relevant du domaine Environnement.

    https://www.edf.fr/la-centrale-nucleaire-de-gravelines/les-actualites-de-la-centrale-nucleaire-de-gravelines/les-evenements-significatifs-declares-a-lautorite-de-surete-nucleaire-en-decembr

    https://www.sortirdunucleaire.org/France-Gravelines-EDF-deverse-des-dechets-trop-radioactifs-en-mer
    #radioactivité #déchets_nucléaires #résidus #pollution #centrale_nucléaire #incident

  • « Ma médaille d’argent du CNRS m’inspire aujourd’hui du dégoût »
    https://www.lemonde.fr/sciences/article/2023/12/04/ma-medaille-d-argent-du-cnrs-m-inspire-aujourd-hui-du-degout_6203861_1650684

    Dans leurs pétitions, les chercheurs ne demandent pas d’augmentation de salaire, ils ne demandent pas plus de moyens, non, ils demandent simplement qu’on les laisse faire leur travail sereinement, et de disposer efficacement de leurs crédits très souvent gérés par le CNRS, même s’ils proviennent d’autres sources !

    Depuis cet été, un trio de logiciels, acheté à une entreprise privée, a été mis en place pour gérer de A (l’ordre de mission) à Z (la remise des états de frais) les déplacements financés par le CNRS. Le résultat est un calvaire indescriptible pour les missionnaires et les gestionnaires. Les missionnaires doivent faire le travail des gestionnaires (générer la liste des frais dans le système et rentrer tous les justificatifs). La difficulté est telle que nombre d’entre eux renoncent à partir en mission ou à se faire rembourser une mission faite. Les gestionnaires, loin d’avoir des tâches en moins, sont débordés par une multitude de validations et d’opérations bloquées, dont le débogage prend un temps fou. Le stress est généralisé.

    Viscosité du système
    Cette catastrophe administrative n’est qu’une (très grosse) goutte d’eau qui fait déborder le vase des entraves au travail de recherche. La gestion au CNRS est envahie par un juridisme qui rend tout acte de plus en plus pesant chaque année. La moindre action hors du laboratoire ou avec des tierces personnes déclenche une avalanche de signatures de convention et d’arguties juridiques, par exemple sur la propriété intellectuelle. La viscosité du système est telle que les chercheurs en viennent à renoncer à des contrats ou que des projets n’aboutissent pas pour des raisons de délai d’engagement de crédits, par exemple. Ingénieurs et techniciens aussi sont touchés par l’inflation administrative, et sont plus souvent à remplir des formulaires qu’à faire le travail scientifique pour lequel ils ont été embauchés.

    #CNRS #bureaucratisation

    • voilà ce que déclarait en 2008 Pécresse, ministre de l’#ESR

      La deuxième orientation, c’est une simplification résolue des contraintes de gestion des unités mixtes afin de rendre du temps de recherche aux chercheurs, car à l’heure actuelle, leur complexité (circuits administratifs et financiers, gestion des personnels, procédures d’évaluation, valorisation des résultats des travaux de recherche...) engendre une surcharge de travail pour les personnels et responsables de laboratoires. Il est souhaitable de limiter à deux les tutelles scientifiques (l’une nationale, l’autre locale) qui s’exercent sur les unités mixtes de recherche, sachant qu’aujourd’hui, près de 50 % des 1 300 UMR sont soumises à plus de deux tutelles, et 20 % en ont plus de quatre. La généralisation d’un mandat de gestion unique pour l’université ou l’organisme qui héberge l’unité simplifiera les circuits de financement et permettra un octroi plus rationnel des moyens. Le rapport recommande également d’aligner les procédures d’achat et toutes les règles financières, fiscales et comptables des laboratoires sur le régime le plus simple et le plus efficace. En matière d’achats publics, un alignement sur les règles du CNRS qui prévoient une délégation de la signature aux directeurs d’unité est préconisé. Enfin, pour alléger le travail des personnels et éviter des doubles saisies, nous devrons mettre en cohérence les systèmes d’information et développer leur interopérabilité.

      https://www.vie-publique.fr/discours/171598-interview-de-mme-valerie-pecresse-ministre-de-lenseignement-supe
      Quant à Sarkozy, il comparait le CNRS à l’Académie des Sciences de l’Union soviétique. L’action pionnière de Sarkozy, Pécresse jusqu’à Macron et ses sbires ont abouti exactement à ça. Bravo à toutes et tous !

    • Un de ces fameux #logiciels pour gérer les #missions (notamment), s’appelle #Notilus (https://academia.hypotheses.org/54107), CHAUCHEMARDESQUE !!!

      Les autres : #Goelett et #Etamine

      Pour info, ce n’est que grâce à l’action conjointe de toustes les directeurices de labo qu’il a été possible de bloquer les frais de gestion de dossier de mission établi (2 EUR par mission, de l’#argent_public donc !) qui étaient facturés par l’entreprise qui a gagné le #marché_public pour CHAQUE mission.

      Pour info, pour réserver des hôtels et des transports il faut passer par l’entreprise qui a gagné le marché public. Pour nous, il s’agit en ce moment de #FCM_Travel... A noter que c’est systématiquement BEAUCOUP plus cher de passer par cette #agence_de_voyage que si on réserverait par nos propres soins.
      Une collègue m’a dit avoir réservé une chambre d’hôtel (pourrie) en France pour le prix de 200 EUR en passant par FCM Travel alors que la réservation via des plateformes proposait, pour la même nuit, quelque chose comme 120 EUR... juste pour vous donner une petite idée...

      Autre chose intéressante, j’ai dû acheter un billet Grenoble-Marseille. J’ai cherché les options sur FCM travel, et la plateforme ne m’offrait aucune solution... j’ai appelé l’opérateur qui m’a dit qu’il fallait que je réserve 2 secteurs séparément : Grenoble-Valence et puis Valence-Marseille (pratique !!!). C’était quelque jours avant qu’on ait l’info des 2 EUR de frais de gestion, et je me dis que ce n’est probablement pas pour rien... en divisant le voyage en 2 secteurs, probablement quelqu’un empoche 2x2EUR... (donc 8 EUR en tout pour l’aller-retour).

      #université #bureaucratie #recherche #ESR #France #dégoût #bureaucratisation #Pierre_Rochette #Pécresse #Valérie_Pécresse

    • Le SNCS-FSU demande l’abandon du système Etamine, Notilus et Goelett

      Communiqué du SNCS-FSU du 23 novembre 2023

      Les personnels des laboratoires et des délégations du CNRS expérimentent le dysfonctionnement et la complexité des outils numériques Etamine, Notilus et Goelett depuis plus de quatre mois. Le SNCS-FSU dénonçait dès le 14 septembre 2023 le calvaire que ce trio de logiciels fait subir à tous les personnels du CNRS. Depuis, la direction du CNRS a indiqué que les principaux dysfonctionnements auraient été résolus. Cependant, tous les personnels constatent que des dysfonctionnements persistent. Mais le plus inquiétant est certainement la complexité de l’ensemble Etamine, Notilus et Goelett. Même après des mois de familiarisation avec ces outils à travers un nombre significatif de missions, il apparaît que la complexité globale de ce système est trop importante et que son utilisation ne sera jamais assez simple pour les agents souhaitant partir en mission. Le SNCS-FSU considère que c’est la conception même du système qui est à revoir.

      Le SNCS-FSU demande que le système Etamine, Notilus et Goelett soit abandonné et remplacé par un autre système plus simple, qui fonctionne et qui donne satisfaction. Ce système engendre aujourd’hui une dégradation des conditions de travail de tous les personnels des laboratoires et des délégations du CNRS, et il est évident que cela continuera.

      Pour les agent·e·s souhaitant partir en mission, le constat est indiscutable : l’utilisation de ces logiciels est et restera une perte de temps significative par rapport à la situation antérieure, même dans les rares cas où ces missionnaires se seront parfaitement familiarisé·e·s avec ces outils. D’autant plus qu’il est évident que très peu d’agent·e·s pourront se familiariser avec ce système, même en partant souvent en mission, tant il est complexe et rigide.

      Si le travail des agent·e·s des services de gestion pourrait, à terme, bénéficier de la dématérialisation et du report de certaines tâches vers les missionnaires, elles et ils seront beaucoup plus sollicité·e·s dans l’accompagnement de ces missionnaires. Les agents des services de gestion devront, en effet, répondre à leurs innombrables questions, incompréhensions, agacements, exaspérations, frustrations, désespoirs… L’impossibilité pour les agent·e·s des services de gestion de répondre de façon satisfaisante aux attentes de celles et ceux partant en mission est une cause importante de la dégradation des conditions de travail.

      Le SNCS-FSU estime que le système Etamine, Notilus et Goelett constitue un véritable recul. Le SNCS-FSU considère que la meilleure solution est de l’abandonner et de le remplacer par un système qui simplifie les démarches pour tous les personnels et qui libère du temps pour la recherche.

      Le SNCS-FSU appelle à signer et à faire signer massivement la pétition « CNRS : nouveau système de gestion des missions, on n’en peut plus ! » pour sortir de ce système insupportable et mettre fin à ce calvaire.

      Le SNCS-FSU apporte tout son soutien à tou·te·s les agent·e·s confronté·e·s à ces difficultés et à ce système absurde.

      https://academia.hypotheses.org/54107

    • C’est toujours intéressant d’appréhender le réseau qu’il y a derrière.

      Depuis cet été, un trio de logiciels, acheté à une entreprise privée, a été mis en place pour gérer de A (l’ordre de mission) à Z (la remise des états de frais) les déplacements financés par le CNRS.

      L’entreprise en question fcmtravel avait signé en 2021 pour 3 ans… ça a été reconduit ?
      Le groupement FCM, RYDOO et NOTILUS remporte l’appel d’offres lancé par le CNRS et l’AMUE.
      https://www.fcmtravel.com/fr-fr/resources/news-hub/le-groupement-fcm-rydoo-et-notilus-remporte-lappel-doffres-lance-par-le-c

      La mise en place d’une nouvelle plateforme devait permettre la dématérialisation de bout en bout des processus de la demande de voyage, représentant 97 millions d’euros de dépenses annuelles. Pour accompagner leurs 200 000 utilisateurs potentiels, le CNRS et l’AMUE ont donc fait le choix d’une nouvelle solution ambitieuse avec le groupement Rydoo (portail de réservation et base hôtelière), FCM (agence de voyages d’affaires) et Notilus (solution de gestion des ordres de missions et états de frais).

      Une de leur réalisation commune est l’UGAP, centrale d’achat public. (L’Union des groupements d’achats publics est une centrale d’achat publique française, placée sous la double tutelle du ministre chargé du Budget et du ministre chargé de l’Éducation nationale.)

      Notilus, une des pièces du puzzle à reconstituer …
      Notilus Filiale du Groupe DIMO Software. DIMO est issu de Cerg Finance qui en 1998 rachète XRT https://www.lesechos.fr/1998/09/cerg-finance-acquiert-le-numero-un-americain-des-logiciels-de-cash-manageme #cash-management

  • L’assèchement du Rhône menace les centrales nucléaires : la France fait pression sur la Suisse pour augmenter le débit
    https://www.novethic.fr/actualite/energie/energie-nucleaire/isr-rse/emmanuel-macron-en-deplacement-en-suisse-pour-sauver-le-soldat-rhone-151892

    Eau secours. Emmanuel Macron clôt ce jeudi 16 novembre sa visite d’État de deux jours en Suisse. Parmi les sujets à l’ordre du jour, le président de la République a abordé la question du Rhône dont il souhaite augmenter le débit. Refroidissement des centrales nucléaires, production hydroélectrique, irrigation, industrie, eau potable… les besoins français ne cessent d’augmenter alors que les effets du changement climatique pèsent déjà sur ce puissant fleuve.

    Et avec les EPR à venir sur le Rhône, je te raconte pas comment on va leur mettre la pression aux Suisses !

  • Dossier Centrales nucléaires (#archiveLO, 5 avril 1975 )

    – La politiques du "tout nucléaire : « Après nous, le déluge »

    – Qu’est ce qu’une centrale nucléaire ?

    – Une manne pour les trusts capitalistes
    – L’électricité nucléaire est-elle forcément polluante ?

    – Ce n’est pas l’atome qui est dangereux, c’est cette société

    – Les progrès de l’humanité passe par la conquête de l’énergie

    #nucléaire #énergie_nucléaire #centrale_nucléaire

  • Rolls-Royce développe un réacteur nucléaire pour de futures bases lunaires
    https://www.connaissancedesenergies.org/afp/rolls-royce-developpe-un-reacteur-nucleaire-pour-de-futures

    AFP parue le 17 mars 2023 - 12h25

    Le groupe industriel britannique Rolls-Royce a annoncé vendredi avoir reçu 2,9 millions de livres (3,3 millions d’euros) de financement de l’Agence spatiale britannique pour développer de petits réacteurs nucléaires pour de futures bases lunaires.

    Un petit peu déçu par l’absence d’ambition de cet industriel qui semble se désintéresser de la planète Mars.

  • A Lützerath, les banques françaises font le choix du charbon face au climat
    https://disclose.ngo/fr/article/a-lutzerath-les-banques-francaises-font-le-choix-du-charbon-face-au-climat

    L’entreprise allemande RWE, financée à hauteur de centaines de millions d’euros par les banques françaises, s’apprête à raser le village de Lützerath pour étendre sa mine de charbon géante. Selon une étude scientifique inédite, la pollution émise par les centrales à charbon de l’énergéticien est responsable de la mort prématurée de plus de 36 000 personnes en Europe. Lire l’article

  • #TuNur, il modello di esportazione di energia verde dal Nord Africa all’Ue

    Un’impresa britannico-tunisina sta progettando una gigantesca centrale solare a nel deserto della Tunisia, un impianto che richiede un enorme consumo d’acqua. L’energia verde però andrà solo all’Europa.

    Produrre energia pulita a basso costo tra le soleggiate dune del deserto del Sahara è stato per decenni il sogno di diverse aziende private, alla costante ricerca di nuove fonti energetiche. “Il Sahara può generare abbastanza energia solare da coprire l’intero fabbisogno del globo” è un mantra ripetuto più o meno frequentemente, da aziende e lobby, a seconda della congiuntura economica o politica.

    Tra costi esorbitanti e accordi internazionali irrealizzabili, i progetti di esportazione di energia solare dal Nord Africa all’Europa sono però stati messi da parte per anni. Tornano di attualità oggi, nel contesto di crisi energetica legata alla guerra in Ucraina. Con un inverno freddo alle porte, senza il gas russo, gli Stati europei puntano gli occhi sulle contese risorse dei vicini meridionali. Con l’impennata dei prezzi dei combustibili fossili, la transizione energetica non è più semplicemente urgente in funzione della crisi climatica, ma anche economicamente conveniente, quindi finanziariamente interessante.

    A maggio 2022 l’Unione europea ha annunciato di voler aumentare gli obiettivi di energia prodotta da fonti rinnovabili fino al 40% entro il 2030, dotandosi di 600 GWh supplementari di energia solare. Ma il vecchio continente non ha né lo spazio né le risorse per produrre internamente la totalità del proprio fabbisogno di energia verde. Ed ecco che gli annunci di mega progetti di centrali solari in Nord Africa, così come quelli di cavi sottomarini nel mediterraneo, non fanno che moltiplicarsi.

    Il miracolo del sole africano torna a suggestionare un’Europa che ancora fatica a liberarsi del proprio retaggio coloniale quando guarda alla riva sud del Mediterraneo. Buona parte delle compagnie che promettono energia pulita importata continuano a raccontare una favola distorta e romanticizzata dei deserti: terre vuote, inutili, da colonizzare.

    Una narrazione contestata da chi, invece, quel deserto lo abita: «Non ci opponiamo alle rinnovabili, ma chiediamo una transizione energetica equa, che prenda in considerazione le rivendicazioni sociali e ambientali locali e non riproduca le dinamiche dell’industria fossile», ripetono le comunità che osservano l’installazione dei pannelli solari europei dalla finestra di casa.
    La transizione europea si farà sulle spalle del Nord Africa?

    Lungo il confine fra Tunisa e Algeria, a 120 chilometri dalla città più vicina, Kebilli, l’unica strada che porta a Rjim Maatoug è percorsa avanti e indietro dai camion cisterna che vanno ai giacimenti di petrolio e gas del Sud tunisino. Cittadina in mezzo al deserto negli anni ‘80 monitorata dai soldati del Ministero della difesa tunisino, Rjim Maatoug è stata costruita ad hoc con l’aiuto di fondi europei, e in particolar modo dell’Agenzia Italiana per lo Sviluppo e la cooperazione (AICS).

    Un tempo abitato da comunità nomadi, il triangolo desertico che delimita il confine tunisino con l’Algeria da un lato, la Libia dall’altro, è oggi un’immensa zona militare accessibile ai non residenti solo con un permesso del Ministero della difesa. Questi terreni collettivi sono da sempre la principale fonte di sostentamento delle comunità del deserto, che un tempo si dedicavano all’allevamento. Occupate durante la colonizzazione francese, queste terre sono state recuperate dallo Stato dopo l’indipendenza nel 1957, poi concesse a compagnie private straniere, principalmente multinazionali del petrolio. Prima nella lista: l’italiana #Eni.

    In questa zona, dove la presenza statale è vissuta come una colonizzazione interna, villaggi identici delimitati da palmeti si sussegono per 25 chilometri. «Abbiamo costruito questa oasi con l’obiettivo di sedentarizzare le comunità nomadi al confine», spiega uno dei militari presenti per le strade di Rjim Maatoug. Dietro all’obiettivo ufficiale del progetto – “frenare l’avanzata del deserto piantando palmeti” – si nasconde invece un’operazione di securizzazione di un’area strategica, che ha radicalmente modificato lo stile di vita delle comunità locali, privandole dei loro mezzi di sussistenza. Un tempo vivevano nel e del deserto, oggi lavorano in un’immensa monocultura di datteri.

    È di fronte alla distesa di palme di Rjim Maatoug, piantate in centinaia di file parallele, che la società tunisino-britannica TuNur vuole costruire la sua mega centrale solare. L’obiettivo: «Fornire elettricità pulita a basso costo a 2 milioni di case europee», annuncia la società sul suo sito internet.

    Per la sua vicinanza all’Italia (e quindi all’Europa), la Tunisia è il focus principale delle aziende che puntano a produrre energia solare nel deserto. In Tunisia, però, solo il 3% dell’elettricità per ora è prodotta a partire da fonti rinnovabili. Nell’attuale contesto di grave crisi finanziaria, il Paese fatica a portare avanti i propri ambiziosi obiettivi climatici (35% entro il 2030). Ma l’opportunità di vendere energia all’Ue sembra prendersi di prepotenza la priorità sulle necessità locali, anche grazie a massicce operazioni di lobbying.

    TuNur si ispira apertamente alla Desertec Industrial Initiative (Dii), un progetto regionale abbandonato nel 2012, portato avanti all’epoca da alcuni tra gli stessi azionisti che oggi credono in TuNur. Desertec mirava all’esportazione di energia solare prodotta nel Sahara attaverso una rete di centrali sparse tra il Nord Africa e il Medio Oriente per garantire all’Europa il 15% del proprio fabbisogno di elettricità entro il 2050. Se neanche il progetto pilota è mai stato realizzato, i vertici della compagnia proiettavano i propri sogni su due deserti in particolare: quello tunisino e quello marocchino.

    Oggi il progetto è stato relativamente ridimensionato. La centrale tunisina TuNur prevede di produrre 4,5 GWh di elettricità – il fabbisogno di circa cinque milioni di case europee – da esportare verso Italia, Francia e Malta tramite cavi sottomarini.

    Il progetto è sostenuto da una manciata di investitori, ma i dipendenti dell’azienda sono solo quattro, conferma il rapporto del 2022 di TuNur consultato da IrpiMedia. Tra questi, c’è anche il direttore: il volto dell’alta finanza londinese Kevin Sara, fondatore di diversi fondi di investimenti nel Regno Unito, ex membro del gigante finanziario giapponese Numura Holdings e della cinese Astel Capital. Affiancato dal direttore esecutivo, l’inglese Daniel Rich, Sara è anche amministratore delegato dello sviluppatore di centrali solari Nur Energie, società che, insieme al gruppo maltese Zammit, possiede TuNur ltd. Il gruppo Zammit, che raccoglie imprese di navigazione, bunkering, e oil&gas, è apparso nel 2017 nell’inchiesta Paradise Papers sugli investimenti offshore. Il braccio tunisino del comitato dirigente, invece, è un ex ingegnere petrolifero che ha lavorato per anni per le multinazionali del fossile Total, Shell, Noble Energy e Lundin, Cherif Ben Khelifa.

    Malgrado le numerose richieste di intervista inoltrate alla compagnia, TuNur non ha mai risposto alle domande di IrpiMedia.

    TuNur opera in Tunisia dalla fine del 2011, ed ha più volte annunciato l’imminente costruzione della mega centrale. Finora, però, neanche un pannello è stato installato a Rjim Maatoug, così che numerosi imprenditori del settore hanno finito per considerare il progetto “irrealistico”, anche a causa dei costi estremamente elevati rispetto al capitale di una compagnia apparentemente piccola. Eppure, ad agosto 2022 l’amministratore delegato di TuNur annunciava all’agenzia Reuters «l’intenzione di investire i primi 1,5 miliardi di euro per l’installazione della prima centrale». Non avendo potuto parlare con l’azienda resta un mistero da dove venga, e se ci sia davvero, un capitale così importante pronto per essere investito.

    Ma che la società sia ancora alla ricerca del capitale necessario, lo spiega lo stesso direttore esecutivo Daniel Rich in un’intervista rilasciata a The Africa Report nel 2022, affermando che TuNur ha incaricato la società di consulenza britannica Lion’s Head Global Partners di cercare investimenti. Poco dopo queste dichiarazioni, Rich ha ottenuto un incontro con il Ministero dell’energia. Anticipando i dubbi delle autorità, ha assicurato «la volontà del gruppo di espandere le proprie attività in Tunisia grazie ai nuovi programmi governativi». Secondo i documenti del registro di commercio tunisino, la sede tunisina della società TuNur – registrata come generica attività di “ricerca e sviluppo” – possiede un capitale di appena 30.000 dinari (10.000 euro). Una cifra infima rispetto a quelle necessarie ad eseguire il progetto.

    Secondo Ali Kanzari, il consulente principale di TuNur in Tunisia, nonché presidente della Camera sindacale tunisina del fotovoltaico (CSPT), il progetto si farà: «Il commercio Tunisia-Europa non può fermarsi ai datteri e all’olio d’oliva», racconta nel suo ufficio di Tunisi, seduto accanto ad una vecchia cartina del progetto. Ai suoi occhi, la causa del ritardo è soprattutto «la mancanza di volontà politica». «La Tunisia è al centro del Mediterraneo, siamo in grado di soddisfare il crescente fabbisogno europeo di energia verde, ma guardiamo al nostro deserto e non lo sfruttiamo», conclude.
    Ouarzazate, Marocco: un precedente

    La Tunisia non è il primo Paese nordafricano sui cui le compagnie private hanno puntato per sfruttare il “potenziale solare” del deserto. Il progetto di TuNur è ricalcato su quello di una mega centrale solare marocchina fortemente voluta da re Mohamed VI, diventata simbolo della transizione del Paese della regione che produce più elettricità a partire da fonti rinnovabili (19% nel 2019).

    Nel febbraio 2016, infatti, il re in persona ha inaugurato la più grande centrale termodinamica del mondo, Noor (suddivisa in più parti, Noor I, II, III e IV). Acclamato dai media, il progetto titanico Noor, molto simile a TuNur, non produce per l’esportazione, ma per il mercato interno ed ha una capacità di 580 MWh, solo un ottavo del progetto tunisino TuNur. Il sito è attualmente gestito dal gruppo saudita ACWA Power insieme all’Agenzia marocchina per l’energia sostenibile (MASEN). Secondo quanto si legge sul sito della società, anche Nur Energie, azionista di TuNur e di Desertec, avrebbe partecipato alla gara d’appalto.

    Nel paesaggio desertico roccioso del Marocco sud-orientale, a pochi chilometri dalla città di Ouarzazate, ai piedi della catena dell’Alto Atlante, centinaia di pannelli si scorgono a distanza tra la foschia. Sono disposti in cerchio intorno a una torre solare, e si estendono su una superficie di 3.000 ettari. Si tratta di specchi semiparabolici che ruotano automaticamente durante il giorno per riflettere i raggi solari su un tubo sottile posto al centro, da dove un liquido viene riscaldato, poi raccolto per alimentare una turbina che produce elettricità. Così funziona la tecnologia CSP (Concentrated Solar Power) riproposta anche per il progetto tunisino TuNur. «Con il CSP possiamo immagazzinare energia per una media di cinque ore, il che è molto più redditizio rispetto all’uso delle batterie», afferma Ali Kanzari, consulente principale della centrale TuNur, che vuole utilizzare la stessa tecnologia.

    Diversi grandi gruppi tedeschi sono stati coinvolti nella costruzione del complesso marocchino Noor. Ad esempio, il gigante dell’elettronica Siemens, che ha prodotto le turbine CSP. Secondo il media indipendente marocchino Telquel, i finanziatori del progetto – la Banca Mondiale e la banca tedesca per lo sviluppo Kfw – avrebbero perorato l’adozione di questa tecnologia, difendendo gli interessi dei produttori tedeschi, mentre gli esperti suggerivano – e suggeriscono tutt’ora – una maggiore cautela. La causa: l’elevato consumo di acqua di questo tipo di tecnologia durante la fase di raffreddamento.

    La valutazione dell’impatto ambientale effettuata prima della costruzione del progetto, consultata da IrpiMedia, prevede un consumo idrico annuale di sei milioni di metri cubi provenenti dalla diga di El Mansour Eddahbi, situata a pochi chilometri a est di Ouarzazate, che attualmente dispone solo del 12% della sua capacità totale. «Tuttavia, è impossibile ottenere statistiche ufficiali sul consumo effettivo, che sembra molto maggiore», osserva la ricercatrice Karen Rignall, antropologa dell’Università del Kentucky e specialista della transizione energetica in zone rurali, che ha lavorato a lungo sulla centrale solare di Noor.

    Il Marocco attraversa una situazione di «stress idrico strutturale», conferma un rapporto della Banca Mondiale, e la regione di Ouarzazate è proprio una delle più secche del Paese. Nella valle del Dadès, accanto alla centrale Noor, dove scorre uno degli affluenti della diga, gli agricoltori non hanno dubbi e chiedono un’altra transizione rinnovabile, che apporti riscontri positivi anche alle comunità della zona: «La nostra valle è sull’orlo del collasso, non possiamo stoccare l’acqua perché questa viene deviata verso la diga per le esigenze della centrale solare. Per noi Noor è tutt’altro che sostenibile», afferma Yousef il proprietario di una cooperativa agricola, mentre cammina tra le palme secche di un’oasi ormai inesistente, nella cittadina di Suq el-Khamis.

    In questa valle, conosciuta per le coltivazioni di una varietà locale di rosa, molti villaggi portano il nome del oued – il fiume, in arabo – che un tempo li attraversava. Oggi i ponti attraversano pietraie asciutte, e dell’acqua non c’è più traccia. I roseti sono secchi. A metà ottobre, gli abitanti della zona di Zagora, nella parallela ed egualmente secca valle di Draa, sono scesi in piazza per protestare contro quello che considerano water grabbing di Stato, chiedendo alle autorità una migliore gestione della risorsa. «In tanti stanno abbandonando queste aree interne, non riescono più a coltivare», spiega il contadino.

    Nel silenzio dei media locali, le manifestazioni e i sit-in nel Sud-Est del Marocco non fanno che moltiplicarsi. I movimenti locali puntano il dito contro la centrale solare e le vicine miniere di cobalto e argento, che risucchiano acqua per estrare i metalli rari. «In entrambi i casi si tratta di estrattivismo. Sono progetti che ci sono stati imposti dall’alto», spiega in un caffè di Ouarzazate l’attivista Jamal Saddoq, dell’associazione Attac Marocco, una delle poche ad occupasi di politiche estrattiviste e autoritarismo nel Paese. «È paradossale che un progetto che è stato proposto agli abitanti come soluzione alla crisi climatica in parte finisca per esserne responsabile a causa di tecnologie obsolete e dimensioni eccessive», riassume la ricercatrice Karen Rignall.

    È una centrale molto simile, ma di dimensioni nove volte maggiori, quella che TuNur intende installare nel deserto tunisino, dove l’agricoltura subisce già le conseguenze della siccità, di un’eccessiva salinizzazione dell’acqua a causa di infiltrazioni nella falda acquifera e di una malagestione delle risorse idriche. Secondo i dati dell’associazione Nakhla, che rappresenta gli agricoltori delle oasi nella regione di Kebili (dove si trova Rjim Maatoug), incontrata da IrpiMedia, viene pompato il 209% in più delle risorse idriche disponibili annualmente.

    La monetizzazione del deserto

    Eppure, ancora prima della pubblicazione della gara d’appalto del Ministero dell’energia per una concessione per l’esportazione, prerequisito per qualsiasi progetto di energia rinnovabile in Tunisia, e ancor prima di qualsiasi studio di impatto sulle risorse idriche, nel 2018 TuNur ha «ottenuto un accordo di pre-locazione per un terreno di 45.000 ettari tra le città di Rjim Maatoug e El Faouar», riferisce Ali Kanzari, senior advisor del progetto, documenti alla mano.

    Per il ricercatore in politiche agricole originario del Sud tunisino Aymen Amayed, l’idea dell’”inutilità” di queste aree è frutto di decenni di politiche fondarie portate avanti dall’epoca della colonizzazione francese. Le terre demaniali del Sud tunisino sono di proprietà dello Stato. Come in Marocco e in altri Paesi nord africani, le comunità locali ne rivendicano il possesso, ma queste vengono cedute alle compagnie private. «Queste terre sono la risorsa di sostentamento delle comunità di queste regioni, – spiega Aymen Amayed – Lo Stato ne ha fatto delle aree abbandonate, riservate a progetti futuri, economicamente più redditizi e ad alta intensità di capitale, creando un deserto sociale».

    TuNur promette di creare più di 20.000 posti di lavoro diretti e indiretti in una regione in cui il numero di aspiranti migranti verso l’Europa è in continua crescita. Ma nel caso di questi mega-progetti, «la maggior parte di questi posti di lavoro sono necessari solo per la fase di costruzione e di avvio dei progetti», sottolinea un recente rapporto dell’Osservatorio tunisino dell’economia. A confermarlo, è la voce degli abitanti della zona di Ouarzazate, in Marocco, che raccontano di essersi aspettati, senza successo, «una maggiore redistribuzione degli introiti, un posto di lavoro o almeno una riduzione delle bollette».

    La caratteristica di questi mega progetti è proprio la necessità di mobilitare fin dall’inizio una grande quantità di capitale. Tuttavia, «la maggior parte degli attori pubblici nei Paesi a Sud del Mediterraneo, fortemente indebitati e dipendenti dai finanziamenti delle istituzioni internazionali, non possono permettersi investimenti così cospicui, così se ne fanno carico gli attori privati. In questo modo i profitti restano al privato, mentre i costi sono pubblici», spiega il ricercatore Benjamin Schütze, ricercatore in relazioni internazionali presso l’Università di Friburgo (Germania) che lavora sul rapporto tra autoritarismo ed estrattivismo green.

    Questa dinamica è illustrata proprio dalla mega centrale solare marocchina Noor. Fin dalla sua costruzione, l’impianto marocchino è risultato economicamente insostenibile: l’Agenzia marocchina per l’energia sostenibile (MASEN) ha garantito alla società privata saudita che lo gestisce un prezzo di vendita più elevato del costo medio di produzione dell’energia nel Paese. Un divario che costa allo Stato marocchino 800 milioni di dirham all’anno (circa 75 milioni di euro), anche a causa della scelta di una tecnologia costosa e obsoleta come il CSP, ormai sostituito dal fotovoltaico. A sostenerlo è il rapporto sulla transizione energetica del Consiglio economico, sociale e ambientale (CESE), un’istituzione consultiva indipendente marocchina. Le critiche emesse dal CESE sul piano solare marocchino sono costate il posto al direttore e a diversi esponenti dell’agenzia MASEN, anche se vicini al re.

    Per questi motivi, sostiene il ricercatore tedesco, i mega-progetti che richiedono una maggiore centralizzazione della produzione sono più facilmente realizzabili in contesti autoritari. In Tunisia, se per un certo periodo proprio il difficile accesso a terreni contesi ha rappresentato un ostacolo, la legislazione è cambiata di recente: il decreto legge n. 2022-65 del 19 ottobre 2022, emesso in un Paese che dal 25 luglio 2021 è senza parlamento, legalizza l’esproprio di qualsiasi terreno nel Paese per la realizzazione di un progetto di “pubblica utilità”. Una porta aperta per le compagnie straniere, non solo nell’ambito energetico.

    Lobbying sulle due rive

    Ma perché la porta si spalanchi, ai privati serve soprattutto una legislazione adatta. Anche se per ora la mega centrale TuNur esiste solo su carta, la società sembra esser stata riattivata nel 2017, pur rimanendo in attesa di una concessione per l’esportazione da parte del Ministero dell’energia tunisino.

    Se c’è però un settore nel quale la compagnia sembra essere andata a passo spedito negli ultimi anni, questo è proprio quello del lobbying. A Tunisi come a Bruxelles. Dal 2020, l’azienda viene inserita nel Registro della trasparenza della Commissione europea, che elenca le compagnie che tentano di influenzare i processi decisionali dell’Ue. Secondo il registro, TuNur è interessata alla legislazione sulle politiche energetiche e di vicinato nel Mediterraneo, al Green Deal europeo e alla Rete europea dei gestori dei sistemi di trasmissione di energia elettrica, un’associazione che rappresenta circa quaranta gestori di diversi Paesi. La sede italiana della compagnia TuNur è stata recentemente inclusa nel piano decennale di sviluppo della rete elettrica Ue dalla Rete europea.

    «Abbiamo bisogno che lo Stato ci dia man forte così da poter sviluppare una roadmap insieme ai Paesi europei, in modo che l’energia pulita tunisina possa risultare competitiva sul mercato», spiega il consulente Ali Kanzari consultando un dossier di centinaia di pagine. E conferma: TuNur ha già preso contatti con due società di distribuzione elettrica, in Italia e in Francia. Anche in Tunisia le operazioni di lobbying della società, e più in generale dei gruppi privati presenti nel Paese, sono cosa nota. «Questo progetto ha costituito una potente lobby con l’obiettivo di ottenere l’inclusione di disposizioni sull’esportazione nella legislazione sulle energie rinnovabili», conferma un rapporto sull’energia dell’Observatoire Tunisien de l’Economie, che analizza le ultime riforme legislatve e i casi di Desertec e TuNur.

    Approvata nel 2015, la legge n. 2015-12 sulle energie rinnovabili ha effettivamente aperto la strada ai progetti di esportazione di energia verde. A tal fine, ha quindi autorizzato la liberalizzazione del mercato dell’elettricità in Tunisia, fino ad allora monopolio della Socetà tunisina dell’Elettricità e del Gas (STEG), di proprietà statale, fortemente indebitata. La legge favorisce il ricorso a partenariati pubblico-privato, i cosidetti PPP.

    «Alcune raccomandazioni dell’Agenzia tedesca per la cooperazione internazionale allo sviluppo (GIZ) e dell’Iniziativa industriale Desertec (Dii) hanno anticipato alcune delle misure contenute nella legge del 2015», sottolinea ancora il rapporto dell’Osservatorio economico tunisino. Emendata nel 2019, la legge sulle rinnovabili è stata fortemente contestata da un gruppo di sindacalisti della società pubblica STEG, che chiedono che il prezzo dell’elettricità rimanga garantito dallo Stato.

    Dopo aver chiesto formalmente che la non-privatizzazione del settore nel 2018, due anni più tardi, in piena pandemia, i sindacalisti della STEG hanno bloccato la connessione alla rete della prima centrale costruita nel Paese, a Tataouine, che avrebbe quindi aperto il mercato ai privati. Cofinanziata dall’Agenzia francese per lo sviluppo (AFD), la centrale fotovoltaica da 10 MW appartiene alla società SEREE, una joint venture tra la compagnia petrolifera italiana Eni e la compagnia petrolifera tunisina ETAP.

    «Chiediamo allo Stato di fare un passo indietro su questa legge, che è stata ratificata sotto la pressione delle multinazionali. Non siamo contrari alle energie rinnovabili, ma chiediamo che rimangano a disposizione dei tunisini e che l’elettricità resti un bene pubblico», spiega in forma anonima per timore di ritorsioni uno dei sindacalisti che hanno partecipato al blocco, incontrato da IrpiMedia. Tre anni dopo la fine dei lavori e un lungo braccio di ferro tra governo e sindacato, la centrale solare di Tataouine è infine stata collegata alla rete elettrica all’inizio di novembre 2022.

    «Sbloccare urgentemente il problema della connessione delle centrali elettriche rinnovabili» è del resto una delle prime raccomandazioni citate in un rapporto interno, consultato da IrpiMedia, che la Banca Mondiale ha inviato al Ministero dell’economia tunisino alla fine del 2021. Anche l’FMI, con il quale la Tunisia ha concluso ad ottobre un accordo tecnico, incoraggia esplicitamente gli investimenti privati nelle energie rinnovabili attraverso il programma di riforme economiche presentato alle autorità, chiedendo tra l’altro la fine delle sovvenzioni statali all’energia. «Con la crisi del gas russo in Europa, la pressione nei nostri confronti è definitivamente aumentata», conclude il sindacalista.

    Nonostante un impianto legale che si è adattato ai progetti privati, i lavori di costruzione di buona parte delle centrali solari approvate in Tunisia, tutti progetti vinti da società straniere, sono rimasti bloccati. Il motivo: «La lentezza delle procedure amministrative. Nel frattempo, durante l’ultimo anno il costo delle materie prime è aumentato notevolmente sul mercato internazionale», spiega Omar Bey, responsabile delle relazioni istituzionali della società francese Qair Energy. «Il budget con il quale sono stati approvati i progetti qualche anno fa, oggi manderebbe le compagnie in perdita».

    Solo le multinazionali del fossile quindi sembano potersi permettere gli attuali prezzi dei pannelli solari da importare. «Non è un caso che l’unica centrale costruita in tempi rapidi e pronta ad entrare in funzione appartiene alla multinazionale del petrolio Eni», confida una fonte interna alla compagnia petrolifera tunisina ETAP. Le stesse multinazionali erano presenti al Salone internazionale della transizione energetica, organizzato nell’ottobre 2022 dalla Camera sindacale tunisina del fotovoltaico (CSPT), di cui TuNur è membro, riunite sotto la bandiera di Solar Power Europe, un’organizzazione con sede a Bruxelles. Sono più di 250 le aziende che ne fanno parte, tra queste TotalEnergies, Engie ed EDF, le italiane ENI, PlEnitude ed Enel, ma anche Amazon, Google, Huawei e diverse società di consulenza internazionali. Società con obiettivi diversi, spesso concorrenti, si riuniscono così di fronte all’esigenza comune di influenzare le autorità locali per rimodellare la legge a proprio piacimento.

    L’associazione di lobbying, infatti, si è presentata con l’obiettivo esplicito qui di «individuare nuove opportunità di business» e «ridurre gli ostacoli legislativi, amministrativi e finanziari allo sviluppo del settore». Per il consulente di TuNur Ali Kanzari, «la legge del 2015 non è sufficientemente favorevole alle esportazioni e va migliorata».

    Se gli studi tecnici e d’impatto per collegare le due rive si moltiplicano, sono sempre di più le voci che si levano a Sud del Mediterraneo per reclamare una transizione energetica urgente e rapida sì, ma innanzitutto equa, cioè non a discapito degli imperativi ambientali e sociali delle comunità locali a Sud del Mediterraneo «finendo per riprodurre meccanismi estrattivi e di dipendenza simili a quelli dell’industria fossile», conclude il ricercatore Benjamin Schütze. Molti sindacati e associazioni locali in Tunisia, in Marocco e nel resto della regione propongono un modello decentralizzato di produzione di energia verde, garanzia di un processo di democratizzazione energetica. Proprio il Partenariato per una Transizione energetica equa (Just Energy Transition Partnership) è al centro del dibattito di una COP27 a Sud del Mediterraneo.

    https://irpimedia.irpi.eu/greenwashing-tunur-energia-verde-da-nord-africa-a-europa
    #énergie #énergie_verte #Afrique_du_Nord #exportation #UE #union_européenne #Europe #énergie #eau #green-washing #Tunisie #énergie_photovoltaïque #énergie_solaire #désert #photovoltaïque #extractivisme #Kebilli #Rjim_Maatoug #Agenzia_Italiana_per_lo_Sviluppo_e_la_cooperazione (#AICS) #aide_au_développement #coopération_au_développement #Italie #Desertec_Industrial_Initiative (#Dii) #Desertec #Kevin_Sara #Daniel_Rich #Nur_Energie #Zammit #TuNur_ltd #Lion’s_Head_Global_Partners #Ali_Kanzari #Ouarzazate #Maroc #Noor #centrale_électrique #ACWA_Power #Arabie_Saoudite #MASEN #Nur_Energie #Concentrated_Solar_Power (#CSP) #Dadès #Suq_el-Khamis #water_grabbing #SEREE #ETAP