Supergéante

Retoquée profesionnelle.

  • Ovidie, autrice : « Il y a plein de gens qui n’ont pas de rapport sexuel et c’est le secret le mieux gardé du monde » | France Culture
    https://www.radiofrance.fr/franceculture/podcasts/les-midis-de-culture/ovidie-met-en-scene-son-texte-la-chair-est-triste-helas-2888883

    “Arrêter le sexe avec les hommes, ce n’est pas juste arrêter le coït, c’est arrêter tout ce que cela implique d’être une femme et de constamment lutter pour rester désirable. C’est un boulot à temps plein que d’être un sexe à convoiter, entre le temps qu’on passe à s’épiler, à se faire de la médecine esthétique, à se couvrir les cheveux gris parce qu’on a peur de ne plus être coté à l’argus...c’est un temps infini que moi, j’avais envie de récupérer.”

    • Un peu de nuance ne nuit pas : chacun a le choix par rapport aux hommes, comme par rapport au sexe.

      On peut trouver aussi un homme qui vous trouve désirable avec poils, cheveux gris, sans maquillage et en guenilles d’intérieur ... ;-)

      Ça existe

      Ne pas exiger de lui qu’il ressemble à superman ... mais il y en a même des comme ça très mignons ! ;-)))

      Ceci-dit elle a raison de remettre en question les normes et de déculpabiliser.

    • La chair est triste hélas De Ovidie © Éditions Julliard
      https://www.theatre-atelier.com/event/la-chair-est-triste-helas-ovidie-annamouglalis2025

      Texte cathartique, La chair est triste hélas , publié en 2023, s’est imposé comme un objet littéraire essentiel.
      Dans une prose incisive et teintée d’humour, #Ovidie y relate les raisons de sa grève du sexe, déconstruisant avec une lucidité tranchante les injonctions qui pèsent encore sur la question du désir et de la #sexualité. À la croisée du #pamphlet_féministe et de l’étude sociologique, ce cri du cœur réadapté par l’autrice prolongera sa portée avec #Anna_Mouglalis dans un seule en scène inédit.

      Un jour, j’ai arrêté le sexe avec les hommes. ” Ovidie
      https://seenthis.net/messages/1137797

      « Cela n’a pas été d’emblée une grève. Juste un grand rejet de tout ce qu’implique le système hétérosexuel. Ces hommes si nuls au lit. Tout ce temps gâché à donner du plaisir sans en prendre, ces nuits où je me suis ennuyée, où j’ai simulé, par politesse. Ces sacrifices pour rester cotée sur le marché de la baisabilité : les heures de cardio pour perdre du poids, les chaussures à talon, le maquillage, etc. Alors, j’ai arrêté. Désenchantée », répond l’ancienne actrice, autrice et réalisatrice et aujourd’hui enseignante.

      Zoom Gouinistan - Festival résistances 2025
      https://festival-resistances.fr/zoom-gouinistan-2025

      Plus qu’un pays, le Gouinistan c’est le monde des gouines ! Un monde à la fois imaginaire et bien réel, peuplé d’une communauté de queers et de lesbiennes sorties de l’hétéro-patriarcat et qui partagent des liens affectifs, culturels, politiques et plus si affinités…

      Les cinéastes du Gouinistan filment leur Histoire pour la visibiliser et garder les traces de leurs existences et de leurs luttes. Le Zoom Gouinistan, c’est l’occasion de découvrir un espace symbolique dédié à la culture gouine mais aussi un espace politique de résistance féministe face à l’invisibilisation et aux stéréotypes qui touchent les lesbiennes et les queers.

      Et rassurez-vous, pas besoin d’être gouine pour apprécier les productions gouinistanaises !

      #théâtre #cinéma #documentaire #féminisme

  • IA : la porte-parole du PS travaille chez Palantir, l’ogre de la surveillance algorithmique choyé par Donald Trump - L’Humanité
    https://www.humanite.fr/politique/big-data/la-porte-parole-du-ps-pour-lia-travaille-chez-palantir-le-geant-de-la-surve

    Salariée depuis trois ans de Palantir, le très libertarien fleuron de la big tech américaine, Julie Martinez a rejoint, depuis un mois, l’équipe des porte-parole du Parti socialiste. Un grand écart, pour cette jeune femme et les déclarations publiques de ses représentants.

    https://archive.ph/43g3q

  • La théorie de la mort d’Internet devient réalité : tout disparaît entre crevettes sacrées et dopamine
    https://www.netcost-security.fr/actualites/258982/la-theorie-de-la-mort-dinternet-devient-realite-tout-disparait-entr

    Une nouvelle tendance menace l’intégrité d’Internet. L’évolution des contenus automatisés, alimentés par l’intelligence artificielle, modifie radicalement le paysage numérique, avec des conséquences inquiétantes pour les utilisateurs et les créateurs. Les études indiquent une domination croissante des bots et une érosion continue de contenus authentiques.
    Immagine

    Beaucoup ont remarqué des chats musclés, des crevettes à l’image de Jésus et des singes au corps de banane. Ces images envahissent les réseaux sociaux, transformant progressivement le web en autre chose. C’est ce qu’on appelle la théorie de la mort d’Internet : l’idée que le réseau, autrefois espace de liberté, devient une immense machine automatisée. En effet, Internet agit comme une toile d’araignée, autoalimentée. Plus de pages et de contenus humains disparaissent, plus le risque de créer un effet domino augmente. Ainsi, Internet pourrait être davantage mort que vivant dans les trois prochaines années.

    Un rapport de 2024 publié par la société de cybersécurité Imperva révèle qu’environ la moitié du trafic Internet mondial est désormais automatisé : les bots représentaient 42,3 % en 2021, et ont atteint 49,6 % en 2023. À ce rythme, la majorité du contenu en ligne risque de ne plus être « humain » d’ici quelques années. On assiste à l’invasion de contenus artificiels tels que photos, articles et vidéos, tandis que le web s’épuise. D’après une recherche du Pew Research Center, 38 % des pages créées en 2013 ont déjà disparu, victimes du phénomène connu sous le nom de lien mort. Cela concerne des liens qui mènent à des erreurs ou à des contenus supprimés. Ce processus est naturel sur le web, où des sites ferment, des plateformes évoluent et les archives numériques se vident. Le résultat, entre érosion et invasion, est la mort d’Internet.
    Une explosion de déchets numériques

    La journaliste américaine Taylor Lorenz souligne que cette dégringolade a débuté bien avant l’arrivée de ChatGPT : « Les systèmes d’algorithmes de classement ont inondé le web de contenus sans valeur, optimisés de manière absurde. » Une analyse récente de NewsGuard (mai 2025) indique que plus de mille sites d’information sont déjà en grande partie gérés par des intelligences artificielles.

    De plus, l’IA générative est utilisée pour les critiques de produits Amazon, permettant de promouvoir de manière artificielle des articles de faible qualité avec des avis positifs. La quantité de « déchets artificiels » publiés sur le web augmente rapidement, allant des livres fictifs écrits par IA aux images violant le droit d’auteur. La logique est économique : dans un contexte où l’attention en ligne se traduit par des revenus publicitaires, utiliser des bots et des systèmes génératifs pour « fabriquer » des contenus devient un modèle économique rentable.
    Quand le web ne vend que de la dopamine

    L’augmentation de ces contenus signale le début d’une nouvelle phase de dégradation du contenu en ligne, appelée « enshittification », terme forgé par l’écrivain Cory Doctorow. « L’IA inonde le web de matières pauvres, nuisant aux communautés et aux artistes tout en saturant des plateformes comme YouTube de contenus de faible qualité », explique Akhil Bhardwaj, professeur à l’Université de Bath, dans une interview au Guardian.

    Les vidéos grottes créées par IA représentent l’ultime phase du capitalisme de la dopamine. Il ne s’agit plus de vendre des produits ou des histoires, mais de provoquer des décharges chimiques. Ce ne sont ni narrations, ni art, ni satire. Ce ne sont que des stimuli.

    La communication personnelle – discussions entre amis, messages privés, publications familiales – ne disparaîtra pas. Cependant, l’idée romantique d’un Internet comme espace de créativité collective semble appartenir au passé. « C’est à ce titre que le web que nous connaissions est mort », affirment les chercheurs Jake Renzella et Vlada Rozova dans un article sur The Conversation. Paradoxalement, la nostalgie pour cette « humanité » du net semble se renforcer alors que le nouveau web sature avec des crustacés numériques se présentant comme Jésus et des requins portant des sneakers.

    #Capitalisme_de_la_dopamine #Dopamine #Web_synthétique

    • Ma compagne me disait il y a quelques jours que cela devenait impossible de faire des recherches par image (en l’occurrence pour trouver des idées d’aménagement intérieur) car tout est pollué par des (mauvaises) images générées par IA. Ce que je trouve tout de même cocasse dans cette histoire c’est que les grosses boîtes comme Google scient allègrement la branche sur laquelle elles sont : les utilisateurs vont finir par fuir et les « IA » - sur lesquelles tout est misé à coup de milliards de dollars - ne vont trouver que du bullshit pour s’entraîner et être encore plus mauvaises (les derniers chiffres semblent d’ailleurs montrer que le processus est déjà en route)... Je m’attends quand même à une grosse « correction » dans les mois qui viennent, reste à voir qui sera le plus touché.

  • « L’Internet ouvert est déjà en déclin » : Google admet qu’Internet n’est plus ce qu’il était
    https://www.frandroid.com/marques/google/2788181_linternet-ouvert-est-deja-en-declin-google-admet-quinternet-nest-

    09 septembre 2025 • 17:54

    L’aveu était dans l’air depuis longtemps. Google reconnaît enfin, dans un document judiciaire, ce que les créateurs de contenu observent quotidiennement : l’Internet ouvert s’effrite.

    Google vient de lâcher une phrase qui résonne comme un aveu : « L’Internet ouvert est déjà en déclin« . Problème ? Cette déclaration, faite devant un tribunal américain, contredit complètement ce que l’entreprise raconte publiquement depuis des mois.

    Pour comprendre l’importance de cet aveu, il faut d’abord saisir ce qu’on entend par « Internet ouvert ». C’est le web originel, celui où n’importe qui peut créer un site, publier du contenu et espérer être découvert grâce aux moteurs de recherche. Un écosystème décentralisé où les internautes naviguent librement de site en site, où les créateurs peuvent toucher leur audience directement.

    Cette vision s’oppose à l’Internet des plateformes fermées – les jardins clos de Facebook, les algorithmes opaques de TikTok, ou les réponses directes de Google qui gardent les utilisateurs captifs. L’Internet ouvert, c’est la différence entre explorer une bibliothèque immense et se contenter des résumés qu’on vous présente à l’entrée.
    Un aveu stratégique

    Cette confession de Google n’arrive pas par hasard. Elle surgit dans le cadre d’un procès où le ministère américain de la Justice veut démanteler l’empire publicitaire de l’entreprise pour abus de position dominante. Pour se défendre, Google argue que briser ses activités pub « ne fera qu’accélérer le déclin de l’Internet libre » et « portera préjudice aux éditeurs qui dépendent des revenus publicitaires« .
    L’AI Mode de Google pour des recherches plus approfondies sur le web. // Source : Google (montage Frandroid)

    L’ironie de la situation saute aux yeux. Google utilise le déclin qu’il contribue largement à créer comme argument de défense.

    Car Google porte une lourde responsabilité dans cette transformation. Ses featured snippets répondent aux questions sans nécessiter de clic vers les sites sources. Ses réponses générées par IA gardent les utilisateurs sur ses pages. Son algorithme favorise un web optimisé pour lui plutôt qu’un web riche et diversifié.

    Plusieurs études indépendantes documentent ce déclin que Google nie publiquement. Le cabinet de recherche Pew a notamment démontré que les utilisateurs cliquent moins sur les liens quand ils voient d’abord un résumé IA de la réponse. Logique : pourquoi aller plus loin si l’essentiel apparaît déjà dans les résultats ?

    Cette tendance se vérifie sur le terrain. Les éditeurs web observent une érosion de leur trafic organique, une baisse de l’engagement des visiteurs, une réduction du temps passé sur leurs sites. Les utilisateurs arrivent, consomment rapidement l’information et repartent, souvent satisfaits par ce qu’ils ont déjà glané sur Google.

    L’IA générative amplifie ce phénomène. ChatGPT, Claude, Gemini, Perplexity… ces outils proposent des réponses directes sans navigation web. On s’habitude ainsi à obtenir l’information sans jamais visiter de sites.

    L’enshittification généralisée du web

    Cette transformation s’inscrit dans un mouvement plus large que le chercheur Cory Doctorow a baptisé « enshittification » – littéralement « emmerdification ». Ce processus décrit comment les plateformes dégradent progressivement leur service pour maximiser leurs profits.

    Le schéma est toujours le même : d’abord, attirer les utilisateurs avec un service gratuit et de qualité. Puis capter les entreprises en promettant l’accès à ces utilisateurs. Enfin, presser les deux groupes pour extraire un maximum de valeur, dégradant l’expérience de tous au passage.

    Google illustre parfaitement cette évolution. Le moteur de recherche, conçu initialement pour diriger vers les meilleurs sites, retient aujourd’hui les utilisateurs sur ses propres pages. Les résultats se noient dans la publicité, les réponses IA remplacent les liens organiques, l’expérience utilisateur se dégrade au profit de la monétisation.

    Et l’intelligence artificielle générative pose un problème économique fondamental à l’Internet ouvert. Ces modèles s’entraînent sur des contenus créés par des humains mais ne rémunèrent pas leurs auteurs. Ils offrent ensuite des réponses directes qui évitent aux utilisateurs de visiter les sites sources.

    C’est un parasitisme économique qui sape les fondations du web. Si les créateurs de contenu ne reçoivent plus de trafic, comment financeront-ils leur production ? Si les éditeurs ne génèrent plus de revenus publicitaires, qui créera l’information de demain ? L’IA générative consomme la substance du web sans contribuer à sa régénération.

    Google le sait parfaitement. Son aveu judiciaire témoigne d’une conscience aiguë de cette dynamique destructrice. Mais l’entreprise préfère préserver ses intérêts commerciaux plutôt que l’écosystème qui l’a enrichie.

    #Google #Internet_Ouvert #IA

  • Les livres de C&F Éditions sur Cairn.info (et donc les miens aussi) – affordance.info
    https://affordance.framasoft.org/2025/09/les-livres-de-cf-editions-sur-cairn-info

    Olivier Ertzscheid15 septembre 2025

    Mes trois derniers livres ont été publiés chez un éditeur un peu particulier, C&F Éditions, auquel j’ai un attachement également particulier au travers des deux personnes qui depuis longtemps font en sorte de sa bagarrer pour une certaine vision de l’édition indépendante, et qui aussi et surtout, ont permis de créer l’une des plus belles collections de livres « autour » du numérique, comme Thelonious Monk a créé sa plus belle oeuvre autour de minuit (d’ailleurs les amis de C&F Éditions ils éditent aussi des livres autour du jazz). Bref. Tout cela vous le savez, tout cela je vous l’ai déjà écrit et décrit.

    Mon dernier livre, « Les IA à l’assaut du cyberespace : vers un web synthétique« , s’est vendu à un peu moins de 350 exemplaires. Alors certes c’est plus que celui de Marlène Schiappa (245 exemplaires de « Sa façon d’être à moi », source Edistat), c’est plus que celui de l’ex-ministre déléguée au logement, Emmanuelle Wargon (157 exemplaires de « Bienvenue en politique : à ceux qui sont tentés de renoncer », source Edistat), mais mais mais, et c’est une vraie blessure narcissique, c’est beaucoup moins que celui de l’ectoplasme faux-derchique aka Jean-Michel Blanquer (888 ventes de « Ecole ouverte », source Edistat).

    Vous me direz, C&F Editions n’a pas de diffuseur, il faut donc commander les ouvrages, et j’ai fait beaucoup moins de plateaux télé que Wargon, Schiappa et Blanquer pour en assurer la promotion. Donc bah c’est pas si mal. Mais ce n’est pas suffisant pour assurer la pérennité de ces « petites » maisons d’édition qui sont – par-delà la qualité de leur catalogue – l’un des tout derniers points de résistance face à un paysage éditorial totalement gangréné par des idéologies au mieux réactionnaires, de Vincent Bolloré à Vincent Montagne.

    Donc achetez ou n’achetez pas mes livres, mais par contre achetez des livres en papier chez C&F Editions et chez d’autres éditeurs indépendants.

    Lorsque l’on veut que des idées circulent et s’imposent, on peut miser sur le matraquage publicitaire et les grands groupes éditoriaux au service de leurs intérêts rétrogrades, mais l’on peut aussi s’appuyer sur un autre essentiel, cet essentiel qui est celui de la « citabilité » des textes et donc des idées. Le fait qu’elles soient trouvables, accessibles et citables, et que par le biais de ces citations ces idées puissent se répandre et se répondre chez d’autres.

    C’est en partie pour cela que C&F Editions a décidé de diffuser son catalogue sur le site Cairn.info. Me concernant, voilà ce que ça donne.

    Et lorsque l’on clique sur l’un des ouvrages, on arrive sur cela :

    Avec donc une « barrière payante » qui vous permettra d’acheter une version numérique à 9 euros d’un ouvrage toujours en diffusion papier à 15 euros. Cairn.info permet également d’acheter « au chapitre », et il vous en coûtera alors 5 euros (le chapitre).

    Mais la vraie force de Cairn.info, c’est que l’essentiel de son catalogue est accessible gratuitement à toute une communauté d’étudiantes et d’étudiants, d’universitaires, mais aussi de journalistes, « gratuitement » car les services de documentation de bibliothèques universitaires mais aussi municipales, achètent un accès à la base Cairn.info pour leurs usagers. C’est encore une autre bataille que de faire en sorte que les universités aient assez d’argent pour « offrir » cet accès gratuit à leurs étudiant.e.s et à leurs enseignant.e.s, mais pour l’instant en tout cas, cela fonctionne encore.

    Et à la fin tout le monde s’en trouve un peu plus intelligent, instruit et curieux.

    Mais le combat est encore très loin d’être gagné comme le rappelle Hervé le Crosnier (je souligne) :

    Quand une institution (bibliothèque, université, centre de recherche…) a pré-payé un accès global à Cairn, les usagers et les usagères peuvent profiter du service. Ils et elles ont alors un impression de gratuité, qui bien entendue est soutenue par des décisions de service (public) et donc qui dépendent des modes de financement de ces institutions. Nous passons en fait d’un achat individualisé (un lecteur ou une lectrice achète un livre) à un service socialisé. Dans les moments troublés que nous traversons, quand il n’est plus question que de dette d’un côté et de refus des « taxes » de l’autre, il nous semble important de rappeler cela. Le « consentement à l’impôt » est ce qui fait société, car il permet d’accès en dehors des règles du marché.

    Cairn assure une rémunération des éditeurs qui est retransmise aux auteurs et autrices via les droits d’auteur. Mais cela reste avant tout un « mode socialisé de diffusion », qui facilité le travail universitaire (recherche analyse, citation).

    Pour autant, du point de vue de l’éditeur, c’est l’achat décentralisé qui fait la majeure partie de ses revenus, et donc sa capacité à continuer d’éditer des livres. Nous espérons donc que l’accès via Cairn fera découvrir des ouvrages, et incitera à les acheter pour constituer des bibliothèques personnelles. Nous croisons les doigts, nous avons besoin des revenus et nous aimons le support imprimé et l’indépendance de la réflexion qu’il permet.

    Alors voilà. Lisez, lisez, lisez. Consultez, consultez, consultez. Et si vous le pouvez, achetez, achetez, achetez. Des livres de maisons d’édition indépendantes.
    Catégorie : Métier Ouvrages et parutions Rubrique à brac
    Olivier Ertzscheid

    #Olivier_Ertzscheid #CFéditions #Cairn

  • Ce champignon résistant aux traitements se répand dans les hôpitaux, alerte l’Europe
    https://www.sciencesetavenir.fr/sante/un-champignon-multiresistant-se-repand-dans-les-hopitaux-alerte-l-e

    Il survit sur la peau des patients, sur les tables de chevets, sur les lits des malades et même sur l’équipement médical, comme les thermomètres ou les tensiomètres. Le champignon Candiozyma auris se propage à une vitesse alarmante dans les hôpitaux européens, selon le Centre européen de prévention et de contrôle des maladies (ECDC). Ce champignon, résistant aux médicaments antifongiques, est à l’origine de 29 à 53% de décès lorsqu’il infecte un malade. Dans leur dernier rapport, les autorités alertent sur la situation et exhortent les pays européens à répondre à ce risque d’infection nosocomiale.

    Entre 2013 et 2023, plus de 4 000 cas de contamination au champignon Candidozyma auris ont été recensés dans l’Union européenne, avec une nette hausse de 1 346 cas répartis dans 18 pays rien que pour l’année 2023. En tête des contaminations ces dix dernières années figurent l’Espagne, la Grèce, l’Italie, la Roumanie et l’Allemagne. La France, Chypre et l’Allemagne font eux partie des pays où les épidémies les plus récentes ont eu lieu.

    A l’inverse, la Grèce, l’Italie, la Roumanie et l’Espagne affirment ne plus réussir à identifier les points de propagation tant le champignon s’est disséminé à l’échelle nationale. « En général, Candidozyma auris se propage via les patients qui le portent déjà et qui sont transférés d’un hôpital à l’autre. C’est comme cela que se produisent les flambées », explique le service de communication de l’ECDC à Sciences et Avenir.
    Parmi les personnes infectées, 29% à 53% ne survivront pas

    Dans les hôpitaux, tous les malades ne sont pas égaux face à ce champignon. En effet, la population générale est majoritairement résistante au champignon. Mais au fil du temps, la plupart des antifongiques sont devenus inefficaces pour venir à bout de Candidozyma auris (auparavant appelé Candida auris). Les patients infectés reçoivent une première ligne de traitement, si elle ne fonctionne pas, une deuxième ligne de traitement est tentée. Mais « dans de nombreux cas, Candidozyma auris se montre résistant à tous les agents antifongiques disponibles. Il n’y a alors pas de traitement efficace disponible », déplore l’ECDC, qui précise que les patients les plus à risque d’être infectés sont ceux gravement malades, ceux qui sortent tout juste d’une opération chirurgicale lourde, ceux qui ont des cathéters ou des trachéotomies.

    S’y ajoutent « les patients immunodéprimés, tels que les patients atteints de cancer ou ayant subi une greffe de moelle osseuse ou d’organe. Parmi les autres facteurs de risque figurent l’insuffisance rénale, un séjour hospitalier de plus de 10 à 15 jours, l’utilisation de la ventilation mécanique, la pose d’un cathéter veineux central, la nutrition parentérale totale (par intraveineuse, ndlr) et la septicémie », précise l’Organisation mondiale de la santé (OMS). Parmi les personnes infectées, 29% à 53% ne survivront pas, selon une étude de 2022. Il arrive toutefois que les patients portent le champignon sur leur peau sans l’apparition de symptômes. Ils vivent alors avec le champignon sans même le remarquer.

    « Les hôpitaux doivent être préparés »

    Sur les 36 pays européens pris en compte dans ces travaux, seuls 17 d’entre eux disposent d’une politique de surveillance nationale pour Candidozyma auris, déplore l’ECDC. Et seuls 15 ont développé une politique de prévention nationale et de contrôles. « A l’échelle nationale, les systèmes de santé doivent être alertés du risque, établir une surveillance, fournir des guidelines afin de prévenir et contrôler les infections, et s’assurer que les laboratoires de biologie médicale aient bien la capacité de répondre à la situation », nous explique l’ECDC. « Les hôpitaux doivent être préparés à identifier les cas, mettre en place une prévention efficace et enfin s’assurer que lors de transferts de patients, les hôpitaux soient bien alertés que le patient est porteur du champignon. »

    L’Europe n’est pas le seul continent à connaître une hausse préoccupante de la propagation de Candidozyma auris. En 2023 déjà, les agences fédérales américaines de santé publique s’alarmaient d’une rapide hausse des cas. Ils étaient passés de 476 en 2019 à 1 471 en 2021.

  • « Je vivais un Bataclan tous les soirs » : le témoignage choc de la Pr Céline Greco sur les violences contre les enfants | Le Télégramme
    https://www.letelegramme.fr/sante/je-vivais-un-bataclan-tous-les-soirs-le-temoignage-choc-de-la-pr-celine

    Vingt ans d’espérance de vie en moins, des risques de maladies décuplés. Les conséquences des violences subies par les enfants et les dysfonctionnements de la protection de l’enfance ont aussi un coût financier pour la société : plus de 32 milliards d’euros par an.

    « Avez-vous déjà croisé un ours dans une forêt ? » La question posée par la cheffe du service de médecine de la douleur et palliative de l’hôpital Necker-enfants malades, la professeure Céline Greco, a probablement surpris la commission d’enquête parlementaire sur les dysfonctionnements de l’ASE, le 21 mai 2025. Également présidente d’une association de protection de l’enfance (Im’Pactes), la médecin illustre devant les parlementaires les conséquences des violences infligées aux enfants.

    Deux fois plus de cancers, onze fois plus de démences
    Retour à l’exemple de l’ours, avec le mécanisme de survie que le cerveau déclenche en pareil cas : libération d’adrénaline et de cortisone, pour acheminer plus de sang vers les muscles. Pour vous permettre de combattre, ou de fuir. « Mais que se passe-t-il lorsque l’ours rentre chaque soir à la maison ? », interroge la scientifique. Les deux substances sont alors « sécrétées en permanence », engendrant de multiples dysfonctionnements. À la clé, pour ces enfants qui rencontrent « un ours », chaque soir : « Deux fois plus de maladies cardiovasculaires, deux à trois fois plus de maladies respiratoires, deux fois plus de cancers et onze fois plus de démences, égrène Céline Greco. Qui liste une cascade d’autres déconvenues : « Asthme, troubles intestinaux, pathologies auto-immunes (diabète de type 1, sclérose en plaques, polyarthrite…), modification de l’architecture du cerveau entraînant une mauvaise gestion des émotions, des troubles de la concentration et de l’apprentissage… »

    Le prix de 80 hôpitaux neufs
    Elle-même ancien enfant placée, à l’âge de 14 ans, en raison de violences intrafamiliales, elle évoque cette époque où elle rentrait chez elle, le soir, en se demandant si elle serait « encore vivante, le lendemain matin ». « Les enfants victimes de violences psychologiques, physiques et sexuelles vivent un Bataclan tous les soirs », assène-t-elle.

    Citant une étude américaine « que l’on pourrait transposer à la France », Céline Greco rapporte que « les violences faites aux enfants coûtent 32 milliards d’euros par an à notre société, soit 1,4 % de notre produit intérieur brut (PIB) ». L’équivalent du prix de construction de 80 hôpitaux neufs et bien équipés, ou de 640 lycées ou encore plus de 213 000 maisons. « Si l’on prenait ces violences en charge très précocement, on pourrait économiser 90 % de ces coûts », estime-t-elle. Alors que c’est obligatoire, seul un enfant sur dix au sein de la protection de l’enfance bénéficie d’un suivi de santé.

  • L’IA, une machine à dégrader le travail | Mediapart
    https://www.mediapart.fr/journal/economie-et-social/010925/l-ia-une-machine-degrader-le-travail

    « La perspective défendue ici est une invitation à repolitiser la technologie », résume d’emblée Juan Sebastián Carbonell. Si la technologie est politique, c’est parce qu’elle n’est pas que le simple produit d’un « progrès » irréductible de la science. Elle est le fruit de choix sociaux qui sont, eux-mêmes, le produit d’une organisation sociale. En conséquence, il y a des gagnants et des perdants dans toute révolution technologique.
    Comment les technologies s’imposent

    Et cette répartition reproduit la structure de domination de la société. Si une technologie est présentée comme un « progrès » pour la « société », c’est qu’elle est, d’abord et avant tout un progrès pour la « société » telle qu’elle est, c’est-à-dire pour ceux qui dominent ladite société. Tous les autres arguments servent à couvrir cette réalité.

    « Une technologie ne s’impose pas inéluctablement parce qu’elle est plus “efficiente”, mais parce que des acteurs qui contrôlent les ressources économiques, considérant qu’elle correspond mieux à leurs intérêts, décident de lui donner réalité », résume l’auteur. Autrement dit, le changement technologique est toujours construit et il est toujours construit à dessein. C’est précisément ici que l’aspect politique est central.

    La question n’est plus la « disparition du travail », mais bien davantage une « dégradation du travail entre les mains des entreprises ».

    Les technologies en général, et l’IA en particulier, sont donc des phénomènes socialement construits. « Les voies du changement technologique sont multiples », rappelle l’auteur, qui décrit de façon très précise le mécanisme médiatique, économique et politique qui conduit l’IA à devenir incontournable.

    Des « attentes technologiques » se mettent alors en place, lancées par l’industrie et relayées par des médias. Ces attentes forgent un « rêve » et permettent de diriger les financements et les recherches dans un sens très précis. « Les prédictions de l’IA se réalisent, non pas parce que les prédictions sont vraies, mais parce que les bons acteurs se saisissent des bonnes promesses au bon moment », résume Juan Sebastián Carbonell.

    • Pour mémoire (la mienne surtout), un peu de « théorie »

      https://www.marxists.org/francais/marx/works/1867/Capital-inedit/kmcapI-6-2C.htm

      Un chapitre inédit du Capital
      Karl MARX

      Ces particularités du procès capitaliste de valorisation ne sont pas sans entraîner, dans le procès de production, certains changements de la forme réelle du capital, de sa forme de valeur d’usage. Premièrement, les moyens de production doivent être disponibles en une quantité assez grande pour absorber, non seulement le travail nécessaire, mais encore le surtravail. Deuxièmement, l’intensité et l’extension du procès de travail réel s’en trouvent modifiées.

      Les moyens de production utilisés par l’ouvrier sont certes la propriété du capitaliste et, comme nous l’avons déjà montré, ils s’opposent, en tant que capital, au travail, qui est l’expression même de la vie de l’ouvrier. Mais, il n’en reste pas moins que c’est l’ouvrier qui les utilise dans son travail. Dans le procès réel, il use des moyens de travail comme d’un support de son travail, et de l’objet du travail comme d’une matière dans laquelle son travail se manifeste. Ce faisant, il transforme les moyens de production en la forme appropriée du produit.

      Mais, tout change, lorsqu’on examine le procès de valorisation. Ici, ce n’est pas l’ouvrier qui utilise les moyens de production, mais les moyens de production qui utilisent l’ouvrier. Ce n’est pas le travail vivant qui se réalise dans le travail matériel comme en son organe objectif, mais le travail matériel qui se conserve et s’accroît, en absorbant du travail vivant, si bien qu’il devient valeur créant de la valeur, capital en mouvement.

      https://fr.wikipedia.org/wiki/Th%C3%A9orie_de_la_valeur_(marxisme)

      La théorie de la valeur est un concept marxiste d’analyse et de critique de l’économie. Karl Marx reprend partiellement l’idée de la valeur-travail développée par David Ricardo, mais la complète par une critique radicale (en utilisant la notion de travail abstrait) : la valeur d’un bien dépend de la quantité de travail direct et indirect nécessaire à sa fabrication. Marx utilisera le terme de « quantité de travail socialement nécessaire », la quantité de travail moyenne, changeante au fil du temps et qui explique les fluctuations des prix, une distinction fondamentale avec les théories de la valeur précédentes. Mais alors que Ricardo considère le travail comme une marchandise ordinaire[1], Marx juge impropre l’expression « valeur du travail », puisque le travail est à l’origine de toute valeur d’échange. Pour autant, Marx précise que « Le travail n’est pas la source de toute richesse. La nature est tout autant la source des valeurs d’usage (qui sont bien, tout de même, la richesse réelle !) que le travail, qui n’est lui-même que l’expression d’une force naturelle, la force de travail de l’homme »[2].

      Pour Marx, les salaires ne représentent pas la valeur du travail mais la location de la force de travail du salarié (Arbeitskraft). Il propose d’expliquer l’origine du profit de la façon suivante : de la valeur nouvellement créée, le salaire du travailleur ne représente que la part nécessaire à sa propre survie, le reste constituant la plus-value qui est empochée par les capitalistes.

      Egalement, selon l’économiste marxiste Isaak Roubine, la théorie de la valeur selon Marx doit être comprise en lien avec le concept de fétichisme de la marchandise : la « théorie du fétichisme est, per se, la base de tout le système économique de Marx, et en particulier de sa théorie de la valeur »[3].

      #théories_de_la_valeur #travail_mort #capitalisme #libéralisme #plus-value

    • Leur mise à mort se décline sous une forme réaliste, mais aussi et surtout symbolique : érotisation du meurtre, esthétique du démembrement, dissection de la belle défunte, escamotage de dames par un magicien, désintégration du robot femelle. Ces représentations narratives et visuelles composent une culture du féminicide.

      Tuer des femmes : une longue histoire. Comment le meurtre sexualisé est-il devenu une pièce centrale de nos imaginaires – une évidence, un horizon d’attente, la grammaire de nos livres et de nos films ?

  • L’intelligence artificielle au cœur d’une guerre des sources : un administrateur Wikipédia des Pyrénées-Orientales témoigne
    https://madeinperpignan.com/pyrenees-orientales-coulisses-wikipedia-intelligence-artificielle-g

    La fiabilité est en effet une question centrale de l’intelligence artificielle. Un nouveau type de site internet vient d’arriver dans la sphère de la désinformation. Il s’agit de sites intégralement produits par IA qui fabriquent des articles à la chaîne sans intervention humaine. Leur seul but : monétiser la fréquentation. On trouve des sites pour amateurs de voitures qui inventent littéralement des véhicules. Presque tous les loisirs sont concernés.
    Un site d’information catalan avec des villages qui n’existent pas

    Les Pyrénées-Orientales sont également touchées. Depuis son rachat il y a quelques mois, le site d’information « Le Journal Catalan » piège par exemple les touristes avec de faux articles générés automatiquement. On y présente des villages imaginaires, des lacs qui n’existent pas, une histoire locale fictive, à l’image de ces fausses « gravures préhistoriques interdites » dans une grotte de Tautavel… Le tout illustré par des visuels générés par IA sans rapport avec la réalité. Chat GPT lui-même se fait avoir à l’occasion, puisqu’il pioche dans ce média pour certaines réponses. L’IA qui se source dans l’IA aboutit à une consanguinité de la désinformation.

    Notre regard change, et puisque tout peut être faux, nous passons de l’art du doute à la mécanique du soupçon. Comme l’explique l’essayiste canadienne Naomi Klein, il est tentant d’utiliser la notion de fake news à la manière d’un Trump, en qualifiant de « fait par IA » ce qui dérange nos convictions, au lieu de chercher la vérité.

  • Slouching Into Fascism - Are we already past the tipping point? - Garrett Graff
    https://www.motherjones.com/politics/2025/08/slouching-into-fascism

    American fascism looks like the president using armed military units from governors loyal to his regime to seize cities run by opposition political figures and it looks like the president using federal law enforcement to target regime opponents.

    American fascism looks like the would-be self-proclaimed king deploying the military on US soil not only not in response to requests by local or state officials but over — and almost specifically to spite — their vociferous objections.

    The president’s military occupation of the capital has escalated in recent days into something not seen since British troops marched the streets of colonial Boston — even though precisely nothing has happened to warrant it, the Pentagon has now armed the National Guard patrolling DC and armored vehicles, designed for the worst of combat, are patrolling the capital, where they’re colliding with civilian vehicles because war transports are not supposed to be on civilian streets. (Why a 14-ton MRAP is in any way necessary for a domestic police mission is its own worthy line of questioning!)

    Word came over the weekend that the president is now drawing up plans and explicitly threatening domestic political opponents like the governors of California and Illinois with similar military occupations — exercising emergency powers in a moment where the only emergency is his own abuse of power.

    Civilians who try lawfully to exercise their right to document the abuses of the regime are themselves arrested and charged with felonies through trumped-up charges teeming with official lies. The fact that this military takeover and federal occupation is being done to the city’s residents — and not on their behalf — is evident in how deserted DC has become as residents refuse to enter public spaces where they might have to interact with agents of the state.

    America has become a country where armed officers of the state shout “Papers please!” on the street at men and women heading home from work, a vision we associate with the Gestapo in Nazi Germany or the KGB in Soviet Russia, and where masked men wrestle to the ground and abduct people without due process into unmarked vehicles, disappearing them into an opaque system where their family members beg for information.

    It looks like a president, who is supposed to be the figurehead of the party of small government, is extorting US companies for the regular act of doing business — earning his good will in recent weeks has required seizing parts of major US companies or imposing bizarre taxes on others in exchange for his personal support.

    It looks like a country where our largest and most powerful corporate titans line up to pay tribute personally — delivering literal gold to the president in full view of cameras — and where foreign governments bribe him with largesse as gross as a 747 plane for his personal use after he leaves office, and where media companies have to censor their own staffs in order to be allowed to operate.

    It looks like a country where inconvenient figures are kidnapped and disappeared overseas to torture gulags with no due process or dumped in countries where they have no possible connection. Kilmar Albrego Garcia has been punished for months with the full weight of the US government simply because he embarrassed the Trump administration. It looks like a country where the government, devoid of irony, is reopening concentration camps on the site of some of the country’s darkest hours of history where it previously hosted concentration camps.

    It looks like a government where agency by department, people who try to uphold the rule of law are being purged — sometimes for nothing more than personal friendships or because they voiced an inconvenient fact, and where even the loyalists deemed insufficiently loyal are cashiered. Billy Long, the stunningly unqualified former cattle auctioneer placed in charge of the IRS, evidently was removed after he tried to uphold the most basic legal requirements for sharing taxpayer data.

    It looks like a country where Trump assumes he can control and dictate our history, what books we read, our arts, and even our sports heroes. He assumes there is no line between his taste and our nation.

  • Ce jour,

    Gaza postwar plan envisions ‘voluntary’ relocation of entire population - The Washington Post
    https://www.washingtonpost.com/national-security/2025/08/31/trump-gaza-plan-riviera-relocation

    A postwar plan for Gaza circulating within the Trump administration, modeled on President Donald Trump’s vow to “take over” the enclave, would turn it into a trusteeship administered by the United States for at least 10 years while it is transformed into a gleaming tourism resort and high-tech manufacturing and technology hub.

    https://www.washingtonpost.com/documents/f86dd56a-de7f-4943-af4a-84819111b727.pdf

    • Trump mulling postwar Gaza plan relocating 2 million Palestinians for multi-billion d
      https://www.ynetnews.com/article/bjk007h11cgx

      The 38-page proposal, known as the Gaza Reconstitution, Economic Acceleration and Transformation Trust, or #GREAT Trust, is modeled on President Donald Trump’s pledge to “take over” Gaza and oversee it for at least 10 years while turning it into a high-tech and industrial center and a luxury tourist destination.

    • Itay Epshtain sur X : “The #Gaza Reconstruction Acceleration and Transformation Trust (GREAT), exposed by washingtonpost, is the twisted brainchild of @BCG, commissioned by @POTUS and @SecRubio to design a great breach of peremptory norms of international law. A short thread:” / X
      https://x.com/EpshtainItay/status/1962127476731109834

      Le #Gaza Reconstruction Acceleration and Transformation Trust (GREAT), exposé par le “washington post”, est l’idée tordue du #BCG, commanditée par le POTUS et SecRubio pour concevoir une grave violation des normes impératives du droit international. Un court fil :

      1/4 La Commission du droit international des Nations-Unies a codifié en 2022 les normes impératives du droit international (jus cogens), pour lesquelles aucune dérogation n’est permise, incluant l’interdiction de l’agression et du génocide, les règles fondamentales du droit international humanitaire, et le droit à l’autodétermination des peuples. L’objectif du ’GREAT’ est de violer systématiquement ces normes sacro-saintes.

      2/4 L’objectif principal de « GREAT » est l’acquisition du territoire de Gaza par l’usage de la force - par Israël et les #États-Unis en tant que co-conspirateurs - et la suppression de l’indépendance politique et de l’intégrité territoriale palestiniennes.

      3/4 L’agression est définie par la Résolution 3314 de l’Assemblée générale des Nations Unies comme l’utilisation de la force armée par un État - dans ce cas, par Israël et les États-Unis - contre la souveraineté, l’intégrité territoriale ou l’indépendance politique de la Palestine, y compris toute annexion, appropriation et exploitation du territoire par le « trust ».

      4/4 Au cours de la perpétration d’une agression, « GREAT » envisage également une violation grave du droit international humanitaire : des transferts forcés individuels ou de masse, ainsi que des déportations de personnes protégées à l’intérieur ou à partir d’un territoire occupé, ce qui est absolument interdit en vertu de l’article 49 de la quatrième Convention de Genève.

      PS. L’entité associée aux graves crimes de « GREAT » n’est autre que la « Gaza Humanitarian Foundation » #GHF, qui continuera à dissimuler l’obstruction de l’aide humanitaire et l’utilisation de la famine comme méthode de guerre.

  • 📚 Pierre Bourdieu : Pourquoi la sociologie dérange autant ? | INA Culture
    https://www.youtube.com/watch?v=weKSCVRKvOI

    Les grands entretiens du cercle | France 2 | 28/04/1998

    Et si la liberté n’était qu’une illusion ? Dans cet entretien exceptionnel, Pierre Bourdieu démonte les faux-semblants de notre société. Loin d’un savoir froid et distant, la sociologie devient un outil puissant de compréhension de soi et du monde. Il évoque le poids des déterminismes, l’hypocrisie des élites, le rôle des médias et les croyances qui façonnent nos vies, parfois à notre insu.
    Un moment rare de lucidité, de colère maîtrisée et d’engagement, porté par l’un des penseurs les plus influents du XXe siècle.

    #Pierre_Bourdieu #Bourdieu #sociologie #interview

  • « Je voudrais un toit pour mon fils » : le nombre d’enfants à la rue avant la rentrée atteint un nouveau record
    https://www.lemonde.fr/societe/article/2025/08/28/je-voudrais-un-toit-pour-mon-fils-le-nombre-d-enfants-a-la-rue-avant-la-rent

    Le 7ᵉ baromètre « #enfants à la rue », publié jeudi 28 août par l’Unicef France et par la Fédération des acteurs de la solidarité (FAS), révèle que 2 159 mineurs ont été laissés sans solution d’#hébergement au soir du 18 août, après que leur famille a réussi à joindre le #115. Leur nombre a progressé de 6 % en un an, de 30 % depuis 2022 – quand le ministre du #logement de l’époque avait promis qu’il n’y aurait plus d’enfant à la rue – et de 133 % depuis 2020.

    Parmi les mineurs décomptés, 503 ont moins de 3 ans – 38 % de plus qu’en 2022. Et ces données n’incluent pas les familles qui n’arrivent pas à joindre le 115 – le numéro est sans cesse saturé – ni celles qui n’essaient pas ou plus, faute de chance d’être hébergées. Les #mineurs_non_accompagnés ne sont pas non plus pris en compte. En mars 2024, la coordination nationale jeunes exilé.es en danger en a recensé 1 067, refusés ou en recours de minorité, contraints de vivre dans la rue.

    « Ces chiffres sont accablants. Le grand public n’imagine pas que dans un pays riche tel que le nôtre, il puisse y avoir des enfants à la rue. Mais, malgré nos alertes répétées, ils sont de plus en plus nombreux et des enfants en meurent – au moins 31 en 2024, selon le recensement effectué par le Collectif des morts de la rue », s’indigne la présidente de l’Unicef France, Adeline Hazan, qui exhorte à un « sursaut politique ».

    La progression du nombre d’enfants à la rue s’explique par une accumulation de facteurs : la crise du logement s’est intensifiée, avec notamment une baisse des créations et des attributions de logements sociaux. La forte inflation a contribué à l’augmentation de la #pauvreté. Les #expulsions locatives, facilitées par la loi Kasbarian-Bergé de 2023, ont flambé. Les obtentions et renouvellements de titres de séjour ont, quant à eux, diminué. Tout cela a créé du sans-abrisme, d’une part, et empêché des personnes de quitter l’hébergement d’urgence, d’autre part. Or celui-ci est resté stable, avec 203 000 places, un niveau record atteint durant la crise sanitaire liée au Covid-19.

    Le dispositif sature et l’Etat respecte de moins en moins le code de l’action sociale et des familles, qui lui enjoint d’héberger de façon inconditionnelle et continue les personnes sans abri en situation de détresse. Il a fixé aux associations qui gèrent le 115 des critères de priorisation, souvent assortis de durées de prise en charge.

    [...]

    L’Ile-de-France concentre le plus grand nombre d’enfants laissés sans hébergement après appel au 115. Mais cet indicateur ne permet pas de rendre compte de la situation très dégradée dans les territoires ultramarins, particulièrement à La Réunion et à Mayotte, victime du cyclone Chido fin 2024, où une récente loi autorise l’Etat à déroger à l’obligation d’héberger les personnes dont il détruit l’habitat précaire.

  • ALIMENTATION : TOUT EST FAIT POUR VOUS FAIRE CHOISIR DES PRODUITS MAUVAIS POUR LA SANTÉ

    Qui aujourd’hui a les moyens de bien manger ? En France, des millions de personnes ne mangent pas à leur faim ou ont une alimentation peu diversifiée et dangereuse pour leur santé. Malgré la stabilisation de l’inflation, les prix restent trop élevés pour la grande majorité des Français et ils ont un impact sur ce qu’ils décident d’acheter : moins de produits frais, de fruits, de légumes. Contraintes dans leurs choix alimentaires, les personnes précaires sont aussi « les premières victimes de maladies liées à une mauvaise alimentation ». Un tiers des apports caloriques journaliers des Français vient d’aliments ultra transformés.

    Et tout ceci n’est pas la faute des consommateurs comme on l’entend bien souvent…
    “Tout est organisé pour que les consommateurs choisissent des produits mauvais pour leur santé” c’est ce que dénonce Karine Jacquemart, directrice de Foodwatch France dans son livre “Les Dangers de l’alimentation”. Elle y propose un décryptage des dérives de notre système agro-alimentaire, un système gangréné par les intérêts du privé au détriment de notre santé et des écosystèmes naturels. Karine Jacquemart invite aussi à l’action et à la résistance collectives, pour reprendre le pouvoir sur notre alimentation et donc sur nos vies.

    À l’heure où 1 français sur 3 n’est pas toujours en capacité de se procurer une alimentation saine en quantité suffisante pour manger trois repas par jour selon le Secours Populaire.
    1 étudiant sur 5 a recours à l’aide alimentaire et 1 agriculteur sur 5 vit sous le seuil de pauvreté.

    Karine Jacquemart le rappelle, l’accès à une alimentation saine, digne et de qualité est un droit fondamental et pourtant il n’est aujourd’hui pas suffisamment garanti en France.
    Dans le même temps, l’industrie agro alimentaire a vu ses profits doubler en pleine inflation. Les scandales se répètent, se ressemblent. Ils montrent à quel point l’alimentation est un enjeu politique majeur pour notre présent et notre avenir.

    Alors comment reprendre le pouvoir sur notre alimentation ? Comment déverrouiller le système agro-alimentaire et donner accès à une alimentation saine, choisie et produite dans le respect des écosystèmes ? Réponses à ces questions et bien d’autres dans cet entretien de Paloma Moritz avec Karine Jacquemart

    https://www.youtube.com/watch?v=QYAp8Cln9IA

    #alimentation #politique #interview #Karine_Jacquemart

  • Entre amis ou en famille, tout le monde se géolocalise
    La pratique consistant à partager sa position en permanence avec ses proches s’est largement banalisée, notamment chez les plus jeunes. Le signe d’une certaine banalisation de la surveillance, selon certains chercheurs.
    https://www.lemonde.fr/pixels/article/2025/08/25/entre-amis-ou-en-famille-tout-le-monde-se-geolocalise_6634653_4408996.html

    #geolocalisation #gps #surveillance

    https://pastebin.com/PxCD4Bij

    • En partageant sa localisation avec ses proches, on partage sa localisation avec des sociétés privées, ainsi qu’avec l’état. Nous n’avons rien à cacher, paraît-il, certes, mais il me semble qu’à un moment, c’est donner le bâton pour se faire battre. A la façon dont on décide d’utiliser un seul moteur de recherche, une seule IA générative, un seul prestataire de messagerie, un seul fournisseur de suite collaborative en ligne, etc.

  • L’intelligence artificielle au cœur d’une guerre des sources : un administrateur Wikipédia des Pyrénées-Orientales témoigne
    https://madeinperpignan.com/pyrenees-orientales-coulisses-wikipedia-intelligence-artificielle-g

    (...)

    C’est bien simple, la fréquentation s’effondre. D’abord parce que Google s’est transformé en moteur de réponse plutôt qu’en moteur de recherche, diminuant le recours à l’encyclopédie. Mais désormais à cause de l’IA. « La deuxième chute, elle arrive maintenant. Et là c’est beaucoup plus important. » Rien qu’en 2025, Wikipédia voit une baisse de 10 à 15 % de son trafic. « Les gens n’utilisent même plus Google, ils demandent directement à Chat GPT ou Gemini. »

    (...)

    Tu vois, les IA génératives comme on te me les vend, c’est un monopole, un monologue, une centralisation de la parole, et si je voulais déblatérer, je dirais « un totalitarisme en devenir ».

    • Parmi les collégiens que je fréquente, sur lesquels pèse l’évaluation permanente de l’"école de la réussite", l’effet est atroce. Les questions ? "Ça sert à rien". Seules les réponses comptent.
      Dans le droit fil du désintérêt pour les observations écrites des profs sur les copies qui, lorsqu’elles sont remises, font bondir vers la calculette pour calculer sa moyenne sans qu’elles soient lues, les notices wikipedia sont perçues comme trop compliquées pour y piocher ce dont on a besoin.
      Tout se passe comme si dans l’abondance de l’information de puissants mécanismes de production d’une nouvelle pauvreté étaient à l’œuvre.

      #apprentissages #IA #internet #LLM

    • C’est le cœur de la construction de la démocratie qui est touché  : si tu ne peux plus faire confiance à rien, si tu ne peux plus trouver de faits, si tout est falsifié, comment compte-tu faire ton job de citoyen   ?

      Par ailleurs, quelle histoire de l’art, quelles inspirations, si les machines à falsifier volent et trafiquent des œuvres, voire en inventent à des artistes réels  ?

    • Au niveau de l’enseignement supérieur, c’est tout bonnement catastrophique. Une dizaine d’années à chercher des formes d’évaluation dialogiques, de favoriser la réflexion plutôt que le bachotage, hop tout ça à la poubelle. Ce n’est plus possible de demander un travail personnel à la maison. Je vais revenir aux devoirs sur table, aux oraux avec des questions surprises etc.

      Je demande les prompts depuis les chtgpg4. Dans le dernier essai en date, j’ai eu la preuve que toute notre culture open source a été débordée par le capitalisme de prédation. J’avais demandé à faire une lecture croisée de Fred Turner et de https://audimat-editions.fr/catalogue/teque-4... L’essai reçu en retour a été fait avec une compilation par le matou qui pète de recensions de revues et sites internet de je pense une partie des ouvrages fournis en version électronique (ou crawlé quelque part en v.o. pour le Turner).

      Le prompt qui m’a achevé dit « en gardant ce même texte rend le plus humain un style d’écriture proche du miens » parce que la forme était trop académique donc pas assez crédible venant de mon étudiant et il s’en est rendu compte.

      L’arrivée des gloubiboulga LLM en haut des résultats des moteurs de recherche rend totalement dingue d’autant plus que ces résultats sont pollués sur certains sujets par des fermes de site Made for advertising et autres slop IA.. vides de sens voir plein d’information fausses (je pense notamment à ce qui prolifère sur les questions de santé). L’internet mort ne commence pas en 2016, mais en 2023.

  • Comment les Israéliens ont élevé le déni d’atrocités au rang d’art

    Par Ron Dudai

    (...) Et pourtant, face au flot incessant de photos et de vidéos de civils morts, d’enfants affamés et de quartiers entiers réduits en ruines, une grande partie de l’opinion publique israélienne – et une part importante des partisans d’Israël à l’étranger – réagit de deux manières : soit tout cela est faux, soit les Gazaouis le méritaient. Souvent, paradoxalement, c’est les deux à la fois : « Il n’y a pas d’enfants morts à Gaza, et c’est une bonne chose que nous les ayons tués. »

    Une nouvelle ère de déni

    Le déni des atrocités est un phénomène mondial, mais la société israélienne en a fait un véritable art. Ce n’est pas un hasard si l’un des ouvrages universitaires les plus importants sur le sujet, « States of Denial » (2001), du sociologue Stanley Cohen, s’inspire de son expérience de militant des droits humains en Israël pendant la première Intifada, à la fin des années 1980.

    S’appuyant sur ces expériences, Cohen décrit un répertoire de déni employé tant par les États que par les sociétés : « cela n’a pas eu lieu » (nous n’avons torturé personne) ; « ce qui s’est passé est autre chose » (il ne s’agissait pas de torture, mais de « pressions physiques modérées ») ; « il n’y avait pas d’alternative » (la « bombe à retardement » a fait de la torture un mal nécessaire).

    En Israël, cette logique s’enracine dans le mythe de la « pureté des armes » (la croyance qu’Israël n’agit que par légitime défense) et dans la vieille mentalité du « tirer et pleurer » (l’idée que les Israéliens peuvent commettre des actes de violence tout en conservant une moralité singulière parce qu’ils en portent le deuil par la suite). Mais aussi odieux que puisse paraître cet état d’esprit, il repose néanmoins sur deux hypothèses importantes : que des atrocités comme la torture, le meurtre de civils et les déplacements forcés sont fondamentalement mauvaises et nécessitent donc d’être justifiées ou dissimulées ; et que la documentation et la révélation de la vérité ont une valeur, ne serait-ce que comme un obstacle à contourner.

    Aussi répugnante soit-elle, l’hypocrisie inhérente au mythe de la « pureté des armes » a son utilité : elle laisse une marge de manœuvre, aussi étroite soit-elle, pour corriger le tir. Une fois révélé, le fossé entre la rhétorique et la réalité peut provoquer l’embarras, voire exercer une pression pour le changement. Dans un tel monde, les images prises avec un téléphone et partagées instantanément ont un poids réel.

    Mais ce n’est pas le monde dans lequel nous vivons aujourd’hui. En Israël, l’instinct de rejeter toute documentation provenant de Gaza comme étant « fake » a été intégré au discours dominant, des plus hautes sphères du pouvoir politique jusqu’aux commentateurs anonymes des sites d’information. Ce réflexe est ancré dans un esprit conspirationniste importé des milieux de droite américains, à l’image de la rhétorique de « l’État profond » du président Donald Trump, devenue l’un des arguments favoris du Premier ministre Benjamin Netanyahou et de ses partisans. (...)

    Ce type de discours a commencé à s’infiltrer dans la société israélienne avant même le 7 octobre, d’abord en ligne, puis dans les arènes officielles. À mesure que la guerre s’éternise, il est devenu une réaction répandue, souvent un réflexe : une vidéo de parents palestiniens berçant le cadavre d’un nourrisson dans leurs bras ? « Des acteurs tenant une poupée. » Des photos de civils filmées par des soldats israéliens ? « Générées par l’IA, manipulées ou prises ailleurs. » Et ainsi de suite, à l’infini.

    Cette rhétorique a souvent été associée au terme « Pallywood », un mot-valise à partir de « Hollywood palestinien ». Importé des milieux d’extrême droite américains au début des années 2000, il suggère que les images de la souffrance palestinienne ne sont absolument pas réelles, mais relèvent d’une industrie cinématographique élaborée : une vaste conspiration dans laquelle Palestiniens, organisations de défense des droits humains et médias internationaux collaborent pour fabriquer des atrocités.

    À une époque où les atrocités étaient niées, les accusations de mise en scène étaient pour le moins élaborées. Nombreux sont ceux qui se souviennent encore du cas de Muhammad Al-Durrah, le garçon de 12 ans tué à Gaza en septembre 2000, dont la mort est devenue un symbole de la deuxième Intifada. Les Israéliens et leurs partisans ont déployé des efforts considérables pour tenter de discréditer les images : des centaines d’heures d’analyse, de reportages et même de documentaires, analysant les angles de prise de vue, la balistique et les détails médico-légaux pour affirmer que l’événement avait été entièrement mis en scène [par le journaliste franco-israélien Charles Enderlin, correspondant de France 2, qui avait filmé la scène et a été harcelé pendant des années].

    Aujourd’hui, le déni ne requiert plus de tels efforts. Les théories du complot complexes du passé ont cédé la place à une forme plus grossière de négationnisme que les spécialistes appellent conspirationnisme : le rejet réflexif de toute preuve contraire à leurs intérêts, la qualifiant de fabriquée. La documentation des faits est simplement balayée d’un seul mot : « Fake ».

    Post-vérité, post-honte

    Prenons, par exemple, les preuves irréfutables de la famine massive à Gaza. La logique est d’une simplicité déconcertante : une population assiégée, dont tous les moyens d’autosuffisance ont été détruits, mourra inévitablement de faim. Pourtant, en Israël, des commentateurs anonymes en ligne aux plus hautes sphères du gouvernement, le réflexe reste le même : « Tout cela est faux. »

    Netanyahou a évoqué la « perception d’une crise humanitaire », prétendument créée par des « photos mises en scène ou manipulées » diffusées par le Hamas. Le ministre des Affaires étrangères, Gideon Saar, a qualifié les images d’enfants émaciés de « réalité virtuelle », citant comme preuve la présence d’adultes « bien nourris » à leurs côtés. L’armée a affirmé que le Hamas recyclait des images d’enfants yéménites ou fabriquait des fausses images générées par l’IA. Le journaliste de Ynet, Itamar Eichner, par ailleurs très critique à l’égard du gouvernement, a partagé le même sentiment : « Ils [les Palestiniens] comprennent que les photos d’enfants affamés sont un point faible. Ces photos sont probablement mises en scène, et les enfants pourraient être atteints d’autres maladies. »

    Ce déni récurrent transparaît même dans le discours universitaire. Un rapport récent du Centre Begin-Sadat d’études stratégiques de l’Université Bar-Ilan, intitulé « Démystifier les allégations de génocide : un réexamen de la guerre Israël-Hamas (2023-2025) », comportait une section intitulée « Fausses sources et autres sources générées par l’IA ». (...)

    Parallèlement, le refus répréhensible de la grande majorité des médias israéliens de montrer ce qui se passe réellement à Gaza signifie que, lorsque des images parviennent à s’infiltrer, la réaction du public se résume souvent à un haussement d’épaules. Pourtant, presque à chaque fois, ce haussement d’épaules s’accompagne d’un « ils l’ont mérité », le déni et la justification s’entremêlant dans ce qui peut paraître paradoxal, mais qui reflète en réalité les deux faces d’une même médaille.

    Comme l’a récemment déclaré le ministre du Patrimoine, Amichai Eliyahu : « Il n’y a pas de famine à Gaza, et quand on vous montre des photos d’enfants affamés, regardez bien : vous en verrez toujours un gros à côté d’eux, en train de bien manger. C’est une campagne montée de toutes pièces. » Dans la même interview, il a ajouté : « Aucune nation ne nourrit ses ennemis. Avons-nous perdu la raison ? Le jour où ils rendront les otages, il n’y aura plus de faim. Le jour où ils tueront les terroristes du Hamas, il n’y aura plus de faim. »

    Après deux décennies de siège, durant lesquelles nous, Israéliens, avons tenté de faire disparaître Gaza et ses deux millions d’habitants palestiniens, le massacre du 7 octobre a brutalement ramené au premier plan ce que nous avions cherché à oublier. C’est peut-être à ce moment-là que les deux réponses – « faux » et « ils l’ont mérité » – ont pleinement convergé. La première sert l’image nationale (« nos enfants ne commettent pas d’atrocités ») et les exigences de la hasbara [propagande], gagnant du temps sur la scène internationale. La seconde est une réaction crue et viscérale à la douleur et à l’humiliation d’avoir été frappé par ceux longtemps considérés comme inférieurs. Ensemble, elles fusionnent en une réaction qui outrepasse tout appel à la moralité, ne nécessite aucune pause et n’exige aucune excuse.

    Et c’est là que réside le deuxième défi à la croyance selon laquelle les smartphones et les réseaux sociaux peuvent mettre fin aux atrocités. La lutte pour les droits humains a longtemps supposé que documenter les abus « pousserait » les auteurs à changer de comportement. Mais que se passe-t-il lorsque les auteurs n’éprouvent plus de honte et ignorent ouvertement la censure morale, voire l’idée même de vérité ? Dans ce cas, la documentation et la diffusion, aussi rapides et généralisées soient-elles, perdent leur pouvoir.

    En effet, comme l’ont montré les rapports sur les droits humains et les requêtes déposées devant les tribunaux internationaux ces deux dernières années, les dirigeants militaires, politiques et culturels israéliens admettent désormais ouvertement – ​​et de leur propre chef – ce que, dans d’autres circonstances, les groupes de défense des droits humains se seraient efforcés de prouver avec acharnement.

    Après des décennies de déni de la Nakba, allant jusqu’à interdire le terme lui-même, les législateurs israéliens déclarent aujourd’hui fièrement qu’Israël commet une seconde Nakba à Gaza. Alors qu’autrefois les bénévoles de B’Tselem devaient filmer minutieusement les atrocités en Cisjordanie, pour se voir opposer une excuse ou une autre, comme celle de dire que les incidents avaient été « sortis de leur contexte », aujourd’hui, les soldats israéliens enregistrent eux-mêmes les violations des droits humains et les publient sans hésiter sur les réseaux sociaux.

    Nous assistons à l’effondrement du cycle traditionnel de révélation, de déni et de confirmation. Dans une telle réalité, à quoi servent les smartphones et les réseaux sociaux ?

    Fissures dans l’édifice

    Si l’intérêt de documenter les atrocités est bien moindre que ce que nous espérions par le passé, il n’en demeure pas moins significatif. Au moment où j’écris ces lignes, il semble que les réflexes du « fake » et du « ils l’ont mérité » se heurtent enfin à des obstacles solides.

    Face aux preuves abondantes et inexorables de la famine à Gaza, les dénonciations de "fake" se font de plus en plus frénétiques et désespérés. L’allégation virulente, sans cesse répétée dans le discours israélien, selon laquelle un enfant gazaoui souffrant d’une maladie préexistante absoudrait en quelque sorte Israël de sa responsabilité dans la famine dont il est victime, n’a apparemment pas réussi à enrayer la reconnaissance croissante en Israël de la souffrance des Palestiniens et de son injustice fondamentale.

    Les contorsions désormais courantes dans les arguments israéliens – qu’il y a bien une famine à Gaza, mais que le Hamas en est responsable ; qu’il s’agit d’une conséquence involontaire de la guerre ; ou que le monde fait preuve d’hypocrisie en ne traitant pas la famine au Yémen de la même manière – nous renvoient tous au répertoire de dénégations décrit par Stanley Cohen. Pourtant, ils suggèrent aussi autre chose : la réapparition hésitante de la gêne, voire de la honte, au moins dans certains segments de la population israélienne.

    Ce qui semble avoir contribué à ce changement, ce sont, d’une part, les réactions de la communauté internationale face à la famine, et, d’autre part, la possibilité de reconnaître la faim sans impliquer directement les soldats et les pilotes (nos « meilleurs fils »). Pourtant, l’accumulation de photos et de documents incontestables provenant de Gaza a également joué un rôle. La persévérance des individus et des organisations à documenter et à dénoncer la situation – depuis Gaza et au-delà –, ainsi qu’à valider et diffuser ces informations en Israël et dans le monde, a finalement eu un impact.

    Mais le projet israélien d’occuper la ville de Gaza et de déplacer de force ses habitants vers ce qui pourrait s’apparenter à un camp de concentration, en prévision de leur éventuelle expulsion définitive, menace de transformer un désastre déjà grave en une situation encore pire. L’opinion publique israélienne va-t-elle s’enfoncer davantage dans le déni ou être enfin contrainte d’affronter la réalité ?

    https://www.972mag.com/israelis-atrocity-denial-gaza

    • Très juste. Article essentiel pour comprendre l’usage des mots et des « éléments de langage ».
      par exemple « la guerre Israël-Hamas », expression qui voulait simplement supprimer Gaza du paysage. Comme si les Gazaouis n’existaient déjà pas/plus, et que les armes « justes » ne visaient que les « terroristes ».
      La guerre, c’est toujours une affaire de territoire : imposer sa domination sur une portion du monde et ses habitants (ou alors supprimer les habitants).
      Cela a toujours été une guerre Israël-Gaza (qui d’ailleurs à commencé il y a plusieurs décennies).
      Qu’il ait fallu deux ans de crimes de guerre, de crimes contre l’humanité, et de génocide pour que les journaux arrêtent d’employer cette expression montre bien la force de ceux qui tiennent le langage et en font une arme de guerre (psychologique).
      Même chose dans la reprise durant deux années de l’expression « xxxx morts selon le Ministère de la santé du Hamas », alors qu’il s’agissait du ministère de la Santé de Gaza, certes détenu par le Hamas, mais qui assurait en l’occurrence une mission de service public. Mais prononcer « Hamas » dans une phrase avait pour mission de décrédibiliser tout ce qui constituait une information.
      Il aura fallu cet été pour que les chiffres soient corroborés par « des données confirmées par l’ONU ».
      Mais ce doit être parce que les journalistes ne peuvent pas entrer dans Gaza que les images qui en viennent sont soumises au doute ou à la dépréciation langagière. Les journalistes occidentaux sont tellement crédibles et indifférents aux pressions langagières des dominants qu’on en oublie que des journalistes locaux existent et sont sur place, décrivent, documentent. Certains ont même obtenu un Prix Pulitzer... avant d’être délibérément assassinés par l’armée israélienne, comme plusieurs centaines de ses confrères. Ne pas être présent n’a jamais empêché les journalistes de traiter de tas de sujets, de s’appuyer sur le travail de leurs confrères locaux, et aussi parfois de se servir de leur simple jugeote : sans eau, sans production locale, sans entrée de vivres... deux millions de personnes déplacées, vivant souvent dehors souffrent forcément au delà du dicible.

  • Ivan Jablonka : « Pour ne plus être drogué culturellement au #féminicide, il faut en changer les représentations »

    https://www.liberation.fr/idees-et-debats/ivan-jablonka-pour-ne-plus-etre-drogue-culturellement-au-feminicide-il-fa

    En 2016, l’historien Ivan Jablonka publiait Laëtitia (Seuil), livre de non-fiction qui avait été récompensé du prix Médicis du roman français. C’était une enquête sur le meurtre de Laëtitia Perrais, qui, à 18 ans, en 2011, fut assassinée, démembrée, poignardée. L’ouvrage était également un récit puisque Jablonka dressait autant que possible le portrait de Laëtitia Perrais, racontait son enfance, donnant ainsi à l’histoire de victime une densité que le rapport factuel du fait divers par les journaux ne lui octroyait pas.

    Depuis l’écrivain poursuit ce travail sur la masculinité et le patriarcat (Des hommes justes. Du patriarcat aux nouvelles masculinités, en 2019 ; Un garçon comme vous et moi, en 2021, tous les deux édités au Seuil) et publie en cette fin août un texte sur les représentations culturelles et l’imaginaire du féminicide « depuis la Bible jusqu’à Netflix », comme il l’écrit lui-même.

    https://pastebin.com/BLx8zeJ9

  • De manière plus générale, la réhabilitation de l’étiquette « beauf » fait l’impasse sur le problème politique suivant : que faire lorsque des personnes de classes populaires ont des comportements qui ne relèvent pas de simples pratiques culturelles, mais de rapports de domination, voire de violence, vis-à-vis d’autres groupes dominés, tels que des propos ou actes sexistes et racistes ? Faudrait-il ne pas les dénoncer par crainte d’être taxé de mépris de classe ? Autre difficulté : la représentation caricaturale des classes populaires en tant que « beaufs » tend à rétrécir leur univers culturel à des pratiques consuméristes normées par l’industrie culturelle de masse. Un tel raccourci tend à figer les classes populaires dans un imaginaire de désir uniquement orienté vers les standards du capitalisme marchand et à sanctuariser ainsi les rapports sociaux existants, tout en faisant fi des tentatives historiques de création de contre-cultures populaires liées à des projets de transformation sociale (telles qu’elles ont pu exister au sein de mouvements d’éducation populaire souvent liés à des institutions, comme le Parti communiste français).

    https://seenthis.net/messages/1129546

  • Triomphe du « beauf », par Élie Guéraut & Laélia Véron (Le Monde diplomatique, août 2025)
    https://www.monde-diplomatique.fr/2025/08/GUERAUT/68622

    On pourrait croire que ce mot dessine un clivage entre la gauche (qui traiterait ses adversaires de « beaufs ») et la droite (dont certains représentants revendiqueraient le terme). Or deux livres récents, Beaufs et barbares, de Houria Bouteldja (La Fabrique, 2023), et Ascendant beauf (Seuil, 2025), de Rose Lamy, reviennent sur cette catégorie pour en interroger la charge méprisante et tenter, chacune à leur manière, de la réhabiliter afin de (re)construire des alliances de classe favorables à la gauche.

    L’article qui suit étant censé critiquer cette posture. Quelqu’un l’a vu quelque part ?

    #paywall #beauf #Laélia_Véron #Élie_Guéraut

    • (...) dès ses débuts, le « beauf » peut déborder le #populaire et appartenir à la (petite) bourgeoisie économique. Ce qui le caractérise, c’est une distance aux cultures scolaire et savante ainsi qu’aux mondes intellectuels qui les portent. Il se tourne au contraire vers un consumérisme de masse, voire étale sa richesse de manière ostentatoire. Ainsi, l’ancien président français Nicolas Sarkozy - lorsqu’il se moquait du « sadique ou de l’imbécile » qui a mis La Princesse de Clèves au programme d’un concours de la fonction publique ou quand il rencontrait le pape accompagné de l’humoriste Jean-Marie Bigard - a largement été qualifié de « beauf » par certains journalistes, par exemple dans les colonnes de L’Humanité (2). Aujourd’hui, on peut se demander si des figures politiques contemporaines de premier plan comme MM. Javier Milei ou Donald Trump ne correspondent pas, elles aussi, à cette vision du « beauf ». Incarnations idéal-typiques de la « fragilisation des liens entre culture savante et classes supérieures (3) », tous deux mettent en scène une distance maîtrisée à la culture légitime dans le cadre d’une communication politique populiste.

      [...]

      De manière plus générale, la réhabilitation de l’étiquette « beauf » fait l’impasse sur le problème politique suivant : que faire lorsque des personnes de classes populaires ont des comportements qui ne relèvent pas de simples pratiques culturelles, mais de rapports de domination, voire de violence, vis-à-vis d’autres groupes dominés, tels que des propos ou actes sexistes et racistes ? Faudrait-il ne pas les dénoncer par crainte d’être taxé de mépris de classe ? Autre difficulté : la représentation caricaturale des classes populaires en tant que « beaufs » tend à rétrécir leur univers culturel à des pratiques consuméristes normées par l’industrie culturelle de masse. Un tel raccourci tend à figer les classes populaires dans un imaginaire de désir uniquement orienté vers les standards du capitalisme marchand et à sanctuariser ainsi les rapports sociaux existants, tout en faisant fi des tentatives historiques de création de contre-cultures populaires liées à des projets de transformation sociale (telles qu’elles ont pu exister au sein de mouvements d’éducation populaire souvent liés à des institutions, comme le Parti communiste français).

      En définitive, les usages de la notion de « beauf » mêlent, le plus souvent, deux critiques, sociale et morale. S’il ne faut certes pas évacuer la question morale (il n’est ni juste, ni d’ailleurs politiquement efficace, de faire preuve d’un mépris culturel afin de disqualifier des groupes sociaux « ennemis » ou jugés comme tels), la seule condamnation du mépris culturel peut oblitérer la compréhension des conditions sociales de production de ce mépris. En outre, sur le plan politique, il faut être capable de reconnaître que les pratiques culturelles peuvent être critiquées et faire l’objet d’un travail d’appropriation et de transformation (qui se mène de fait dans le monde associatif, les médias, le champ artistique, etc.). La culture n’est pas seulement un espace de jeux de distinction sociale, mais aussi un terrain de luttes politiques.

      #classes_populaires #culture

    • Personnellement je ne me retrouve que moyennement dans ce texte, ou alors je le trouve maladroit, parce que justement je n’applique pas, personnellement, l’insulte « beauf » aux classes populaires (sinon : évidemment ce serait du mépris de classe assez transparent), mais aux personnes des classes aisées qui adoptent volontairement des comportements qu’ils supposent plaire aux classes populaires.

      La dernière fois que j’ai utilisé le terme « beauf réjoui » sur Seenthis, c’est pour Macron, en train de faire dans le populisme pro-bagnole et anti-écolo.

      L’article répète : « dans les représentations communes, la catégorie de “beauf” est bien liée au populaire, même si elle le déborde partiellement », mais les seuls « beaufs » explicitement nommés dans l’article sont :
      – Cyril Hanouna
      – Nicolas Sarkozy
      – Javier Milei et Donald Trump
      – François Bégaudeau.
      Des gens qui ne « débordent » pas que « partiellement » du « populaire »…

      D’où mon souci avec cet article : il me semble qu’il y a désormais une importante seconde (troisième ?) étape dans cette utilisation du terme beauf, justement basé sur le refus d’attribuer aux classes populaires, ni même aux petits bourgeois, le qualificatif de « beauf ». Le terme est alors utilisé pour dénoncer justement l’attitude des élites économiques, médiatiques, politiques, qui singent ce qu’ils pensent plaire au populaire. Les beaufs sont alors non pas les classes populaires, mais les riches qui croient que, pour plaire aux pauvres, il faut « faire beauf ».

      L’article dit bien que cette réduction ad beaufitude des classes populaires est méprisante et basée sur une idée fausse. Mais il faudrait alors expliciter que justement, ce qu’on qualifie alors de « beauf », c’est l’attitude des puissants à adopter ce qu’ils croient être une culture populaire qui serait beauf (ie : vaguement illétrée, raciste et sexiste). Le « beauf », alors, c’est justement celui qui, depuis une situation aisée, met en scène son propre mépris de classe. Le beauf, c’est Macron à deux doigts d’adopter l’accent parigot pour dire qu’« on aime la bagnole », histoire de plaire à ceux qui, toujours selon lui, « ne sont rien ».

      Par ailleurs, l’article continue à focaliser l’utilisation du qualificatif « beauf » sur le rapport à la culture (opposition entre « “beaufs” et goûts légitimes »). Avant tout de même de poser la question : « que faire lorsque des personnes de classes populaires ont des comportements qui ne relèvent pas de simples pratiques culturelles, mais de rapports de domination, voire de violence, vis-à-vis d’autres groupes dominés », débordant donc de la question culturelle, mais en restant focalisé sur les classes populaires. Or, justement, c’est bien là que se niche l’utilisation du terme « beauf » aux personnes citées plus haut (Hanouna, Sarkozy, Trump), qui ne surgit pas parce que ces gens afficheraient une vulgarité de goûts, mais bien parce que leur « faire beauf » est uniquement consacré à la promotion d’un agenda réactionnaire, et que si on les qualifie de « beauf », c’est parce qu’ils orientent leur populisme uniquement sur un axe raciste, sexiste, homophobe…

  • (1) Pourquoi cette ligne de train n’existe plus ? | ATLAS - YouTube
    https://www.youtube.com/watch?v=lyWhhLSH2gw

    Pour prendre le train de Bordeaux à Lyon, il faut passer... par Paris. Une absurdité lorsqu’on regarde une carte, et pourtant : il n’y a pas de ligne directe entre les deux métropoles. Le pire dans cette histoire, c’est qu’il y a bien des rails entre les deux villes. Parce que la ligne Bordeaux-Lyon, elle a bel et bien existé. On a simplement ... enlevé les trains. Dans cet épisode d’Atlas, on vous emmène sur les traces de ce train fantôme que certains et certaines voudraient aujourd’hui ressusciter.

    Les sources de notre vidéo :

    « Grandeur, décadence et possible renouveau du réseau ferroviaire secondaire français », par Antoine Beyer : https://geoconfluences.ens-lyon.fr/in...[…]cles-scientifiques/reseau-ferroviaire-secondaire-france
    « Lyon-Bordeaux, ces liaisons ferroviaires voyageurs dont les handicaps ont été résolus par… leur liquidation », sur le blog de Raildusud : https://raildusud.canalblog.com/archi...
    « Fret : pourquoi le train n’a‑t-il pas (encore) remplacé le camion ? », par Aurélien Bigo : https://www.polytechnique-insights.co...
    « La ligne Bordeaux-Lyon, symbole du déclin des liaisons ferroviaires transversales », par Romane Laignel Sauvage : https://www.ina.fr/ina-eclaire-actu/b...
    Le rapport « TET : agir pour l’avenir », dit « Rapport Duron » : https://www.vie-publique.fr/files/rap...
    « Le droit de péage, cette taxe qui fait exploser le prix du train en France », par Sophie Vincelot : https://www.lefigaro.fr/voyages/conna...
    « Liquidation de Railcoop : les raisons d’un échec », par Lorène Lavocat : https://reporterre.net/Liquidation-de...

    00:00 : Intro
    00:48 : Collaboration commerciale
    02:23 : Suite de la vidéo

  • « On est un peu les sacrifiés de la Data City ! » : à Marseille, les data centers colonisent les quartiers populaires - L’Humanité
    https://www.humanite.fr/social-et-economie/numerique/on-est-un-peu-les-sacrifies-de-la-data-city-a-marseille-les-data-centers-co


    Les conflits de l’eau devraient être plus rapides.

    Le collectif cartographie les fermes de données marseillaises, mais mène aussi des actions d’éducation populaire, par le biais de balades organisées notamment. « Le data center est l’incarnation matérielle d’une certaine forme de capitalisme, poursuivent les militants. Il résume de nombreux enjeux contemporains : l’impérialisme américain, le technocapitalisme, l’extractivisme, la course à l’intelligence artificielle… »

    L’écolo Sébastien Barles, qui fut l’un des tout premiers à se mobiliser, ne dit pas autre chose : « À Marseille, c’est une forme de prédation à la fois foncière et énergétique, pour des retombées économiques très contestables. Un data center crée en moyenne dix fois moins d’emplois qu’une industrie manufacturière classique ! Pour des conflits d’usage en matière d’électricité qui sont évidents. »

    Au cours des dix prochaines années, l’ensemble des data centers de la région devraient avoir besoin de 1 200 MW d’électricité supplémentaires, selon les données officielles. Cela représente autant d’électricité qu’il en faudra pour décarboner toute l’industrie régionale et six fois plus que pour l’aménagement urbain et les hôpitaux. « Il est évident que nous aurons besoin de plus de puissance électrique, convient Sébastien Barles. Mais il faudrait réfléchir en termes d’utilité sociale : bien souvent, les data centers servent à alimenter l’essor des transactions financières, du bitcoin ou de la pub imposée. »

    • Enquête : à Marseille comme ailleurs, l’#accaparement du territoire par les infrastructures du numérique

      Depuis fin 2023, le collectif marseillais Le Nuage était sous nos pieds enquête, analyse et lutte contre les impacts sociaux, écologiques et politiques des infrastructures du numérique à Marseille, en particulier des câbles sous-marins et des data centers. Ce collectif est composé d’habitant·es de Marseille, affilié·es à au moins trois entités : le collectif des Gammares, collectif marseillais d’éducation populaire sur les enjeux de l’eau, Technopolice Marseille, qui analyse et lutte contre les technologies de surveillance policière et La Quadrature du Net, association de défense des libertés fondamentales dans l’environnement numérique. Dans cet article, nous restituons une partie de l’enquête menée par le collectif sur les infrastructures numériques à Marseille, leur impact socio-environnemental et le monde délétère qu’elles représentent, enquête que nous élargissons au delà du territoire marseillais, inspiré·es notamment par les échanges lors du festival « Le nuage était sous nos pieds » qui a eu lieu les 8, 9 et 10 novembre dernier à Marseille.

      Arrivent à Marseille aujourd’hui environ seize câbles sous-marins intercontinentaux qui atterrissent, transitent et relient l’Europe et la Méditerranée à l’Asie, au Moyen Orient, à l’Afrique, aux États-Unis. Ce sont ces câbles intercontinentaux qui permettent à l’information numérique de circuler, en particulier sur le réseau Internet, et aux services numériques déployés dans ce qu’on appelle « le cloud », d’apparaître sur nos écrans : mails, réseaux sociaux, vidéos et films en streaming. Au point de croisement de ces « autoroutes de l’information » : les data centers. Ces méga-ordinateurs bétonnés en surchauffe renferment des milliers de serveurs qui rendent possible le technocapitalisme et ses données numériques invisibles : la collecte massive de données personnelles, servant à l’analyse de nos comportements constamment traqués et traités à des fins marketing, la publicité numérique qui pollue nos cerveaux, la vidéo-surveillance policière et plus largement la gouvernance et la surveillance algorithmiques dopées à l’intelligence artificielle qui discriminent et sapent nos libertés fondamentales. Derrière ces infrastructures, ce sont également l’accaparement des terres et des ressources en eau, mais aussi la pollution de l’air, la bétonisation de nos villes réchauffées, et les réalités tachées du sang de l’extractivisme numérique colonial que les puces des serveurs qui peuplent ces data centers renferment. Et ce sont encore une fois des industries peu scrupuleuses qui, aidées par des politiques honteuses, s’accaparent nos territoires et nos vies.

      Data centers et #câbles_sous-marins transcontinentaux

      La présence de ces 16 câbles sous-marins intercontinentaux attire à Marseille les gestionnaires de data centers, ces entrepôts géants où s’empilent des serveurs par milliers, appartenant en grande majorité à Google, Amazon, Microsoft, Meta, Netflix, Disney+, Capgemini, Thalès, etc. Des serveurs qui stockent et font transiter des données, des serveurs qui rendent possibles les services numériques et les échanges de données décrits plus haut. Depuis une dizaine d’années, et de façon accélérée depuis 2020, une douzaine de data centers ont été construits un peu partout dans Marseille intra muros, et plusieurs nouveaux sont en chantier ou annoncés dans la ville et aux alentours. On y trouve ainsi cinq data centers de Digital Realty, un géant américain d’investissement immobilier coté en bourse, spécialisé en gestion de data centers dits neutres ou de colocation. Cette entreprise construit, aménage et gère le fonctionnement du bâtiment, et loue ensuite les emplacements de serveurs à d’autres sociétés, telles Microsoft, Amazon, Google, Netflix ou d’autres. Ces data centers de colocation sont bien implantés en France, mais dans d’autres pays et territoires, Amazon, Microsoft, Google et autres géants du numérique construisent leurs propres bâtiments de data centers et toute l’infrastructure nécessaire à leur fonctionnement : postes électriques de transformation du courant, réseaux fibrés terrestres, câbles sous-marins transcontinentaux, etc.

      À Marseille, le géant Digital Realty, un des trois leaders mondiaux de data centers de colocation, possède quatre data centers MRS1, MRS2, MRS3, MRS4 et est en train d’en construire un cinquième, MRS5, tous sauf MRS1 situés dans l’enceinte du Grand Port Maritime de Marseille (GPMM). Les autres data centers marseillais sont souvent situés dans le nord de la ville. Dans le quartier de Saint-Henri notamment, où un data center de colocation de Free Pro est actuellement en cours d’agrandissement pour doubler de taille, se partageant l’espace avec un data center de Telehouse. Dans le quartier de Saint-André, un projet de data center surdimensionné de Segro viens d’être annoncé. Tandis qu’à la Belle-de-Mai un data center de Phocea DC est en construction. Il y a même eu un projet de data center flottant dans le Grand Port, par l’entreprise Nautilus ! Hors des limites municipales, à Bouc-Bel-Air, Digital Realty a également un projet de construction d’un sixième data center, bien plus grand que les précédents, baptisé MRS6.

      Marseille n’est pas la seule ville concernée. La France, avec ses plus de 300 data centers, se situe aujourd’hui au 6ème rang mondial des pays en accueillant le plus, après les États-Unis, l’Allemagne, le Royaume-Uni, la Chine et le Canada. En Île-de-France, premier territoire d’implantation française avec plus de 160 data centers en 2023, juste devant Lyon (18), puis Marseille (12), Digital Realty y possède 2 hubs d’un total de 17 data centers (et plusieurs autres en construction), concentrés pour la plupart en Seine-Saint-Denis. Equinix, autre géant du top 3 mondial des data centers de colocation en possède 10, tandis que Data4, Scaleway ou Free Pro, OVH, Telehouse, Verizon, Zayo et autres acteurs se partagent les 72 restants.

      Les seize câbles sous-marins intercontinentaux qui arrivent aujourd’hui à Marseille sont répertoriés par Telegeography, une entité qui maintient Submarine Cable Map, une des cartes mondiales de référence de ce type de câbles. Ils sont construits et déployés au sein de consortiums internationaux regroupant plusieurs entreprises et multinationales du numérique. On y retrouve en premier lieu les géants du numérique — Google, Facebook/Meta, Microsoft et Amazon — qui sont désormais les premiers financeurs et les acteurs principaux des projets de déploiement de ces câbles sous-marins intercontinentaux. On y retrouve également des entreprises de télécommunications telle que Orange, mais aussi des opérateurs internationaux, qui seront souvent en charge de l’atterrissement des câbles sur les plages, ainsi que des stations ou centres d’atterrissement de ces câbles, permettant la transition entre les infrastructures sous-marines et le réseau câblé terrestre. On y retrouve également des entreprises qui fabriquent et déploient ces câbles en mer, comme Alcatel Submarine Networks qui vient d’être racheté par l’État français, et qui est un des trois leaders mondiaux dans ce domaine avec TE SubCom (Suisse) et NEC Corporation (Japon).

      Mainmise des géants du numérique

      Ces câbles sous-marins et leurs centres d’atterrissements sont aujourd’hui des infrastructures stratégiques, avec des enjeux géopolitiques mondiaux importants, mais où la domination des géants numériques est, là aussi, en passe de devenir la norme. Ainsi à Marseille, la plupart des nouveaux câbles sous-marins construits ou en cours de construction ces dernières années ont pour principal acteur Facebook (2Africa), Google (Blue), et Microsoft (SeaMeWe-6). Parmi les opérateurs télécoms et fournisseurs d’accès à Internet du monde entier que la présence de câbles sous-marins intercontinentaux attire également à Marseille, on retrouve la multinationale française Orange, qui possède dans la ville au moins un data center pour ses propres besoins et plusieurs centres d’atterrissements de câbles sous-marins. On retrouve aussi Verizon, opérateur américain de télécommunications avec un data center couplé à un centre d’atterrissement de câbles sous-marins, Omantel, la compagnie nationale de télécommunications d’Oman qui en possède également un — pour ne citer que les opérateurs identifiés par le travail d’enquête et de cartographie des infrastructures numériques à Marseille réalisé par le collectif Le Nuage était sous nos pieds. Vous pouvez retrouver ce travail de cartographie mené sur le terrain, sur la carte libre et collaborative OpenStreetMap, et de façon condensée sur cette carte élaborée lors de cette enquête.

      On retrouve également à Marseille la présence de plusieurs Internet Exchange Points (IXP), ou points d’échange d’Internet, des infrastructures physiques où opérateurs télécom, fournisseurs d’accès à internet (FAI) mais aussi entreprises offrant leurs services numériques, se branchent et s’échangent du trafic sans coûts à travers des accords mutuels. Ainsi, comme l’explique Stéphane Bortzmeyer dans L’interconnexion pour les nuls, un client de Sfr qui envoie un mail via sa connexion gérée par son opérateur, donc via des infrastructures terrestres de Sfr, peut interagir avec d’autres clients que ceux de Sfr et même accéder à tout internet. Cette interconnexion, qui se fait essentiellement au sein des IXP, s’appelle aussi le « peering », et constitue, selon l’Arcep (Autorité de régulation des communications électroniques, des postes et de la distribution de la presse en France), « une relation technico-économique au fondement de l’Internet ». L’avantage des IXP réside dans le fait que ce sont des infrastructures souvent gérées de façon non commerciale et neutre, souvent par des structures associatives (comme FranceIX en France parmi d’autres) et qui permettent ainsi l’interconnexion des réseaux sans surcoûts, en optimisant les coûts d’échange, mais aussi la latence et la bande passante. Ces IXP sont très souvent localisés physiquement dans les data centers.

      Il y a au moins 6 points de présence IXP aujourd’hui à Marseille comme on peut le voir sur cette base de données européenne accessible librement. Les IXP marseillais semblent tous localisés dans les data centers de Digital Realty, et on peut voir pour chacun d’eux (onglet Points of Presence) la liste des acteurs numériques qui y sont branchés : TikTok, Google Cloud, Amazon Web Services, Disney+, Netflix, Zoom, la liste des géants habituels est longue. La proximité de ces IXP avec les câbles sous-marins transcontinentaux à Marseille permet une latence et une bande passante optimales, tandis que leur présence au sein même des data centers, au plus près des services numériques qui y exploitent l’espace, est également un argument commercial supplémentaire pour ces derniers. Au niveau national, Paris, avec sa douzaine d’IXP, est avec Marseille le territoire où se trouvent la plupart des IXP, devant Lyon et d’autres grandes métropoles. On trouve les emplacements et les spécificités des IXP dans le monde sur une carte maintenue par Telegeography.

      L’ensemble des câbles sous-marins intercontinentaux, les points d’échanges Internet et les data centers hébergeant les nombreux services numériques des entreprises dominantes mondiales du secteur font de Marseille le deuxième hub numérique français après Paris, et le 7ème au rang mondial, en passe dit-on de devenir le 5ème.
      Data centers : une implantation territoriale opportuniste et des politiques d’État accueillantes

      Partout dans le monde, l’implantation des data centers se fait de façon opportuniste, tirant avantage des spécificités de chaque territoire. Ainsi, à Marseille c’est la présence des câbles sous-marins de liaison Internet transcontinentales, ainsi que celle des grands acteurs des télécoms et des points d’échange Internet. Mais c’est également une opportunité foncière peu chère au sein du territoire du Grand Port Maritime de Marseille (GPMM), cet établissement public placé directement sous la tutelle de l’État, ayant des missions de service public administratif et de service public à caractère industriel et commercial. En réalité le GPMM est géré comme une entreprise, et ses dirigeants nommés directement par l’État, trouvent dans ces projets d’entrepôts de données numériques une opportunité de mutation lucrative pour son patrimoine immobilier, autrefois occupé par des activités portuaires en déclin. Comme aime à le souligner Christophe Castaner, président du conseil de surveillance du GPMM, le « French smartport de Marseille-Fos […] ouvre la voie au concept de hub maritime des données », et est un port entrepreneur qui « craint avant tout sa désindustrialisation ».

      En Île-de-France, l’implantation des data center se fait essentiellement dans le département de Seine-Saint Denis, en particulier à La Courneuve, Aubervilliers et Saint-Denis, membres de l’établissement public territorial de Plaine Commune, en charge de leur aménagement et développement économique, social et culturel. Autrefois territoire agricole alimentant les Halles de Paris, ces zones sont devenues progressivement industrielles dans les années 60 – 70, se désindustrialisant brutalement à partir des années 90. Les anciennes friches industrielles, à bas prix malgré leur proximité immédiate avec Paris, deviennent alors une opportunité foncière peu chère pour de nouvelles industries telle les data centers et les opérateurs télécoms qui s’y installent en masse depuis les années 2010. On retrouve donc là encore des dynamiques foncières et économiques, poussées par des politiques d’État, similaires à celles de Marseille.

      Mais de façon générale, comme aime le dire l’association France Datacenters, la plus grande association de lobbying en la matière, la France est « la destination idéale », une véritable « data centers nation ». En effet, détaille l’association dans cette vidéo promotionnelle, la France possède des secteurs économiques solides et diversifiés, tels ceux du numérique et des télécommunications, de la finance, de l’automobile ou de l’aéronautique, secteurs moteurs des data centers. Le gouvernement français a, poursuit-elle, lancé de nombreuses initiatives et des financements dédiés à la numérisation des industries (10 milliards dédiés au secteur numérique au cours des dernières années), permettant au secteur des data centers une croissance multipliée par deux entre 2016 et 2021, avec un milliard d’euros d’investissement annuel. Mais aussi et surtout, un foncier peu cher et facilement accessible, une énergie électrique à bas coût (la deuxième la moins chère en Europe, avec une moyenne de 84 euros le mégawattheure en 2020) et à faibles émissions carbone (car majoritairement nucléaire). L’infrastructure réseau de la France, avec son réseau fibré, sa 5G et ses câbles intercontinentaux, est également présentée comme un atout majeur à bas coût d’accès. L’infrastructure électrique française est présentée comme très développée et solide, ayant un coût de maintenance infrastructurelle gratuit pour les data centers, car maintenue par les entreprises publiques RTE et Enedis, qui ont promis un investissement de plus de 100 milliards d’euros d’ici 2035 sur cette infrastructure. Cette vidéo souligne de plus que les industries disposent en France de nombreux avantages fiscaux, et même de financements régionaux pour leur implantation.

      Le lobby des data centers de France peut en effet compter sur des politiques favorables. En 2018, l’Assemblée nationale a voté, sur proposition du député Bothorel, une aide fiscale pour les data centers, consistant à appliquer un tarif réduit à la taxe intérieure de consommation finale d’électricité (TICFE), d’ordinaire de 22,5 euros par mégawattheure (MWh), qui sera alors divisée par 2 pour les data centers, soit 12 euros par mégawattheure, au-delà du premier GWh consommé. En 2019, l’ancien ministre de l’économie Bruno Le Maire, lors de l’inauguration à Pantin d’un data center d’Equinix hébergeant, parmi des géants américains, Docaposte (groupe La Poste) et les serveurs de la SNCF, déclarait :

      Notre ambition c’est que la France soit la première terre d’accueil de data centers en Europe. […] L’installation sur le territoire national de data centers est une nécessité pour accélérer l’accès des entreprises aux outils de la transformation numérique et un enjeu de souveraineté pour maintenir sur le territoire national les données sensibles des entreprises.

      Deux ans plus tard, en 2021, le ministre, accompagné de Cédric O, alors secrétaire d’État chargé du numérique, lançait, dans le cadre du Plan « France Relance », la stratégie nationale d’accélération pour le Cloud :

      Doté de 1,8 milliard d’euros, dont 667 millions d’euros de financement public, 680 millions d’euros de cofinancements privés et 444 millions d’euros de financements européens, […] vise à renforcer le soutien à l’offre de la filière industrielle de cloud française et mise sur l’innovation et les atouts de l’écosystème français du Cloud, […] accélérant le [en gras dans le texte] passage à l’échelle des acteurs français sur les technologies critiques très demandées, telles le big data ou le travail collaboratif […]

      Ce plan a surtout servi les GAFAM et leur implantation plus profonde dans nos territoires. Ainsi, peu après, les français OVH et Dassault Systems concluent un partenariat avec les clouds de Google et Microsoft, que le gouvernement approuve sous couvert de leur localisation dans des data centers en France, pour accueillir des données sensibles. C’est ce qui permettra au Health Data Hub, ce projet de privatisation des données de santé des français, que nous dénoncions en 2021, de continuer à être hébergé par Microsoft en France jusqu’au moins en 2025, malgré de nombreuses contestations de la société civile et d’associations. Orange, quant à lui, a conclu dès 2020 un accord avec le cloud AWS d’Amazon pour « accélérer la transformation numérique des entreprises vers le cloud AWS ». Google, suite à l’annonce du plan stratégique cloud en 2021, déclare alors commencer son plan d’implantation en France, qui est désormais terminé avec succès. Plus récemment, sur le site de l’Élysée, on peut lire l’annonce du dernier plan d’investissement de Microsoft (4 milliards d’euros en France) pour étendre son infrastructure cloud dédiée à l’IA, « le plus important à ce jour dans le pays, pour soutenir la croissance française dans la nouvelle économie de l’intelligence artificielle » salué par Emmanuel Macron qui s’est déplacé pour l’occasion jusqu’au siège français de l’entreprise. On peut y lire :

      Microsoft a ainsi dévoilé l’extension de son infrastructure cloud et IA en France avec l’expansion de ses sites à Paris et Marseille qui doteront le pays d’une capacité allant jusqu’à 25 000 GPU de dernière génération d’ici fin 2025, et l’ouverture de nouveaux sites pour héberger des centres de données de nouvelle génération dans les agglomérations de Mulhouse et de Dunkerque.

      À Mulhouse, le data center dédié IA de Microsoft a déjà commencé à être construit à Petit-Landau, village de 800 habitants, qui possède ironiquement, la distinction de Commune Nature, pour ses « actions orientées vers la préservation de la biodiversité et l’amélioration de la qualité des eaux du bassin Rhin-Meuse ».

      Les data centers : ces mega-ordinateurs bétonnés en surchauffe aux multiples dangers environnementaux

      Un data center, infrastructure pilier de ce qu’on a appelé le « cloud », n’a rien de nuageux, de léger ou de vaporeux. Au contraire, ces grands entrepôts sont des bâtiments bétonnés de plusieurs étages, aux planchers et parois fortifiés, lourds et massifs, pour pouvoir supporter sans risques d’effondrement le poids conséquent des milliers de serveurs qu’ils abritent. Ces serveurs, qui tournent en permanence, utilisent de grandes quantités d’électricité. Ils sont dotés chacun de nombreuses puces et composants électroniques tels des processeurs et cartes graphiques, qui génèrent de la chaleur en quantité. Ces serveurs ont besoin, pour garder un fonctionnement optimal et éviter les pannes, de bénéficier d’une température d’air ambiant ne dépassant pas les 28 degrés Celsius. Bien souvent, par précaution, les data centers ne souhaitent pas dépasser les 23 – 25 degrés. C’est pourquoi ils sont toujours équipés de systèmes de climatisation et de refroidissement de la température ambiante. Il s’agit de systèmes classiques basés sur l’air climatisé par fluides frigorigènes, ou de circuits de refroidissement utilisant la fraîcheur de l’eau. Parfois les deux types de systèmes, par air conditionné et eau, cohabitent dans un data center.

      Les data centers consomment de grandes quantités d’électricité et d’eau. Pour satisfaire ces besoins, ils sont raccordés en France au réseau d’électricité national, et bien souvent aux circuit d’eaux potable de la ville ou des territoires sur lesquels ils se trouvent. C’est le cas par exemple de PAR08, le data center de Digital Realty à la Courneuve, dont le directeur France Fabrice Coquio, surfant lui aussi sur la vague du marketing olympique, aime dire qu’il a été très important à l’occasion des Jeux Olympiques de Paris 2024. Construit au sein d’un complexe de quatre data centers surnommé le « vaisseau spatial », avec une surface totale de 40 000 m² de salles machines (correspondant à 7 terrains de football) et 120 Megawatt de puissance électrique, ce data center est aujourd’hui le plus grand de France. Dans ce rapport de la Direction régionale de l’environnement, de l’aménagement et du logement (DREAL) d’Île-de-France, PAR08 est pointé du doigt pour son utilisation annuelle massive de 248 091 m3 d’eau, provenant directement du circuit d’eau potable de la ville de Saint-Denis, dans une zone sujette aux sécheresse répétées depuis 2003, comme le pointait cette étude de l’OCDE (Organisation de coopération et de développement économiques) en 2023 sur « la gestion du risque de raréfaction de la ressource en eau liée au changement climatique dans l’aire urbaine fonctionnelle de Paris ». Cette eau est utilisée par le data center pour son système de refroidissement adiabatique, mais aussi pour la vaporisation des espaces qui doivent garder une hygrométrie optimale. Outre le besoin excessif en eau, le rapport pointe le manque de plan d’aménagement de l’usage de l’eau en cas de crises de sécheresse, obligatoire dans de telles circonstances. Mais la priorité est encore une fois ici politique et économique, et non pas environnementale, ce data center ayant profité du contexte lié aux JOP 2024.

      Ces systèmes de refroidissement à eau sont désormais privilégiés par les constructeurs de data centers dans le monde entier. D’abord parce que les systèmes de refroidissement purement électriques, comme ceux qui opèrent par fluides frigorigènes, sont très énergivores et ont donc un coût économique important. Ensuite, parce que l’eau n’est pas une ressource qui rentre dans le calcul des impacts usuels des data centers sur l’environnement, celui-ci étant en général basé sur la consommation d’électricité et le Power Usage Effectiveness (PUE), ou indicateur d’efficacité énergétique.

      Parfois, ces systèmes de refroidissement, quand ils ne sont pas reliés au réseau d’eau potable du territoire les accueillant, captent directement l’eau potable de nappes phréatiques, de fleuves ou de lacs à proximité. C’est le cas par exemple du data center de Facebook situé sur la ville espagnole de Talaveira de la Reina, dans la région de Castilla-La Mancha en Espagne, que le collectif Tu Nube Seca Mi Rio (« Ton nuage assèche ma rivière ») dénonce, entre autre pour son utilisation de plus de 200 millions de litres d’eau par an, équivalent à la consommation de 4 181 habitant⋅es de la région. Il s’agît ici d’un data center dit « hyperscaler », aux grandes dimensions et capacités de stockage et de traitement des données, sans qu’il y ait un consensus sur la définition. D’une puissance de 248 Megawatt, étendu sur plus de 300 000 m2 de terrain, ce data center géant bénéficie d’un soutien politique national et local. Bien que la zone de son implantation connaisse un fort stress hydrique permanent depuis des décennies, d’abord de par sa situation géographique et son climat quasi désertique, et désormais par la crise environnementale qui l’aggrave, le coût du litre d’eau y est faible. Ici encore, l’implantation des data centers sur le territoire est régie par des impératifs avant tout économiques, et non par des critères sociaux ou environnementaux, car comme le déplore Aurora Gomez du collectif « Ces entreprises extérieures s’imposent et accaparent les ressources. C’est du technocolonialisme ! […] Les autorités restent sourdes à nos alertes et font semblant de ne pas nous voir. ».

      Pour assurer une électrification continue des serveurs, les data centers disposent d’une triple alimentation en énergie. En plus d’être raccordés au réseau électrique, ils disposent également de groupes électrogènes et de leurs cuves de fioul prêts à prendre la relève en cas de coupure d’électricité, et de batteries et autres accumulateurs d’énergie censés assurer les quelques secondes de passage entre réseau électrique et groupes électrogènes. L’ensemble de ces dispositifs (serveurs, refroidissement, cuves de fioul, batteries) est potentiellement dangereux pour l’environnement et les riverain·es : fluides frigorigènes qui sont susceptibles de polluer l’air en cas de fuites, mais aussi nuisances sonores, que ce soit à l’intérieur du bâtiment, du fait des milliers de serveurs qui tournent en permanence avec chacun plusieurs ventilateurs, mais aussi du bruit extérieur et des vibrations causées respectivement par les systèmes réfrigérants placés sur les toits ou par les sous-stations de transformations électriques et les systèmes de générateurs au fioul qui sont testés plusieurs heures par mois. Ces nuisances sonores sont réglementées en France, et les data centers classés ICPE sont toujours concernés et font l’objet d’obligations et de contrôles en la matière, et ont par le passé fait l’objet de plaintes de riverains.
      Une autre source de nuisances environnementales sont les cuves de fioul et les locaux à batteries lithium qui constituent des risques de pollution des nappes phréatiques pour le premier, et des risques d’incendies dans les deux cas. En particulier, les feux de ces batteries au lithium ne sont pas des feux ordinaires : ils sont bien plus difficiles à éteindre et ont une durée bien plus longue, comme l’explique cet article de Reporterre qui relate l’effort démultiplié des pompiers pour éteindre ce type de feu, ou comme l’illustre l’incendie récent d’un data center de Digital Realty à Singapour, lequel rappelle également l’incendie de deux data centers d’OVH à Strasbourg en 2021.

      C’est en raison de tous ces risques que les data centers sont le plus souvent qualifiés d’« Installation classée pour la protection de l’environnement » (ICPE). D’après le site du ministère de la Transition écologique, de l’Énergie, du Climat et de la Prévention des risques, ce label ICPE recense les établissements « susceptibles de créer des risques pour les tiers-riverains et/ou de provoquer des pollutions ou nuisances vis-à-vis de l’environnement ». Du fait de ce classement, les data centers sont réglementairement soumis à un certain nombre d’obligations et de contrôles de la part du ministère, entre autres à travers les services déconcentrés que sont les DREAL, Direction régionale de l’environnement, de l’aménagement et du logement, placées sous l’autorité du préfet de région et des préfets de départements.
      Data centers de Digital Realty : fuites répétées de gaz fluorés à fort potentiel de réchauffement climatique

      De nombreuses irrégularités ont été observées par les inspections de la DREAL de Provence-Alpes-Côte d’Azur s’agissant des data centers MRS2, MRS3 et MRS4 de Digital Realty à Marseille. Ces éléments passés sous les radars, révélés récemment par le journal indépendant Marsactu, sont pourtant documentés dans les rapports d’inspections consultables sur la base de données Géorisques.

      L’irrégularité la plus préoccupante concerne le data center MRS3 : depuis 2021, ce dernier fait l’objet de fuites répétées de gaz fluorés, ainsi rejetés dans l’atmosphère. Les services de l’inspection de la DREAL ont demandé à plusieurs reprises au géant américain de prendre les mesures nécessaires pour arrêter ces fuites. Faute de réaction, cela a abouti en octobre 2023, trois ans après les premiers constats de fuites, à une mise en demeure de la société Digital Realty (ex-Interxion) par un arrêté préfectoral n°2023-215-MED. Voici un extrait de cette mise en demeure (consultable en intégralité ici) :

      « Considérant que la société Interxion France [ancien nom de Digital Realty] est autorisée à exploiter un data center, dénommé MRS3, situé sur la commune de Marseille ;
      Considérant que lors de la visite du site en date du 3 mars 2023, l’inspecteur de l’environnement a constaté que les équipements ne sont pas équipés d’un dispositif de détection de fuite fonctionnel ;
      Considérant que ce constat constitue un manquement aux dispositions de l’article 5 du règlement européen n°517/2014 du 16 avril 2014 relatif aux gaz à effet de serre fluorés ;
      Considérant que lors de cette visite il a également été constaté que les dispositions prises par l’exploitant sont insuffisantes pour éviter la survenue de fuites récurrentes de gaz dans l’environnement depuis 2021, ce qui constitue un manquement aux dispositions de l’article 3.2 du Règlement européen n°517/2014 précité ;
      Considérant que les installations de production du froid du site MRS3 ont dû être rechargées, du fait de fuites, par 745 kg de fluide frigorigène R134A depuis 2021, ce qui correspond en équivalent CO2 à une distance de près de 9 millions de kilomètres effectuée avec un véhicule thermique sans malus ni bonus écologique (émissions de CO2 d’environ 120g/km) ;
      […]
      Considérant de plus que, compte tenu de l’absence de système de détection de fuite sur l’équipement, qui réglementairement alerte l’exploitant ou une société assurant l’entretien lorsqu’une fuite entraîne la perte d’au moins 10% de la charge de fluide contenu dans l’équipement, ne permettant pas à l’exploitant de mettre en œuvre les actions correctives limitant l’émission de gaz à effet de serre dans l’atmosphère, il convient d’imposer à l’exploitant les mesures nécessaires pour prévenir les dangers graves et imminents pour la santé, la sécurité publique ou l’environnement, conformément à l’article L.171-8 du code de l’environnement ; »

      Le fluide frigorigène R-134A dont il est ici question, autrement nommé HFC-134A, est un gaz fluoré qui contribue grandement à l’effet de serre, avec un Potentiel de Réchauffement Global sur 100 ans (PRG100 ou GWP100 en anglais) de 1430. Ces fluides frigorigènes fluorés et leurs effets sur l’environnement sont connus depuis les années 1990, puisqu’à l’époque ils ont été reconnus comme principale cause du trou et de l’amincissement de la couche d’ozone. Certains types de gaz frigorigènes, dont ceux responsables de ce trou, ont déjà été interdits à la circulation. D’autres, dont celui utilisé ici par MSR3, font aujourd’hui l’objet, après les conventions de Kyoto et de Paris sur le climat, de réglementations contraignantes de l’Union Européenne (régulations dites F-Gas I, II et III). Celles-ci visent à interdire progressivement mais entièrement d’ici 2030 ces gaz fluorés polluants, alors que de nouveaux types de gaz fluorés non polluants sans effet de serre sont déjà largement commercialisés depuis plusieurs années.

      En partant du calcul de la DREAL ci-dessus, qui fait correspondre ces fuites répétées depuis 2021 à un équivalent CO2 rejeté dans l’atmosphère de 9 millions de km effectués en voiture thermique, nous estimons que cela correspond également à (9M 0,120 kgCO2eq) 1 080 tonnes équivalent CO2 émises depuis 2021. Nous pourrions continuer les calculs d’équivalence et ramener cette quantité à l’émission par nombre d’habitants, par nombre de piscines au par nombre de vols Paris-New-York que cela représente. Mais ce qui nous préoccupe ici, c’est le fait que ce géant américain, tout en se permettant de polluer, multiplie les déclarations de greenwashing dans la presse, en bénéficiant de surcroît d’un climat politico-médiatique fait de louanges et de connivences de la part des préfets, élus de la ville et dirigeants de la région, alors même que les services de l’État alertent sur ces pollutions. Ainsi, la présidente de la métropole Aix-Marseille, Martine Vassal, adressait ses voeux de nouvelle année en janvier 2023 depuis MRS3, le data center mis en demeure peu de temps après. Plus récemment, l’adjoint au numérique responsable de la ville de Marseille, Christophe Hugon (Parti Pirate), accompagné de représentants du préfet de région, de la présidente de la métropole et du président de la Région Sud, tenaient pour leur part des discours élogieux à l’égard de Digital Realty, prenant la pose ensemble lors de l’évènement presse organisé par l’entreprise au palais du Pharo pour célébrer le dixième anniversaire de sa présence sur Marseille.

      Ces fuites de gaz fluoré ne sont pas les seules irrégularités constatées par les services de la DREAL au cours des différentes inspections portant sur les data centers de Digital Realty à Marseille. Le data center MRS2, à proximité immédiate de MRS3 et du futur MRS5, est ainsi à l’origine d’incidents de fuites de fluides frigorigènes fluorés qui n’ont pas été déclarées aux autorités, alors même que ces déclarations sont obligatoires au-delà d’une certaine quantité, comme le soulève le rapport d’inspection de la DREAL de mars 2023.

      Par négligence, Digital Realty est donc responsable d’émissions répétées de gaz à effet de serre. Cette négligence aggravée, voire cette faute intentionnelle compte tenu du fait que l’exploitant a été mis au courant dès 2021 et que ces fuites se sont répétées par la suite, devrait suffire à mettre un coup d’arrêt aux déploiements en cours de Digital Realty. Or, c’est le contraire qui se produit. A Marseille : le projet de construction du data center MRS5 vient d’obtenir un avis positif de la part des autorités environnementales, de la ville et de la préfecture, et même du commissaire en charge de l’enquête soi-disant publique, et ce malgré une trentaine d’avis négatifs d’associations d’habitantes et habitants, d’organisations environnementales telle France Nature Environnement, d’élues et du collectif Le nuage était sous nos pieds qui répondaient à cette enquête.

      Nous sommes d’autant plus interpelées par la lecture des rapports de la DREAL que, à travers la voix de son président en France Fabrice Coquio, Digital Realty se vante largement dans les médias, dans la presse spécialisée et dans les conférences techniques des industriels des data centers de l’exemplarité environnementale de MRS3 (le site mis en demeure) et de MRS4. À l’en croire, ces sites industriels seraient des modèles du genre en termes écologiques, des « data centers verts » grâce notamment au système de refroidissement dit « river cooling » dont ils sont dotés, mais qui n’a visiblement pas empêché cette pollution considérable par gaz fluorés. Qui plus est, cette pollution a été dissimulée par F. Coquio et les autres dirigeants de Digital Realty. Un « data center vert » aux 1080 tonnes de CO2 de pollution en gaz fluorés émis depuis trois ans par négligence intentionnelle, voilà la réalité que Digital Realty et les pouvoir politiques locaux, cachent et habillent de greenwashing.
      Le river-cooling : privatisation et accaparement de ressources en eau de qualité potable

      La « Galerie à la Mer », construite en 1905, permet d’évacuer le trop plein d’eau des anciennes mines de charbon de la ville voisine de Gardanne, située plus au Nord. Ce trop plein est versé dans la Méditerranée au niveau de Cap Pinède à Marseille. Gérée depuis 2007 par le Bureau de Recherches Géologiques et Minières (BRGM), l’autorité nationale de service géologique, la Galerie est composée d’une partie supérieure, utilisée pour évacuer les eaux d’exhaure (ferrugineuses) de l’ancienne mine vers la mer, et d’une partie inférieure, dite « cunette », qui permet de collecter et évacuer les eaux de ruissellement et d’infiltrations provenant du Massif de l’Étoile à proximité. D’après le document de conclusion à l’enquête publique en 2018, écrit par le commissaire enquêtaire en charge, l’eau de la cunette est une eau « de très bonne qualité » et de « qualité potable » pouvant donc servir à la population ou de réserve stratégique en cas de besoin, dans une région sujette aux sécheresses.

      En 2018, l’entreprise Digital Realty a obtenu de la Préfecture l’autorisation de détourner pour une durée de sept ans les eaux de la cunette de la Galerie à la Mer, afin de les récupérer pour refroidir son data center MRS3. Les eaux fraîches de cette cunette, qui sont à 15,5 degrés Celsius toute l’année, sont ainsi captées et injectées dans un circuit de refroidissement dans le data center, pour échanger leurs « frigories » contre des « calories » dans des « échangeurs thermiques ». Elles repartent ensuite, réchauffées à environ 27 degrés, dans la Galerie à la Mer, à destination de la Méditerranée au niveau de Cap Pinède. Ce système est appelé « river-cooling ».

      Tandis que le dirigeant en France de Digital Realty, Fabrice Coquio, proclame dans une vidéo promotionnelle, que le rejet d’eau chaude dans la Méditerranée « n’a aucun impact sur la faune et la flore », les conclusions de l’enquête publique précédemment citée, soulignaient dès 2018 des inquiétudes relatives aux effets du rejet de ces eaux chaudes dans le milieu marin, pointant notamment les « risques d’eutrophisation » (déséquilibre du milieu provoqué par l’augmentation de la concentration d’azote et de phosphore) entraînée par les rejets d’eau rechauffée de la Galerie à la mer, risques accrus en période estivale. Mais, d’après l’enquête, bien d’autres impacts sont méconnus à ce jour, comme par exemple « l’éventuelle prolifération des algues filamenteuses ». Il faut par ailleurs noter que ce rapport se basait sur des estimations proposées par Digital Realty à 23,4 degrés, et non pas les 27 degrés effectivement constatées depuis la mise en place du système. Malgré ces alertes, le river cooling d’abord mis en place pour MRS2 et MRS3, n’a pas été mis en pause, mais au contraire étendu aux data centers MRS4 et MRS5. La question des eaux réchauffées par ces data centers et renvoyées dans le milieu marin, dans un contexte où le réchauffement des mers entraîne des taux de mortalité importants dans les communautés biotiques sous marines, n’est pas prise en compte. Aucun suivi ni mesures sérieuses des effets de ce rejet ne sont aujourd’hui publiées, d’après les collectifs locaux tels le collectif des Gammares ou l’association des habitants du 16ème arrondissement dont nous parlerons plus bas, directement concernés par ces enjeux.

      Ainsi, dès 2018, lors de l’enquête publique relative à la construction du river cooling pour MRS3, plusieurs communes se situant sur le tracé de la Galerie à la Mer entre Gardanne et Marseille avaient émis des réserves sur l’accaparement de l’eau publique par une entreprise et proposé d’autres usages pour ces eaux. Les conclusions de l’enquête allaient même dans ce sens, pointant que l’eau potable devait en premier lieu servir l’intérêt général. La commune de Septème-les-Vallons demandait par exemple que soit priorisée la possibilité de pomper une partie des eaux potables de la Galerie à la Mer pour le soutien de l’activité agricole et de la biodiversité et pour le déploiement de dispositifs de prévention des incendies (DFCI). La ville de Mimet demandait aussi à pouvoir utiliser cette réserve d’eau douce. Le collectif des Gammares à Marseille, qui analyse en profondeur les enjeux de l’eau à Marseille, pointe ainsi ces enjeux en septembre 2024, dans sa réponse à l’enquête publique sur la construction de MRS5, qui utilisera lui aussi le river cooling :

      « Alors que les hydrologues enjoignent à la sobriété et régénération des cycles naturels de l’eau, le choix de refroidir les data centers pour que des géants du numérique puissent louer des espaces pour leurs serveurs ne nous parait pas d’intérêt général.
      Dans un contexte d’accroissement des épisodes climatiques extrêmes ayant pour cause le réchauffement climatique, où les sécheresses s’intensifient et se produisent de plus en plus régulièrement en Région Sud et ailleurs, mettant en cause l’approvisionnement en eau potable ou à usage agro-alimentaire, il serait urgent à ce que soient systématisées et publiées toutes les enquêtes portant sur cette ressource commune qui est l’eau et nous considérons que les eaux doivent être autant que possible allouées à des usages d’utilité publique ou pour les milieux qui en ont besoin. ».

      Détourner des eaux fraiches de qualité potable pour refroidir gratuitement ses data centers et rejeter de l’eau réchauffée en mer : voici donc le river cooling de Digital Realty à Marseille.
      Le river cooling : du greenwashing mensonger financé par de l’argent public

      Ce river cooling est devenu un argument phare de la communication de Digital Realty, en France et dans le monde entier. Dans la presse généraliste il est présenté comme une « solution innovante verte minimisant l’impact écologique » de l’entreprise. Dans la presse spécialisée, Digital Realty se vante d’utiliser de l’eau gratuite d’une installation publique. Ce n’est pas uniquement l’eau qui est gratuite pour l’entreprise. L’État français a financé en partie les travaux de détournement des eaux de la Galerie à la Mer vers les data centers de Digital Realty, à travers deux subventions publiques. Sur un total d’à peu près 15 millions d’euros d’investissements, la Région Sud a ainsi apporté 800 000 euros, tandis que l’Agence publique de la transition écologique, l’ADEME, a subventionné le projet à hauteur d’1,9 millions d’euros au nom du fond de « décarbonation de nos industries ».

      Dans le dossier de maîtrise d’ouvrage inclus dans les conclusions du commisaire rapporteur, déposé en 2018 par Digital Realty, on peut lire que le système de « river cooling » permettrait de réduire de 90% la consommation d’électricité destinée au seul refroidissement de ses data centers marseillais. En septembre 2024 son dirigeant Fabrice Coquio parle d’une réduction de 30% de la consommation totale d’électricité de l’ensemble des data centers à « river cooling » grâce à ce système. Or, pour son prochain data center en construction MRS5, selon les chiffres donnés par l’entreprise lors de l’enquête publique du projet, on constate que le « river cooling » permettra de réduire de seulement 4,33% la consommation totale en électricité (calcul d’après les données page 107 : (241 133 856 kWh – 230 695 705 kWh) / 241 133 856 kWh 100). En effet, la dépense d’énergie la plus importante d’un data center se situe au niveau des serveurs. Ces derniers occupent 79 à 83 % de l’énergie totale du data center MRS5 d’après l’entreprise (page 107 du dossier précité).

      La dépense énergétique de ces data centers qui s’agrandissent et s’étendent sans cesse, malgré des optimisations à la marge via des méthodes comme le « river cooling » est globalement nettement en hausse, et c’est là une tendance globale. Ces optimisations sporadiques, baissent les coûts pour l’entreprise tout en lui permettant de garder un potentiel commercial constant ou grandissant, et sont donc intéressantes pour elles, mais se font toujours et encore à travers l’accaparement de nouvelles ressources qui peuvent servir les habitantes et habitants.

      La communication de Digital Realty laisse également entendre que le « river cooling » serait l’unique système de refroidissement des data centers. Ce qui s’avère faux à la lecture de ce rapport. Ce système ne remplace pas les systèmes de refroidissement par air conditionné à fluides frigorigènes, qui causent les fuites de gaz fluorés mentionnées plus haut dans l’article, mais vient s’y ajouter. Le refroidissement des data centers de l’entreprise à Marseille ne se fait qu’en petite partie par « river cooling ». Mais le plus grave dans la communication mensongère du dirigeant de Digital Realty est le fait qu’il prétend que l’eau utilisée pour le river cooling serait de l’eau sale provenant des mines de Gardanne, comme il le répète dans les médias et la vidéo promotionnelle avec Jamy citée plus haut. C’est faux, comme le montre d’ailleurs, cette vidéo d’Interxion (ancien nom de Digital Realty) trouvée sur un compte Viméo d’une employée de l’entreprise, vidéo qui explique bien la construction du river-cooling et son utilisation de l’eau de la nappe phréatique récoltée dans la cunette.

      De l’argent public utilisé pour financer les data centers d’un géant américain côté en bourse, utilisant une ressource commune précieuse, l’eau de qualité potable, tout en rejetant des gaz fluorés à fort impact de réchauffement climatique, voilà la réalité des data centers de Digital Realty aujourd’hui à Marseille. Le plus ironique est que c’est précisément ce river cooling que l’Etat a aidé à financer, qui sert aujourd’hui d’argument de greenwashing médiatique mondial à cette entreprise.

      Accaparement de l’énergie électrique au détriment de projets d’intérêt commun à urgence environnementale

      Bien que l’électricité, majoritairement issue de la filière nucléaire, soit présentée comme « verte » en France, elle est bas carbone, mais pas neutre en carbone. En effet, l’intensité carbone de l’électricité en France est de 32 gCO2eq par kilowatt-heure d’après le gestionnaire du réseau de transport d’électricité en France RTE. Nous n’allons pas ici calculer les émissions CO2 dues à l’utilisation massive d’énergie électrique par l’ensemble des data centers marseillais. Nous n’avons aucun doute quant au fait que cette consommation est considérable, et qu’elle est également grandissante. En effet, nous constatons partout en France et dans le monde une tendance au lancement de projets de data centers de plus en plus grands et de plus en plus énergivores. Les data centers de type « hyperscaler » se multiplient partout, et les prévisions ne vont qu’en augmentant avec l’arrivée de l’Intelligence Artificielle, qui crée un effet de passage à l’échelle multiple. En effet l’Intelligence Artificielle demande des serveurs dotés de puces dédiées et de cartes graphiques puissantes, consommant plus, chauffant plus, nécessitant des systèmes de refroidissements dédiés, modifiant en profondeur les bâtiments et la globalité de la structure d’un data center. Ce qui nous intéresse ici ce sont les effets systémiques de ces infrastructures et de ce numérique qu’on nous impose, les effets rebonds qu’ils génèrent sans cesse et qui ne sont jamais débattus.

      Les data centers de Digital Realty à Marseille utilisent l’énergie électrique disponible que les deux gestionnaires de réseau et de transport énergétiques nationaux, RTE et Enedis, sont en capacité d’acheminer à Marseille, avec les infrastructures électriques actuelles. Plutôt qu’une simple « utilisation », il s’agit d’un véritable accaparement. Car l’énergie électrique nécessaire à ces data centers est captée au détriment de projets d’intérêt commun à urgence environnementale de la ville. Dans leur rapport « L’impact spatial et énergétique des data centers sur les territoires » les chercheuses Fanny Lopez et Cécile Diguet notaient un premier conflit d’usage en 2012, au détriment de l’électrification des bus municipaux à Marseille (p. 62) :

      « Pour Brigitte Loubet, conseillère spéciale chaleur de la DRIEE, comme pour Fabienne Dupuy, adjointe
      au Directeur territorial Enedis en Seine-Saint-Denis, les demandes des data centers peuvent être
      bloquantes pour les territoires. La commande d’électricité se résumant à : premier arrivé / premier servi,
      des files d’attentes se constituent sur différents sites. […] C’est l’exemple de Marseille, où le maire Jean-Claude Gaudin a dû négocier avec Interxion pour récupérer 7 MW « parce qu’ils avaient oublié de les
      réserver pour leurs bus électriques » » .

      C’est à nouveau le cas aujourd’hui pour l’électrification des quais au Grand Port Maritime de Marseille, électrification qui permettrait aux nombreux navires de croisière, ferrys de lignes reliant la ville à la Corse ou à d’autres villes de Méditerranée, et au Chantier Naval de Marseille de se brancher électriquement lors de leurs escales, évitant ainsi le rejet dans l’atmosphère d’une pollution considérable due à la combustion de fioul. Cette pollution aux oxydes d’azote (NOx) et autres particules nocives a des effets immédiats sur la santé des habitantes et habitants les plus proches, mais aussi sur l’ensemble des habitant⋅es de la ville, ville où l’on comptabilise tous les ans environ 2 500 morts de pollution d’après les autorités de santé. Cette électrification en plusieurs étapes, entamée depuis de longues années, est insuffisante pour accueillir la croissance du flux estival des bateaux, Marseille étant devenue une ville où le tourisme pollueur par croisières n’a de cesse d’augmenter comme le constate et déplore l’association Stop Croisières.

      De surcroît, cette électrification est sans cesse repoussée ou ralentie. Lors de sa réponse à l’enquête publique en vue de la construction de MRS5, la fédération des Comités d’intérêts de Quartier du 16ème arrondissement de Marseille qui regroupe les associations des habitantes et habitants, demandant un arrêt de la construction de tous les data centers de la ville, écrit :

      « […] les riverains sont confrontés aux pollutions atmosphériques des navires et aux nuisances sonores des activités portuaires. Le directeur général adjoint du GPMM a estimé la puissance électrique encore nécessaire aux activités du port et à l’électrification des quais à 100 à 120 MW. […] La puissance totale des data centers actuels s’élève à 77 MW, […] la puissance totale des data centers programmés est de 107 MW. Les data centers de Digital Realty situés dans l’enceinte du GPMM sont alimentés par le poste source de Saumaty, situé dans quartier de Saint-André. Le futur data center de Segro situé à Saint André sera lui alimenté par le poste source de Septèmes-les-Vallons situé à 11 km. Le poste source de Saumaty serait-il saturé ? … L’electrification des quais du Chantier Naval de Marseille dans le GPMM est repoussée à 2029. Les data centers seraient-ils servis avant le GPMM ? ».

      Ce conflit d’usage d’électricité entre data centers et électrification des quais de navires, c’est la mairie elle-même qui le constate dans sa délibération au conseil municipal d’octobre 2023, votant également la constitution d’une commission régulatoire sur les data centers. Cette commission semble parfaitement insuffisante. C’est également ce que pointe Sébastien Barles, adjoint en charge de la transition écologique de la ville de Marseille. Ce dernier demandait un moratoire sur les data centers de la ville, moratoire qui a été écarté, alors qu’il constitue une étape indispensable pour avancer vers un début de maîtrise de ces infrastructures en pleine expansion. Par ailleurs, peu de choses sont aujourd’hui révélées par la mairie autour de cette commission régulatoire de la ville — dont feraient partie, autres autres, le dirigeant de Digital Realty et l’adjoint du Parti Pirate élogieux à son égard, Christophe Hugon. Ce manque de transparence n’est pas nouveau, la mairie de Marseille et en particulier C. Hugon, adjoint également à la transparence et l’Open Data de la ville, ayant déjà été pointé du doigt dans notre campagne Technopolice, pour son hypocrisie politique mais aussi pour son manque de transparence et son défaut de réponse aux demandes d’accès aux documents administratifs, qui sont pourtant un droit et une obligation constitutionnelle.
      Îlots de chaleurs urbains

      Ces data centers qui s’accumulent sur le territoire de Marseille sont de véritables « grille-pains en surchauffe » pour reprendre les termes de Laurent Lhardit, adjoint à la mairie de Marseille en charge du dynamisme économique, de lʼemploi et du tourisme durable.

      En effet, les lois de la thermodynamique font que la chaleur qu’on évacue des serveurs de ces data centers ne disparaît pas, mais se retrouve rejetée dans l’air entourant les bâtiments, dans les nuages, les vrais, ou dans l’eau de mer réchauffée par le river cooling. Dans une ville au climat chaud comme Marseille, sujette à des épisodes caniculaires de plus en plus nombreux, il est inquiétant de continuer à ignorer ce problème qui devient vital. Les scientifiques alertent déjà sur les effets que ces pics de chaleur répétés ont sur la vie humaine, et sur le fait qu’à plus ou moins court terme, des régions entières de notre planète et de l’Europe deviendront progressivement inhabitables en raison de cette chaleur insoutenable (voir par exemple cet atlas de prévisions des chaleurs mortelles à venir dans le monde).

      Il est grand temps de penser l’urbanisme en priorisant les espaces verts, avec des végétaux qui rafraîchissent et créent de l’ombre pour rendre les villes plus habitables, moins nocives pour la santé, plus soutenables face aux changements environnementaux en cours.

      Récupération de « chaleur fatale » ou comment faire perdurer le statu quo écocidaire

      L’utilisation de la « chaleur fatale » consiste en la récupération de la chaleur émise par les data centers, qui deviendraient alors, dans un idéal d’économie circulaire technomagique, des sortes de chaudières numériques capables de chauffer des immeubles ou des piscines olympiques. En réalité, ces projets de récupération de chaleur dite « fatale » (parce qu’elle est inévitable), ne sont pas toujours efficaces ni même possibles. Pour que cela fonctionne, il faudrait que la récupération de chaleur se fasse au plus près de la source, donc du data center, car plus la distance augmente, plus les pertes seront significatives. Mais compte tenu du bruit et des autres nuisances atmosphériques générées par un data center, réchauffer des immeubles habités ne semble pas très attrayant. Sans considérer le fait que, dans des villes aux climats chauds comme Marseille, la chaleur récupérée ne serait utile que peu de mois dans l’année, la chaleur dégagée par ces data centers devenant problématique la majorité du temps. Ainsi, un rapport de l’Uptime Insitute concluait en 2023 que les cas où cela peut être efficace sont rares, non systématiques, situés dans des zones de climat froid, et peuvent même parfois être contre-productifs (traduit de l’anglais) :

      La possibilité de réutiliser la chaleur résiduelle des centres de données est généralement limitée aux climats plus froids et peut nécessiter des connexions à des systèmes de chauffage urbain ou à des sites de fabrication. La disponibilité de ces connexions et/ou installations est fortement concentrée en Europe du Nord. La configuration d’une installation pour la réutilisation de la chaleur perdue augmente souvent la consommation d’énergie (puisque des pompes à chaleur sont nécessaires pour augmenter la température de la chaleur sortante), mais peut réduire les émissions globales de carbone en réduisant l’énergie qui serait autrement nécessaire pour le chauffage.

      Mais le vrai problème, encore une fois, n’est pas technique. Ces systèmes étant coûteux et n’ayant aucun intêrét commercial pour les data centers, ces derniers préfèrent largement y échapper, ou alors promettre constamment qu’ils les mettront en place dans un futur proche. C’est exactement ce que le lobby France Datacenter s’est employé à faire en 2022, comme le montre le registre obligatoire de déclaration de leurs acivités de lobbying auprès de la Haute Autorité pour la Transparence de la Vie Publique (HATVP), où nous pouvons lire, parmi d’autres actions de diminution de taxation ou d’échappement à des obligations de pollueurs :

      Liste des fiches d’activités
      […]
      Retirer un amendement au projet de loi énergies renouvelables visant à rendre obligatoire la réutilisation de chaleur fatale.

      Cette activité a été un succès, l’amendement rendant obligatoire la récupération de chaleur fatale a été retiré du projet de loi énergies renouvelables, au profit de « mesures incitatives » qui ont consisté, depuis 2015 au moins, à faire financer par des fonds publics, via notamment l’ADEME, les travaux de récupération de chaleur fatale qu’un data center aurait l’amabilité d’entreprendre. Les quelques cas existants servent, comme dans le cas du « river cooling », de greenwashing monté en exemple et surpublicisé. Mais cela permet aux industriels de continuer à profiter des territoires sans limites, en faisant croire que des solutions technomagiques sont possibles, tout en s’employant à repousser les obligations réglementaires qui les contraindraient à les mettre en place. Les États, quant à eux, sont tout entiers à leur service.
      Une croissance exponentielle, un extractivisme colonial sanglant

      Si l’ensemble des data centers de Digital Realty à Marseille, MRS1 à MRS5, ont une puissance électrique maximale de 98 Megawatt (16+16+24+20+22), le prochain data center de Digital Realty à Bouc-Bel-Air, MRS6, aura une capacité de 50 mégawatts à lui tout seul. Celui de PAR08 à la Courneuve, le plus grand actuellement en France, toujours de Digital Realty, a une capacité de 120 MW. Celui qui doit être construit à Dugny, en Seine-Saint Denis, toujours par Digital Realty et qui sera le futur plus grand data center de France, aura une capacité de 200 mégawatts, soit l’équivalent de 20% de la puissance d’un réacteur nucléaire EPR. L’empreinte du numérique était estimée à 2,5% de l’empreinte carbone annuelle de la France en 2020, et les data centers représentaient environ 16% de cette empreinte carbone totale du numérique selon l’Ademe et l’Arcep. Cette empreinte du numérique devrait doubler d’ici 2040 et les data centers pourraient y jouer un rôle majeur selon un avis d’expert de l’Ademe en octobre 2024.

      À l’échelle mondiale, les data centers hyperscales constituaient déjà en 2022, 37% de la capacité mondiale des data centers, et devraient en représenter 50% en 2027, cette part augmentant régulièrement. D’autre part, le besoin en eau de ces « hyperscales » augmente régulièrement. Sous la pression des pouvoirs publics en 2023, Google révélait que ses centres de données, aux Etats-Unis uniquement, utilisaient plus de 16 milliards de litres d’eau par an pour leur refroidissement. On apprenait également récemment que ses émissions de CO2 ont grimpé de 48% au cours des 5 dernières années et son usage en eau devrait augmenter de 20% encore d’ici 2030. Microsoft, quant à lui, a vu l’utilisation en eau de ses data centers augmenter de 34% en 2022 seulement, à cause de son usage de l’IA, et on peut voir la pléthore d’annonces d’investissements dans la construction de nouveaux data centers dédiés à l’IA, qui laisse présager une croissance à venir encore plus forte et inquiétante.

      Mais ces calculs institutionnels ou provenant des géants numériques, purement basés sur l’énergie électrique et son empreinte carbone, et parfois sur la consommation d’eau pour le refroidissement, ne prennent pas en compte la totalité des conflits et des accaparements de vies et de ressources vitales que ce numérique cause pour exister et s’accroître. En commençant par la phase d’extraction des nombreux minéraux qui composent les puces des processeurs et des cartes graphiques que ces data centers renferment par milliers. Génération Lumière, une association écologiste qui agit à la fois en France et en République démocratique du Congo (RdC), dénonce depuis des années un extractivisme sans scrupules de minéraux stratégiques pour nos industries numériques. En effet, la RdC renferme 70 % du cobalt mondial, utilisé pour fabriquer les batteries lithium de nos voitures électriques, de nos smartphones, et des data centers. La RdC est aussi une terre d’extraction de coltan, de cuivre, d’or, des minéraux utilisés pour les puces électroniques. Et cette extraction qui sert les industries numériques ainsi que les géants tels Apple, Nvidia (fabricant de puces graphiques) et désormais même Google, Amazon et Microsoft, est démultipliée par l’arrivée de l’IA, qui s’insère partout dans les appareils et les serveurs. Or, cette extraction se fait, comme le dit Génération Lumière, « avec notre sang », et crée en République démocratique du Congo, outre les prob lèmes dus au minage lui-même qui se fait dans des conditions inhumaines d’exploitation des travailleurs, de nombreux conflits et massacres sur le territoire.

      Ces calculs institutionnels laissent également de côté, ou ignorent à dessein, les enjeux de la fabrication des puces électroniques, de la purification des minéraux posés sur les wafers, sortes de galettes de silicium, jusqu’à leur devenir puces. L’association StopMicro, qui lutte contre l’accaparement des ressources et les nuisances causées par les industries grenobloises, et en particulier celles de la microélectronique de Soitec et de STMicroelectronics, nous rappelle ainsi que : « Derrière le dérèglement climatique et les injustices socio-environnementales, il y a des décisions politiques, des entreprises et des intérêts économiques qui conditionnent nos choix de société ». Dans ses nombreuses brochures d’analyses et dans le livre « Toujours puce » qu’elle vient de publier, l’association mène une enquête technique, sociale, politique et environnementale poussée, à la place des pouvoirs publics pourtant chargés de le faire. En prenant l’exemple de son territoire, elle explique comment on s’accapare et pollue de l’eau potable pour fabriquer des gourdes connectées avec les puces de STMicroelectronics ou Soitec, quand ce n’est pas pour équiper des armes qu’on exporte au service des guerres coloniales en cours.

      Ce numérique n’est pas le nôtre

      En regardant la liste des principaux clients de Digital Realty, nous retrouvons en masse des acteurs aux pratiques numériques contestables vis à vis des droits fondamentaux et des réglementations en vigueur. Fabrice Coquio, président de Digital Realty France, déclarait il y a peu « Sans nous, il n’y a pas d’Internet », avant de lister une bonne partie des clients de ses data centers marseillais : Facebook, Amazon, Microsoft, Netflix, Disney+, Zoom, Oracle, Youtube… Le data center MRS3, où se sont produits des rejets répétés de gaz fluorés hautement polluants, abrite en son sein les services « cloud » de Microsoft déployés dans les mairies, écoles, collèges, lycées et universités publiques, forçant tout élève dès son plus jeune âge à la création de comptes Microsoft sans grand moyen de s’y opposer.
      Sticker « Le nuage était sous nos pieds » collé sur un poteau. Photo prise lors de la balade du festival Le Nuage était sous nos pieds le 9 novembre 2024. Autocollant fabriqué lors d’un atelier organisé par le hackerspace transféministe Fluidspace à Marseille.

      Comme en atteste également le travail de La Quadrature du Net depuis ses débuts il y a plus de 15 ans, à travers notamment sa campagne d’actions de groupe contre les GAFAM, ces acteurs ont monopolisé et fait d’Internet un espace commercial géant, où règnent les violences faites aux communautés minoritaires et les discriminations en tout genre. Ces acteurs, qui utilisent en toute illégalité et immoralité nos données personnelles pour nous imposer de la publicité, polluent nos espaces en ligne et nos cerveaux, et s’accaparent notre attention à coup d’algorithmes jouant sur nos biais cognitifs et visant à susciter des dépendances psychologiques. Cette publicité est aujourd’hui coupable à son tour de l’aggravation de la crise environnementale, de par la surconsommation et le modèle insoutenable qu’elle engendre et qu’elle alimente en permanence. Couplée à l’obsolescence marketée et organisée sur tout objet de consommation, qu’il soit numérique ou non, aidée et rendue possible par les infrastructures industrielles numériques polluantes, cette publicité que les GAFAM et les géants numériques contrôlent en grande majorité est une des causes majeures de l’aggravation de la crise socio-environnementale et systémique en cours.

      L’argent public que l’État met si facilement dans les mains de tels industriels pollueurs, comme l’illustrent le fond de « décarbonation de nos industries » mentionné plus haut de même que les différents contrats publics conclus avec ces géants numériques, est ainsi distribué au détriment de projets publics à intérêt commun telle l’électrification des équipements publics, la constitution de réserves d’eau, ou encore l’air que nous respirons et la ville où nous habitons. Ces projets d’intérêt général, parfois littéralement vitaux, sont laissés de côté car la priorité est constamment donnée à la croissance numérique, qui passe par l’installation croissante de data centers et d’autres types d’infrastructures numériques.
      Ce monde-là n’est pas le nôtre

      Ce numérique de la domination, dont les câbles et les data centers sont la colonne vertébrale, imposé par la vision hégémonique de la Silicon Valley et par des politiques étatiques complices de géants sans scrupules, n’est pas le nôtre.

      Cet Internet qui reproduit les dynamiques coloniales et qui repose sur l’accaparement des ressources du sol, des minerais, de l’eau, de nos territoires, mais aussi de nos corps et espaces mentaux, structuré autour de la collecte massive de données sur nos vies, source infinie de pouvoir et de profit, n’est pas le nôtre. Ce numérique qui renforce les dominations et les inégalités, fondé sur la normativité de nos comportements, sur la police prédictive et la prise de décisions automatisées, destiné à nous contrôler et à nous surveiller, pour mieux réprimer notre colère légitime, n’est pas le nôtre. Ce numérique responsable à son tour de la crise socio-environnementale sans précédent qui nous traverse, n’est pas le nôtre et nous devons le refusons.

      Notre monde à nous est un monde de soin, soin pour soi-même, pour les unes et les autres, et pour la Terre. Notre monde numérique à nous est celui d’un autre numérique, qui nous aide à nous protéger de la surveillance et des oppressions, qui nous aide à porter des savoirs communs et d’entraide, qui nous permet de hacker, bidouiller et créer des outils, des serveurs alternatifs, des réseaux décentralisés, pour mieux s’organiser et lutter pour que d’autres mondes soient possibles.

      https://www.laquadrature.net/2024/11/20/accaparement-du-territoire-par-les-infrastructures-du-numerique

    • Le nuage était sous nos pieds

      On a cru pendant longtemps que les données volaient dans les airs. Des grappes de bits dans l’éther du « cloud » qui, imperceptiblement, se faisaient mail ou vidéo une fois l’ordinateur allumé. Et puis on a regardé sous nos pieds. La plaque en fonte Pont-à-Mousson. La trappe dans le goudron, nommée « regard », estampillée « télécom », où se lovent les câbles qui transmettent les informations à l’échelle mondiale. Un fil dont l’âme est de verre et qui transmet les données à la vitesse de la lumière. Sous nos pieds, la prolongation terrestre de grands câbles sous-marins, autoroutes qui relient et contournent les continents. Sur nos plages, leurs chambres d’atterrissement.

      Au point de croisement de ces « autoroutes de l’information » : les data centers. Ces méga-ordinateurs bétonnés renferment des milliers de serveurs qui rendent possible le technocapitalisme : le trading à haute fréquence, la publicité et le pistage de données personnelles, la smart-city, l’agriculture connectée, la surveillance algorithmique via intelligence artificielle. Des « services » à n’en plus finir, imposés, marchandés, marketés, pour mieux accaparer nos territoires et nos vies, sous l’égide des plus grandes multinationales de ce monde.

      Puis, dans ces serveurs, des millions de puces et composants électroniques, des puces faites de minéraux : du silicium, du gallium, de l’or, du cuivre, du coltan, du lithium, du cobalt … À nouveau sous nos pieds, on déchire la terre pour en extraire ce qui depuis longtemps sommeille. Une extraction qui a le prix du sang, entachée des conflits qu’elle déclenche dans les pays où l’industrie numérique rejoue encore et toujours la colonisation. Ces minerais qui deviennent puces, qui deviennent gadgets, qui deviennent armes et autres instruments au service des pouvoirs politiques et industriels.

      Il n’y a pas de fatalité au « tout numérique ». Nous pouvons reprendre le contrôle. Nous devons nous organiser pour résister et mettre un terme à la destruction socio-environnementale que la trajectoire dominante de l’informatique occasionne. Nous pouvons, toutes ensemble, imaginer d’autres mondes possibles.

      https://lenuageetaitsousnospieds.org

    • So I try different models and tools, and it’s all incredibly underwhelming. It’s honestly hard to believe that people get work done using these tools, because I can spend a few hours on them (without getting even close to finishing the task at hand) and realise that I could have done it myself in 25 minutes.
      […]
      I’m in a state where I can’t reconcile my own results with other people’s results. I hear people saying “this hammer is indestructible”, but when I pick it up, it’s just origami: made of paper, intricate, delicate, very cool-looking but I can’t even hammer a tomato with it.

      le gars est pas tout-à-fait ignorant : il vient de boucler son mémoire de licence (?) en informatique avec ce travail

      Sistemas de archivos en espacio de usuario por usuarios sin privilegios
      Resumen— […] La implementación (llamada “UNFUSE”) permite a usuarios sin privilegios montar sistemas de archivos sin necesidad de escalar privilegios. La implementación mantiene la misma ABI (application binary interface) y API (application programming interface) que FUSE, permite su uso como sustituto directo sin necesidad de cambios de código ni recompilación en sistemas de archivos FUSE existentes.
      Palabras Clave—sistemas de archivos, espacio de usuario

      soit : keywords—file systems, user space

      https://mirror.whynothugo.nl/t/tfg.pdf

    • Je vois difficilement l’intérêt de témoignages parcellaires et unitaires comme ça, quand yen a plein d’autres dans l’autre sens aussi. Et surtout, je l’ai déjà dit dans d’autres commentaires : il n’y a vraiment aucun intérêt à des retours comme ça s’il n’y a pas des exemples de prompts donnés avec ! Et dans 95% des cas (en bien ou en mal) les gens font des retours sans donner aucun exemple concret, ni résultats, ni surtout prompts de départ (une partie, en bien ou en mal aussi, montre les résultats finaux… mais sans donner les prompts ça n’a aucun intérêt non plus !)

      GPTs work great for finding the exact word to complete a sentence. They’re surprisingly good at finding the exact type annotation for a Python function. They can find nuanced bugs in a single function which I copy-paste into the GPT. But anything beyond writing a simple function always leads to useless junk. Often times, they solve big problems by just importing a library that does not exist, and calling a function which does the bulk of the logic. ChatGPT told me the other day “if you don’t want any dependencies, you’re going to have to implement it yourself”. But couldn’t actually implement the necessary code. Large portions of code have lots of hidden logic bugs, and when they fix one they introduce another.

      Ce genre de description par exemple me fait immédiatement penser à des gens qui croient que ça va être magique et qui n’ont pas donné assez d’indication les plus précises possibles dans les prompts de départs (par ex : « aide moi à coder en utilisant que des bibliothèques existantes, n’invente pas de lib qui n’existent pas déjà » ou « créer moi aussi les bibliothèques qui manquent » etc).

      I’m in a state where I can’t reconcile my own results with other people’s results.

      La seule manière c’est d’avoir des exemples complets avec prompts + résultats, pour pouvoir comparer et comprendre pourquoi l’un à de la merde, alors qu’un autre pas fake, a de très bons résultats.

      En ce qui me concerne, j’ai une conversation dédiée à un développement en Javascript (qui n’est pas mon language de prédilection), pour implémenter une grosse fonctionnalité en utilisant une bibliothèque très grosse et complète (et qui a plein d’extensions), dont la documentation existe mais est parcellaire ou éparpillée (doc officielle + forums + exemples dans le code dans les utilisations dans la nature). Cela m’a permis en quelques semaines de développer quelque chose que :
      – soit j’aurais jamais réussi à coder du tout, ne trouvant absolument pas la doc des bons morceaux, ou les bonnes extensions à utiliser pour mes besoins
      – soit j’aurais mis des mois à réussir à trouver les bonnes choses et à le coder moi-même

      J’ai avancé par itération : chaque réponse était relue + testée, et soit je voyais immédiatement des problèmes, soit ça ne marchait pas, et dans ce cas je précisais le prompt et alors GPT me répondait un truc plus précis ou corrigé. J’ai moi-même corrigé du code, et je l’ai parfois redonné en source de mes prompts suivant pour lui dire « repart de là ». Avec tout ça :
      1) j’ai réussi à coder les fonctionnalités que je voulais
      2) j’ai appris immensément plus vite qu’en lisant la seule doc officielle à utiliser la bibliothèque énorme et complexe que j’avais choisie
      3) j’ai appris à mieux coder en Javascript moderne, par l’exemple et la pratique, donc mieux qu’en lisant de la doc aussi

      Mais pour ça, il faut soi-même avoir des bonnes pratiques, et savoir bien coder, et donc savoir poser les bonnes questions précises avec nos attentes de dévs, pas en parlant comme un utilisateur final « code moi la fonctionnalité XXX ».

    • Les solutions d’assistance au développement par l’IA générative sont encore si récentes et foisonnantes que les pratiques ne sont pas encore homogènes. Dans ce contexte, comme toi, je crois que l’intérêt des témoignages individuels est limité.

      Nul doute que dans certains cas, la productivité est améliorée. Nul doute aussi que l’assistance par l’IA impacte la satisfaction au travail du développeur. Si son objectif est avant tout d’être productif et d’expérimenter une sorte de « puissance d’agir », alors la satisfaction augmentera. S’il tirait une partie de son plaisir dans l’exercice cognitif qui consiste à résoudre des problèmes complexes liés au code et à en ressortir par l’apprentissage grandi dans sa « puissance d’être », alors cette satisfaction diminuera.

      Au-delà de ce constat, il peut tout à fait y avoir une augmentation de productivité associée à une diminution du plaisir - et donc du ressort motivationnel, qui est lui-même corrélé avec la productivité. Le tableau est donc complexe.

      Il y a aussi un risque de déléguer les tâches les plus simples à automatiser à l’IA, de sorte que le travail du développeur se recentre sur les tâches les plus exigeantes sur le plan cognitif, avec à la clé une fatigue spécifique.

      Bref, l’interaction dev / IA générative semble complexe et je te rejoins donc sur la culture du témoignage individuel.

      Pour autant, je crois qu’ils sont essentiels, car ils ouvrent le débat et soulignent qu’une double question se pose : collective (en tant que professionnels établis en tant que rapport au métier) et individuelle (en tant qu’orientation de carrière et de choix subjectifs).

    • Je précise si je me suis mal exprimé : je ne crois pas que les témoignages individuels soient inutiles. Comme dans toute sociologie, il est bien d’avoir du quantitatif et de l’enquête de terrain, des témoignages. Pour dégager des tendances, c’est mieux d’avoir des statistiques (donc sur des groupes de plusieurs centaines ou plusieurs milliers), ça oui. Mais pour les témoignages, là ça n’a un intérêt que si on a assez de détails concrets, en l’occurrence pour l’IA : les prompts surtout (et si besoin les résultats générés), et le niveau de la personne (étudiant, dev confirmé).

      C’est comme si en sociologie du vote RN, on n’avait que des témoignages disant « j’aime pas les arabes », mais sans avoir le détail de la vie des gens qui disent ça (petits proprios et commerçants en défiance du système scolaire/culturel, comme dans l’enquête détaillée de Félicien Faury dans le sud est… ou ouvriers et employés au chomage comme dans le nord ?). Les témoignages n’ont un intérêt que s’ils sont fortement détaillés à ce point. Mais juste « j’aime pas », ou « ça n’a pas marché et je comprends pas pourquoi ça marche chez d’autres », sans rien de plus… un peu inutile là oui.

    • Mais pour ça, il faut soi-même avoir des bonnes pratiques, et savoir bien coder, et donc savoir poser les bonnes questions précises avec nos attentes de dévs, pas en parlant comme un utilisateur final « code moi la fonctionnalité XXX ».

      Tout à fait d’accord, sauf que les patrons des boîtes d’IA n’ont pas du tout ce discours, si on les écoute le métier de développeur va disparaître dans 2 ans (et y a des gens qui y croient, une collègue me l’a sorti y a pas longtemps, et je préfère ne pas savoir ce qu’en pense mon patron). (mon avis est que la plupart des boîtes d’IA basées sur des LLM vont se planter d’ici 2 ans)