• Lecture d’un extrait du livre « Pourquoi Pacifique » de Cécile Portier

    https://liminaire.fr/creation/radio-marelle/article/pourquoi-pacifique-de-cecile-portier

    Ce livre fragmentaire explore le Pacifique comme un espace mental, poétique et politique plutôt qu’un lieu géographique. À travers un « voyage en canapé », l’autrice interroge l’inaccessibilité physique et symbolique de l’océan, devenu surface de projection des fantasmes, des catastrophes et des dominations. Le récit mêle critique de la colonisation, des ravages nucléaires, du capitalisme extractiviste et observation ironique de notre monde numérique, passif et vampirique. Le texte navigue par rebonds et pas de côté, entre observations géopolitiques, fictions, écologie et méditations sur le langage. Refusant toute structure linéaire, Cécile Portier propose une dérive littéraire où l’océan, comme l’écriture, devient fluide, éclaté, imprévisible, miroir instable des tensions humaines et planétaires.

    (...)
    #Radio_Marelle, #Écriture, #Livre, #Lecture, #En_lisant_en_écrivant, #Podcast, #Littérature, #Mémoire, #Pacifique, #Temps, #Écologie, #Politique, #Planète (...)

    https://liminaire.fr/IMG/mp4/en_lisant_pourquoi_pacifique_ce_cile_portier.mp4

    https://www.editions-l.fr

  • « La fusion idéologique entre la droite américaine et le monde des médias ne commence pas avec Donald Trump, mais il l’a accélérée »

    https://www.lemonde.fr/idees/article/2025/07/03/la-fusion-ideologique-entre-la-droite-americaine-et-le-monde-des-medias-ne-c

    Dans une tribune au « Monde », l’universitaire Marlène Laruelle explique comment, depuis les radios des années Reagan jusqu’aux algorithmes d’aujourd’hui, la droite radicale a méthodiquement développé un écosystème médiatique diversifié.

    • Tout ne commence pas avec l’arrivée sur la scène politique de Donald Trump, loin de là. La conquête médiatique de la droite trouve ses racines dans la #radio : dans les années 1970-1980, la bande AM, alors largement sous-utilisée et peu soumise à des restrictions de contenu, devient la plateforme d’expression préférée des conservateurs américains.

      L’incarnation en sera Rush #Limbaugh et son Rush Limbaugh Show, à la longévité impressionnante : lancé en 1984, le talk-show continua jusqu’au décès de son hôte, en 2021. Ces émissions sont un succès d’audience qui contribueront à la victoire de Ronald Reagan en 1980 et 1984, puis à celle de George W. Bush en 2000 et 2004 – ce à quoi il faut ajouter, à la même époque, l’explosion de la mode des #télévangélistes [prédicateur qui anime des émissions religieuses à la télévision], qui dominent bon nombre de chaînes de radio et de télévision locales.

      C’est aussi durant cette période que Ronald Reagan, en 1985, offre la citoyenneté américaine au magnat Rupert #Murdoch, d’origine australienne, afin qu’il puisse accéder au marché médiatique américain, avec pour mission de le faire passer à droite. Le milliardaire reproduit aux Etats-Unis ses méthodes à succès, déjà appliquées en Australie et au Royaume-Uni. Il lance en 1996 #Fox News, qui va révolutionner la droite américaine et ses méthodes de communication.

    • Ce triomphe médiatique de la droite américaine repose sur deux principes stratégiques essentiels. Elle a d’abord pensé les médias comme un écosystème complet. Ces podcasts sont présents sur toutes les plateformes (YouTube, Rumble, Twitch, Kick, Spotify, Facebook, Instagram, TikTok) et sous tous les formats (visuel, audio, écrit, versions longues ou courtes, pour lecteurs cultivés ou pour lecteurs peu politisés, etc.).

      Les versions modérées pour le grand public, comme Fox News, sont complétées par des sous-écosystèmes plus radicaux, par exemple sur Rumble, le concurrent de YouTube, largement financé par le magnat Peter Thiel, qui n’a que peu de restrictions de contenu, ou One America News, plus ouvertement à l’extrême droite.

      Ensuite, l’idéologie passe avant tout par la culture : par-delà les podcasts ouvertement politiques, la droite américaine a su s’associer à des figures venues de cette sphère et tire parti des jeunes générations de créateurs et d’influenceurs. Les podcasts humoristiques, culturels, sportifs, centrés sur les tendances et les modes de vie, sont ceux qui gagnent les plus grandes audiences et peuvent constituer de formidables vecteurs politiques, comme le montre la mode des « trad wifes » – ces influenceuses défendant une féminité « traditionnelle ».

      The Daily Wire, cocréé par Ben Shapiro, est, quant à lui, devenu une holding produisant des films et du contenu pour enfants – le tout grâce aux subsides et financements des frères Dan and Farris Wilks, qui ont fait fortune dans la fracturation hydraulique au Texas. A cela s’ajoute encore le phénomène « Godlywood » : ces productions cinématographiques et en streaming chrétiennes évangéliques connaissent une forte croissance. La droite américaine a lu et applique la théorie du marxiste Antonio Gramsci (1891-1937) : la culture est devenue le centre de la bataille politique.

  • Actualités antinucléaires : Vélo-Castor #Nantes-La Hague jeudi 10.07
    https://nantes.indymedia.org/events/149231/actualites-antinucleaires-velo-castor-nantes-la-hague-jeudi-10-07

    Les 18/19/20 juillet est organisé à #La_Hague un évènement pour s’opposer à la construction de nouvelles piscines de déchets nucléaires et au #Nucléaire tout court. Localement, des personnes partiront à vélo de Nantes jeudi 10 juillet pour rejoindre la Hague (cf. tract joint Info Velo Castor Trajet 13 juin(1))…

    #lutte_antinucléaire #radioactivité #Résistance

  • La petite chronique sur l’IA qui pose la question que tu n’as pas envie d’entendre.

    Les humeurs de Gee sur « L’IA ne s’en ira pas » dans l’émission Libre à Vous proposée par l’April sur la radio Cause Commune, « la voix des possibles ».

    https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20250617/libre-a-vous-20250617-chronique-les-humeurs-de-gee.mp3

    L’émission complète : https://www.libreavous.org/251-l-association-la-mouette-et-la-bureautique-libre-l-ia-ne-s-en-ira-pa

    En prime, l’interview d’Infini, célèbre hébergeur brestois s’il en est :)

    #april #IA #AI #intelligence_artificielle #radio

    • La retranscription :

      Chronique « Les humeurs de Gee » intitulée « L’IA ne s’en ira pas »

      Isabella Vanni : Nous allons commencer avec la chronique « Les humeurs de Gee ». Gee, auteur du blog-BD Grise Bouille vous expose son humeur du jour : des frasques des GAFAM aux modes numériques, en passant par les dernières lubies anti-Internet de notre classe politique, il partage ce qui l’énerve, l’interroge, le surprend ou l’enthousiasme, toujours avec humour. L’occasion peut-être, derrière les boutades, de faire un peu d’éducation populaire au numérique.
      Le thème du jour : « L’IA ne s’en ira pas ».
      Bonjour Gee, c’est à toi.

      Gee : Salut Isa et salut à toi, public de Libre à vous !.
      Je suis désolé, mais il faut qu’on en parle. Oui, il faut encore qu’on parle d’intelligence artificielle. J’aurais préféré un sujet plus léger et plus fun pour ma dernière chronique de la saison, mais qu’est-ce que tu veux, c’est quand même le sujet du moment. J’ai compté, c’est déjà ma quatrième chronique sur l’IA, la toute première datant de mars 2023, en pleine explosion de popularité de ChatGPT. Et je ne suis pas le seul à en parler régulièrement, sur cette radio comme ailleurs.
      Quand un libriste, comme moi, parle d’IA, en général, il oscille entre trois axes :

      1. C’est dangereux, c’est écocide, c’est caca, c’est pipi, c’est capitaliste. Ce qui est vrai. Donc là, tu boycottes le truc et tu appelles massivement au boycott.
      2. C’est nul, regardez, ça ne marche pas bien, ChatGPT ne sait pas compter et il se plante sur des devinettes pour enfant, ce qui est vrai aussi. Là, tu es plus sur l’humour, tu rigoles en montrant que malgré les résultats, parfois impressionnants, ça fait quand même rapidement de la daube. Moi j’ai commencé plutôt sur ce mode, réécoutez ma première chronique sur le sujet pour vous e convaincre.
      3. C’est une mode, une bulle, c’est comme le Métavers et les NFT, on en voit partout, c’est insupportable, mais ça va finir par passer, ce qui est partiellement vrai. Oui, c’est insupportable ! En revanche, plus le temps passe, plus ça me semble très optimiste de penser que l’IA va finir par simplement disparaître, parce qu’insoutenable, parce que tout cela.

      Moi le premier, j’ai dit à plusieurs reprises que l’IA était une bulle, qu’elle allait finir par exploser et je le maintiens aujourd’hui. Je pense que l’IA est une bulle financière, mais il ne faudrait pas se méprendre sur ce que ça signifie : à la fin des années 90, il y avait un truc qu’on appelait la « bulle internet » et qui a éclaté au début des années 2000. Pourtant, au risque de te surprendre, Internet est toujours là. Pire, l’importance et le poids de l’Internet actuel feraient passer celui d’avant la bulle pour une charmante expérience sociologique. Ce n’est donc pas parce que la bulle financière de l’IA finira par éclater qu’il faut s’imaginer que l’IA disparaîtra dans la foulée sans laisser de traces. Lorsque la bulle éclatera, ça mettra, à n’en pas douter, un beau boxon économique et social – une reconfiguration du marché, comme on dit chez les conn… chez les néolibéraux – mais l’IA ne s’en ira pas. Il y a même un risque, comme avec Internet, qu’elle finisse par en ressortir plus forte que jamais.
      Le fait qu’elle soit insoutenable écologiquement est hors de propos : le système capitaliste est intrinsèquement insoutenable écologiquement et ça ne l’a jamais empêché de diriger la marche du monde, à sa perte, sans doute, mais tu vois bien que ça ne suffit pas à l’arrêter.
      Quant à un modèle économique viable, j’ai de moins en moins de mal à croire qu’OpenAI et compagnie le trouveront : nous sommes encore dans la phase « la première dose est gratuite », mais, ne nous y trompons pas, c’est une drogue redoutable dont des millions de gens deviennent déjà dépendants à vitesse grand V. Il ne faudrait pas que notre propre bulle – une bulle de filtre cette fois – nous fasse oublier que ChatGPT est devenu, en quelques mois, le logiciel avec le taux d’adoption le plus rapide de l’histoire de l’informatique, en gagnant plus de 100 millions d’utilisateurs et d’utilisatrices par mois. La pertinence des comparaisons avec le Métavers ou les NFT devrait s’arrêter là. Si ChatGPT cesse de fournir une version gratuite, je prends le pari que le taux d’adoption de la version payante sera lui aussi vertigineux. Et on verra fleurir des offres « forfait internet + abonnement ChatGPT », comme aujourd’hui Orange propose du « forfait internet + abonnement à Deezer ». Et ça marchera. Parce que l’IA générative est déjà devenue un besoin incontournable pour des millions de gens, à commencer par les plus jeunes. Une étude publiée jeudi dernier indique que 42 % des 18-25 ans déclarent utiliser l’IA tous les jours, 80 % l’utilisent au moins une fois par semaine. Un usage qui, à mon humble avis, va tout simplement tendre vers le taux d’usage des smartphones, avec ChatGPT qui deviendra une application aussi commune que WhatsApp ou YouTube, si ça n’est pas déjà le cas.

      Dans l’IUT d’informatique où je donne quelques cours, la quasi-intégralité des élèves ont toujours une fenêtre ChatGPT dans le navigateur, c’est devenu un outil aussi courant qu’un navigateur. Tous les élèves n’en ont pas exactement le même usage, il y en a qui l’utilisent avec parcimonie, avec recul et puis d’autres qui copient-collent les énoncés, puis copient-collent les réponses sans rien comprendre à rien… mais qui s’en sortent quand même. Pas les mêmes profils, ces élèves d’ailleurs, mais je vais y revenir. En tout cas, j’ai dû mal à leur en vouloir : à leur place, du haut de mes 18 ans, j’aurais sans doute fait pareil.
      N’empêche, la première fournée d’étudiants et d’étudiantes qui ont obtenu leur diplôme en déléguant l’intégralité de leurs études à une IA arrive déjà, et elle arrive vite, pas dans 5 ans, maintenant. Ce sont ces mêmes jeunes adultes pour qui la question de faire sans IA ne sera plus une option : s’il faut payer, ce sera fait.
      On me rétorquera que je parle d’un IUT d’informatique, ce qui est encore une bulle un peu particulière, eh oui, évidemment. Mais on a peu ou prou les mêmes échos en fac de droit, de langue, d’économie et même de médecine, ce qui m’inquiète un peu sur les compétences de nos futurs médecins.
      En plus, là je parle de jeunes adultes en train de faire leurs études, mais chez les 12-17 ans, on a 45 % des jeunes qui déclarent avoir déjà utilisé l’IA pour leur vie scolaire ou privée. Oui, parce qu’un cas d’usage apparemment très répandu, c’est l’IA comme confidente, à qui on raconte à sa vie, avec qui on dialogue comme avec un bon pote, mais en plus, un bon pote qui est toujours disponible, toujours poli, qui vous parle toujours avec bienveillance et patience.
      Une grande part de la génération actuelle d’étudiants et d’étudiantes ne peut déjà plus imaginer sa vie professionnelle sans IA ; une grande part de la génération actuelle de lycéens et lycéennes ne pourra bientôt plus imaginer sa vie sans IA.

      Donc, l’IA ne s’en ira pas.

      À ce titre, les appels au boycott de l’IA me semblent, au mieux, anachroniques, je suis désolé, c’est trop tard pour le boycott !
      Il n’est plus question d’empêcher l’avènement de l’IA, il est question de savoir comment on continue à lutter pour l’émancipation, pour la justice, pour l’écologie, pour l’égalité sociale, dans un monde où l’IA est omniprésente.
      Mon camarade Pierre-Yves Gosset, de Framasoft, allait même jusqu’à dire, dans sa dernière conférence sur l’IA, que pouvoir boycotter l’IA était un truc de privilégié. Oui, pour toi et moi, boycotter l’IA c’est facile, on a grandi sans, on n’en a pas besoin. De la même manière, perso je suis pour un boycott de la voiture pour des raisons écologiques. Évidemment, c’est facile pour moi qui habite dans un coin bien desservi par les transports en commun, qui n’ai pas d’enfant et qui bosse de la maison.

      Une grosse erreur que je vois souvent dans les milieux libristes consiste à voir l’IA comme un gadget de tech bro comme on dit, un joujou technologique pour jeune cadre riche, comme les lunettes connectées ou la blockchain. Et si l’IA est bien une idée de tech bro et de géant de la tech au départ, c’est à mon sens au contraire chez les classes populaires qu’elle a le plus d’impact.

      Je reviens à mon IUT. Un IUT d’informatique, ce n’est pas exactement la même chose qu’une école d’ingénieurs informaticiens : on a un brassage social beaucoup plus important, des gamins, gamines qui viennent du lycée général, d’autres de lycées technologiques ou professionnels, des gosses de prolos mélangés à des gosses de petits fonctionnaires ou autres, avec des niveaux extrêmement hétérogènes et tout le défi, pour les profs, est d’arriver à faire que les plus faibles ne soient pas largués par les plus à l’aise.
      Eh bien, ça va peut-être te surprendre, mais ce sont plutôt les gosses qui ont le plus de difficultés, souvent issus de milieux pauvres, qui usent et abusent de l’IA. Les élèves qui viennent de milieux plus favorisés sont, en général, les plus critiques de cette technologie. Dans un cours sur Android, on a récemment découvert avec mes élèves qu’Android Studio, le logiciel de développement, ajoutait à ses messages d’erreur ask Gemini », « demande à Gemini », l’IA de Google. Eh bien mon élève Thomas, issu de lycée général, jean, t-shirt, 16 de moyenne, a réagi par un « pff, c’est n’importe quoi ! ». Il a quand même essayé par principe, mais il a vite vu que Gemini racontait des salades, et, en lisant le message d’erreur, il a rapidement compris et il a corrigé par lui-même.
      Plus tard, pendant l’examen où tous les documents étaient autorisés – on ne voit pas l’intérêt de faire retenir du par cœur pour de la programmation –, Brandon, lycée technologique, survêt et baskets, 8 de moyenne, répondait aux questions de la manière suivante : il avait préparé un petit document où il avait fait bouffer l’intégralité du cours à ChatGPT, puis lui avait demandé de lui générer des dizaines et des dizaines de questions possibles. Et, pendant l’examen, il recherchait les termes des questions dans son petit document, il trouvait une question suffisamment proche et il copiait-collait la réponse. Vu la vitesse à laquelle il le faisait, je ne pense pas qu’il ait vraiment lu la moindre de mes questions. Je ne suis même pas certain qu’il ait compris de quoi le cours parlait, mais il a eu 11 à son examen. J’avais interdit Internet mais autorisé tous les documents, il a suivi les consignes, je ne vois pas bien pourquoi je l’aurais pénalisé. Thomas, qui a eu 17 en utilisant juste ses connaissances, aura, lui aussi, le même diplôme. Je précise au passage que j’ai changé les prénoms pour ne pas balancer mes élèves en direct.
      Maintenant, c’est sur le marché du travail que Thomas et Brandon se distingueront et, spoiler, c’est encore Brandon qui morflera.
      Parce qu’un informaticien ou une informaticienne qui sait juste taper des prompts, on peut en trouver qui n’ont pas des prétentions salariales de bac+3.
      Parce que l’IA sera, à la fin, malgré les illusions, un aggravateur d’inégalités sociales, un accélérateur de paupérisation des classes populaires.
      En même temps, qu’ai-je de mieux à proposer à Brandon ? Quelles sont mes chances d’arriver à lui faire « boycotter » l’IA qui lui a permis de décrocher un diplôme qu’il n’aurait sans doute pas eu sans, quand l’intégralité de ses camarades font de même ?
      ChatGPT a permis à une foule de personnes nulles en expression, en orthographe et en grammaire de pondre des lettres de motivation parfaites et d’arrêter de se faire recaler avant même l’entretien d’embauche !
      Qui suis-je, moi, du haut de mon doctorat et de mon capital culturel de fils de prof, pour leur dire de boycotter ?

      Oui, je sais, le monde sera meilleur quand on aura arrêté de considérer que les non diplômé⋅es méritent d’être pauvres, ou même quand on aura supprimé ces conneries de lettres de motivation, mais ça c’est comme abattre le capitalisme : je sais bien qu’on va y arriver la semaine prochaine, c’est une question de jours, mais, en attendant, on fait quoi ? On fait quoi pour les aliéné⋅es en attendant d’avoir aboli l’aliénation ? On fait quoi pour cette génération qui a intégré l’IA comme nous-mêmes avions intégré Internet, comme d’anciennes générations avaient intégré l’électricité ou l’eau courante ? On fait quoi pour tous ces gens qui utilisent l’IA pour aller mieux, pour améliorer leur vie, pour s’extraire de leurs conditions sociales ?

      Ah ça fait chier, comme question ? Moi aussi j’aurais préféré ne pas avoir à me la poser. Moi aussi j’aurais préféré qu’on empêche OpenAI et compagnie de développer leurs saletés. Moi aussi j’aurais préféré que cet ouragan n’arrive pas, mais c’est là, c’est partout, et ça ne s’en ira pas de si tôt.
      Boycotter, c’est-à-dire ne rien faire, c’est une bonne réponse à titre individuel, mais c’est comme aller bosser en vélo pour l’écologie. Déjà, il faut avoir la possibilité le faire, et surtout, ça ne suffira pas à l’échelle collective !

      Pour agir contre l’hégémonie de l’IA, il faut donc arrêter le déni, regarder cette réalité difficile en face, mais sans tomber pour autant dans la résignation ou l’aquoibonisme, bref, garder l’espoir que nous avons quand même le pouvoir d’améliorer notre monde. Et pour cela, j’aime bien citer ce dialogue du Seigneur des Anneaux. C’est Frodon qui se lamente de la guerre dans laquelle il est entraîné et dit : « J’aurais voulu que cela n’ait pas à arriver de mon temps. » Ce à quoi Gandalf, le magicien, lui répond : « Moi aussi, et il en va de même pour tous ceux qui vivent en de pareils temps, mais il ne leur appartient pas de décider. Tout ce qu’il nous appartient de décider, c’est ce que nous comptons faire du temps qui nous est imparti. »

      Alors, ami⋅e libriste, face à l’IA comme au reste, je te laisse pour l’été avec cette question : « Qu’allons-nous faire du temps qui nous est imparti ? »

      Isabella Vanni : Voilà ! Merci, Gee, pour cette chronique, nous avons donc tout l’été pour penser à une réponse.

      Gee : J’espère que vous aurez la réponse, parce que moi je ne l’ai pas tout de suite.

      https://www.librealire.org/emission-libre-a-vous-diffusee-mardi-17-juin-2025-sur-radio-cause-commun

    • Très intéressant. Juste pas vraiment convaincu par l’argutie morale à la fin, que je trouve pas du tout au niveau du début :

      En même temps, qu’ai-je de mieux à proposer à Brandon ? Quelles sont mes chances d’arriver à lui faire « boycotter » l’IA qui lui a permis de décrocher un diplôme qu’il n’aurait sans doute pas eu sans, quand l’intégralité de ses camarades font de même ?

      « de mieux à proposer à Brandon » ? mais plein de trucs : par exemple proposer des faveur sexuels à ses professeurs pour obtenir son diplôme qu’il ne pourrait pas réussir autrement. Qui serais-je pour « juger », quand l’intégralité de ses camarades font de même ? (J’écris ça juste pour indiquer que ce genre de question morale à base de « qui suis-je pour juger » me semble tout de même bien faible.)

    • Il faut voir le bon côté des choses : l’IA générative (puisqu’on ne parle que de ce genre d’IA) est très douée pour pondre des trucs sans intérêt, comme une lettre de motivation, je pense que ça va juste mettre définitivement fin aux lettres de motivations (déjà que c’était de moins en moins demandé).

      Mais sinon : j’ai un jeune stagiaire dans ma boîte qui effectivement a le réflexe de tout faire sur ChatGPT, la moindre recherche est faite dessus. Il faut dire qu’il y a un truc simple mais puissant sur ChatGPT, cela historise les recherches/réponses, ce qui génère une sorte de doc en même temps si on a besoin de retrouver rapidement un truc (c’est l’argument que le stagiaire m’a donné, ça se tient, si on excepte le fait qu’il devient dépendant d’un produit).

    • raph@tooter.social sur Mastodon :

      Je vais être un peu brut, mais la posture anti-IA de beaucoup de monde ici m’horripile. Pas que j’ai une affection particulière pour l’IA, même si comme des milliards d’autres humains je trouve ça pratique.

      Mais vous savez. Je sais. Nous savons. Si ça cartonne c’est parce que c’est efficace et que ça répond à une demande.

      L’argumentaire anti-IA dépolitise sa mise en oeuvre. Par exemple, discuter de comment la mettre entre les mains des citoyens pour la libérer de l’emprise du capital.

      Tout l’argumentaire anti-IA repose en fait sur un argumentaire anticapitaliste.

      Les entreprises derrière ces outils pillent du contenu sans l’accord de leurs auteurs ? Yep. C’est le capitalisme.

      Les data-centers consomment l’énergie de plusieurs grandes villes ? Devinez quoi ? C’est encore le capitalisme.

      Les interfaces isolent du reste du web ? Wait. You know.

      ect ect.

      https://tooter.social/@raph/114772379107721340

      Et les différents commentaires qui suivent.

    • Ouais il veut « faire du LLM à visage humain »… bah non ça marche pas. Tout comme une centrale nucléaire communiste autogérée, soit ne peut pas exister, soit si elle existe sera exactement la même merde que la centrale nucléaire capitaliste. Pareil pour les LLM. (et pareil pour les smartphones et l’infrastructure mondiale nécessaire, etc).

    • « ça répond à une demande », alors là faudrait voir. Je l’utilise un peu dans le cadre pro (quasi exclusivement pour me générer des tests unitaires, de la même façon que mon IDE est depuis longtemps capable de me générer des morceaux de code spécifiques comme base de travail) mais dans ma vie perso je n’ai jamais vraiment ressenti le besoin de ça (et je m’en sers absolument jamais). Surtout que je vois bien que dans mon domaine d’expertise (le code), ça génère toujours pas mal de conneries, donc si je n’y connais rien dans un autre domaine j’ai d’autant plus de raison de ne pas l’utiliser. Par contre le marketing m’y incite, chaque jour. Bref, la « demande » se crée. Et il y a cette croyance que cela va être de plus en plus fiable (les LLM). Eh bien non, on arrive déjà aux limites du truc, les expert⋅e⋅s du domaine expliquent en long et en large que cette techno a de fortes limites et qu’il faut encore attendre des années et des années (si ça arrive) avant d’avoir un autre type d’IA plus convaincant.

      Alors bien sûr il y a des cas d’usage intéressant mais ils sont (très) spécifiques et avoir mis cet outil entre les mains de tout le monde et partout est criminel à mes yeux. Reste un espoir : beaucoup d’outils à base d’IA générative promettent des merveilles mais sont en réalité absolument nuls et les gens commencent à s’en apercevoir, il n’est donc pas impossible que cette bulle éclate plus vite que prévu, d’autant plus que pour le moment c’est aussi un gouffre financier pour les entreprises phares du secteur et rien ne dit que ce sera rentable un jour.

    • @rastapopoulos Si on sépare les usages finaux de tout la partie apprentissage, est-ce qu’il ne pourrait pas y avoir une IA des chatons par ex, il existe bien des LLM libre ? Mais peut-être qu’ils ne sont pas performants et/ou que ça demande une infra trop lourde ?

      @b_b tu sais s’il y a des discussions au sein des Chatons ou bien c’est pas du tout réaliste ?

    • @jeanmarie je lisais l’article cité ici https://seenthis.net/messages/1115487 hier soir et justement il aborde un peu la question cf :

      Même s’il est effectivement possible de faire des petites IAs éthiques aux impacts moindres, cela participe à l’acceptation générale de toutes les IAs génératives potentielles, dont celles qui ont un impact énorme et sont fort peu éthiques.

      À propos des CHATONS, non je n’ai pas vu d’échanges à ce sujet sur https://forum.chatons.org

    • @jeanmarie ce qui demande des ressources monstrueuses c’est à la fois l’apprentissage (et la mise à jour permanente avec toujours plus de données à jour) ET ensuite l’utilisation massive.

      D’une part tu ne peux pas juste télécharger un modèle de language ou d’images, en te disant « je l’utilise dans mon coin et moi je ne consomme pas trop », sans te poser la question d’où il sort, comment il a été fait. (et de toute façon les modèles libres ne sont pas à jour et ne servent pas à faire grand chose, il faut que ce soit relié à d’autres bases de connaissances énormes pour que ça serve à quelque chose, c’est qu’une partie du problème de savoir lire et écrire en phrases humaines)

      Hors capitalisme, il pourrait bien sûr n’y avoir qu’un unique modèle commun et libre mondial (ou plusieurs moyens ciblés mais tous communs), plutôt que plein d’entreprises qui se battent et polluent pour essayer de générer au final exactement la même chose. Déjà ça polluerait bien bien moins c’est sûr, de mutualiser. Mais ça polluerait quand même horriblement, si tout le monde l’utilise.

      Mais ensuite le cumul de l’utilisation massive consomme encore bien plus que la création des modèles : des milliards de requêtes par jour, chacune consommant bien plus qu’une recherche dans des bases de données (même énorme comme celle de Google). Et évidemment encore plus pour générer une image ou une vidéo qu’un texte, mais déjà le texte ça consomme beaucoup.

      Donc t’auras beau installer ça sur un Chaton : ça consommera pareil pour générer des choses que tu voudras libre (de la musique, un plan et calendrier de permaculture, des lettres administratives chiantes, ou que sais-je).

    • J’avais manqué de le partager, et je n’avais pas réussi à exprimer ce qui me gênait dans cette conclusion moralisatrice, à la fin. Je n’ai tjs pas réussi, mais j’avance. Et je découvre seulement maintenant votre fil. Ces LLM ne sont pas neutres, ne sont pas fiables. Ce matin, je pensais à l’argument qui dit qu’il n’y a pas de différence entre un LLM et une encyclopédie, ça facilite l’accès à la connaissance, mais en fait non. L’encyclopédie aussi peut ne pas être neutre, OK, mais... l’encyclopédie est figée au moins pour un temps plus ou moins long, elle a une piste d’audit pour comprendre comment la connaissance partagée est dans l’état dans lequel elle est (si on parle de Wikipédia par exemple), alors que dans le cas des LLM, rien de tout cela n’existe, et n’existera jamais. Les réponses données pourront évoluer d’un instant à l’autre, d’un interlocuteur à l’autre (cf. les propos de Musk à propos de Grok qui parfois serait trop woke et qu’on va arranger ça). Il y a un vrai problème. Au delà du fait que ces LLM en plus ne sont pas (encore ?) fiables.

      L’inéluctabilité de l’usage des IA me semble être un énorme mirage, sinon un piège que l’on nous tend. Et je ne crois pas qu’affirmer qu’il n’y a pas le choix soit le marqueur d’une hauteur de vue particulière.

    • @biggrizzly je pense que tu confonds LLM et contenu de la réponse/recherche. Car les outils grands publics mélangent l’ensemble des fonctionnalités à la fois.

      Le LLM sert avant tout à « comprendre » (même si techniquement derrière ce n’est fait que de manière statistique) le prompt envoyé, et à répondre avec des phrases humaines dans n’importe quelle langue.

      Mais le contenu de la réponse lui il est bien totalement personnalisable. Cela fait un moment qu’on a des outils (RAG) qui permette d’utiliser les LLM comme outil d’interaction uniquement (permettant la forme chatbot ou assimilé) mais par contre en demandant explicitement de ne générer des réponses uniquement avec des données fermées précises.
      https://fr.wikipedia.org/wiki/G%C3%A9n%C3%A9ration_augment%C3%A9e_de_r%C3%A9cup%C3%A9ration

      Et même mieux : ça permet d’avoir des réponses avec des données à jour (dès que tu ajoutes des nouveaux contenus dans ta base vectorielle) sans ré-entrainement du modèle utilisé, qui ne sert vraiment qu’à « parler bien ».

      Cela donne comme des moteurs de recherche améliorés, mais avec toujours des réponses que dans ta base à toi. Ça peut être les données de ton entreprise, ou même on peut parfaitement coder ça pour wikipédia par exemple (ça m’étonnerait qu’il n’y ait pas déjà un projet comme ça non ?). Genre tu mets tout wikipédia de toutes les langues du monde dans une base vectorielle, et tu utilises un moteur LLM pour pouvoir poser des questions et avoir des réponses entièrement en language naturelle, mais que avec des infos « vérifiées » par wikipédia.

      Bref tout ça pour dire que rester dans le « c’est pas fiable » n’est pas une argumentation très intéressante il me semble, et l’est de moins en moins dès lors qu’il y aura partout des utilisations ciblées comme ça.

      Et je pense vraiment que sur le moyen-long terme ça sera l’utilisation qui va rester le plus et qui sera rentable (car les prestataires OpenAI etc vendent alors des tokens d’utilisation de leurs modèles par API pour des utilisations métiers).

    • Il y a des gens qui parlent d’IA pour désigner le phénomène, et là, j’ai préféré parler de LLM, pour désigner le phénomène ChatGPT/Grok/Claude, qui sont des agents prétendant répondre à toutes tes questions. Ces agents sont liés à des contenus divers, et massifs, dont les poids ont été massivement ajustés par des millions d’actions humaines de la part de ce que certains désignent comme les nouveaux esclaves numériques sans qui tout ce phénomène s’écroulerait.

      La technologie sous-jacente est sans doute intéressante, et je te remercie pour ton cours magistral, mais pour pouvoir les exploiter, encore faut-il avoir des contenus assez massifs pour qu’ils soient capables d’être rendus utiles. Les cas d’usage pour le tout venant est très restrictif, y compris en entreprise. Il y a 5 ans, on te me promettait que le Watson d’IBM, qui était massivement déployé dans les banques et assurances allait remplacer tous les employés, et 5 ans après, on te me jure la même chose de OpenAI, et on a oublié Watson.

    • Mais encore une fois les LLM c’est pas l’outil final de ChatGPT ou Grok ou Claude. Dedans ça utilise leurs modèles et c’est lié à des recherches dans les contenus sources en plus parfois et d’autres outils supplémentaires (du genre « réflexion en plusieurs étapes » etc).

      Les modèles de language (LLM) seuls, t’es pas obligé de lui faire répondre avec ce qu’il « connait » (hum) dans son modèle et qui est forcément un instantané de quand il a été entrainé, mais uniquement avec des données fermées dans une base précise (qui peut être opendata, libre, ouverte, ou métier de ton entreprise).

      Ça n’a bien sûr un intérêt que si tu dois chercher dans une base un peu importante, mais pas forcément. Surtout ça a un intérêt si tu cherches pas juste « où se trouve tels mots » (à ce moment là juste ElasticSeach, Manticore etc suffisent), mais bien quand tu cherches des questions sémantiques précises, même si ta base n’est pas si grosse. Et que tu ne veux pas apprendre à tout le monde à savoir faire des requêtes graphes ou SQL.

      Genre « quels sont les acteurs ayant joué James Bond » (dans wikipédia) ou « à quelles amendes ont été condamné Google et Apple dans les 10 dernières années et pour quelles raisons » (dans la base des décisions juridiques)… avec des sources fiables dans TA base à toi.

      Les outils finaux de ChatGPT, Grok, Claude, montrent un peu ce que ça permet et surtout ont rendu la chose acceptable et grand public, mais en produisant plein d’hallucination si on pose des vraies questions précises (et pas juste à générer des lettres).

      Ce que je dis, c’est que la technologie pour répondre fiablement à des questions avec des données vérifiées ça existe, et qu’il me semble que sur le long terme c’est ça qui sera utilisé majoritairement. À la fois parce que les utilisateurs ont absolument besoin de réponses fiables et à jour dans leur domaine (un⋅e juriste ne doit pas avoir d’hallucination sur les jurisprudences !) ET parce que c’est ça qui sera rentable pour OpenAI et compagnie, car l’utilisation par API de leurs LLM ça ils peuvent le faire payer. Et donc ça va être utilisé massivement parce que c’est utile à plein de monde, pas juste par mode et buzz.

      De mon point de vue la seule critique qui reste valable quelque soit l’évolution, c’est la critique techno, la pollution, l’énorme infrastructure industrielle qu’il faut pour tout ça. Et sûrement aussi la critique de ce que ça fait à notre cerveau de plus faire plein de choses « par nous mêmes ».

    • @rastapopoulos :

      Genre « quels sont les acteurs ayant joué James Bond » (dans wikipédia) ou « à quelles amendes ont été condamné Google et Apple dans les 10 dernières années et pour quelles raisons » (dans la base des décisions juridiques)… avec des sources fiables dans TA base à toi.

      Les LLM ne sont pas conçus pour dire les faits. Ils sont conçus pour répondre en probabilité.

      Mais à la limite, imaginons qu’ils parviennent à réduire l’écart, un jour, pour atteindre 99 voire 100%, oui, alors, ils seront capables de débiter à coup sûr la liste des accidents sur des sites SEVESO dans les 30 dernières années. Actuellement, aucun LLM n’est capable de le faire, sauf à les entraîner uniquement avec ces uniques informations. Et encore, il y a une chance qu’ils inversent des dates, des lieux, des noms de sites.

      Ceci dit, nous ne parlons pas de la même chose. Mon propos, en intervenant ici, n’est pas de dire si oui ou non, cette technologie est utile. Mon propos, c’était de réagir à la conclusion de Gee, qui dit que les IAG/les LLM qu’on nous demande d’utiliser à grand renfort de marketing, ça va être incontournable, ou pas, parce que Gee, il nous dit que de lutter, c’est déjà perdu, parce que c’est plié, la démonstration est déjà faite que l’utilisation de ces outils est devenu obligatoire de fait. Je ne le pense pas, mais l’exprimer est encore complexe.

      Mon propos, là, c’est de dire que ça ne le sera pas. Que les tentatives maladroites actuelles vont s’écrouler sur elles mêmes. J’ajoute que politiquement, ce qui est développé actuellement est particulièrement néfaste, et à mon sens, un jour, on va les déconnecter, du fait qu’elles vont se révéler nocives et traîtres, exactement comme Office 365 est en train de se faire déconnecter malgré les services rendus manifestes. Nocives et traîtres non pas du fait d’une improbable émancipation. Mais nocives et traîtres du fait de leurs propriétaires, et de l’agenda de ces propriétaires.

      Et je n’ai même pas commencé à évoquer les questions des ressources, posées par l’implémentation actuelle de ces technologies.

    • Actuellement, aucun LLM n’est capable de le faire, sauf à les entraîner uniquement avec ces uniques informations.

      @biggrizzly cette phrase montre que c’est pas certain que tu ais compris mon explication plus haut que tu as appelé « cours magistral » car c’est pas du tout comme ça que c’est utilisé de plus en plus avec les RAG.

      Les LLM sont juste les modèles de langage qui servent à « lire/comprendre » (statistiquement) les prompts et à répondre en phrases humaines.

      Ensuite ils sont utilisés parfois « tel quel » pour générer ce qu’on veut, mais donc avec des hallucinations possibles, puisqu’ils répondent seulement « en l’état de leur entraînement ».

      Mais de plus en plus (et ça ne fait qu’augmenter), ils sont utilisés comme outil de dialogue naturel uniquement mais qui vont chercher leurs réponses dans des données précises.

      Donc si si c’est parfaitement d’ors et déjà possible d’avoir un chatbot « qui parle comme un humain » et qui répond à 100% correct à tes questions sur un domaine précis sans strictement aucun entrainement dans ce domaine (c’est ce point qu’il faut comprendre), uniquement parce que tu le « connectes » avec un RAG qui dit « répond moi seulement avec cette base de données ».

      Si tu as une base d’une asso écolo qui recense toutes les pollutions du siècle passé (dont les accidents SEVESO à l’intérieur), et même si tu viens d’ajouter 10 trucs dedans aujourd’hui même, il te répondra la bonne chose avec des sources, et dans ta langue naturelle. Et pourtant derrière ça sera avec le modèle GPT4 ou Claude qui ne connait rien à ce que tu lui as demandé, mais parce que relié à un RAG avec les bonnes sources fiables.

      C’est vraiment comme ça que sont utilisés les LLM dans les chatbots professionnels aujourd’hui, à aucun moment c’est en demandant ça à ChatGPT « tout seul ».

      Et donc :
      – les vendeurs de LLM sont déficitaires car pour le grand public ils ne vendent rien (sauf si ça fini par être inclus dans les abonnements de box internet)
      – en revanche ils vendent bien leur utilisation par API à intégrer dans d’autres outils (dont majoritairement des RAG)
      – les utilisations hallucinantes grand public peuvent bien se casser la gueule comme tu dis
      – mais l’utilisation pour décrire une question et avoir une réponse en langage naturel MAIS dans des sources fiables, je ne vois pas pour quelle raison ça se casserait la gueule : car à la fois utile, fiable ET potentiellement rentable pour OpenAI et consorts.

    • Bé c’est pas du RAG ça @alexcorp , c’est un chatbot grand public à qui on donne des liens à lire… qu’il lira peut-être s’il a envie (mais qui continue d’utiliser ses pseudo-connaissances entières). C’est pas un truc qui utilise le LLM seulement pour produire des phrases lisibles, mais dont la recherche se fait entièrement dans une base dédiée il me semble (ou j’ai mal compris).

    • @rastapopoulos non c’est censé aller chercher à la source (c’est la dernière grande promesse de ces outils, en version payante) et on voit que le truc hallucine toujours, mais avec beaucoup de confiance s’il vous plaît (des mauvaises langues diront que c’est normal car ce sont des hommes qui sont majoritairement derrière ce genre d’outils). Même avec la technique du RAG, la génération de la réponse est toujours susceptible de produire des choses fausses et le taux « d’erreur » baisse à peine (et surtout c’est plus compliqué de les détecter, surtout que la confiance de l’utilisateur est potentiellement plus élevée).

    • @alexcorp proof or it doesn’t exist :p Je n’ai jamais vu d’hallucination majeure si dans le pré-prompt d’un RAG tu configures bien « réponds uniquement avec le contexte de la base sans rien inventer et réponds que tu n’as pas assez d’infos si tu ne trouves pas ».

      En tout cas l’exemple donné n’est clairement pas un RAG avec un pré-prompt dédié conçu pour une base donnée, mais l’utilisation d’un chatbot grand public en lui demandant de lire un lien quelconque sur internet, donc logique qu’il puisse toujours halluciner.

    • C’est du mauvais RAG oui mais ça en est quand même. À vrai dire, même très bien configuré il n’y a pas de certitude d’avoir un résultat exact à partir du moment où on va demander de générer une réponse et non afficher la source (comme un moteur de recherche).

  • Lecture d’un extrait du livre « Capsule Bakary » de Sébastien Smirou

    https://liminaire.fr/creation/radio-marelle/article/capsule-bakary-de-sebastien-smirou

    Le roman de Sébastien Smirou retrace en six chapitres les derniers jours de Bakary qui transforme sa chambre en une capsule temporelle, destinée à témoigner de son existence à d’éventuels survivants. Le récit fragmentaire, tout entier contenu dans un espace clos, mêle introspection, souvenirs et obsessions morbides. Replié sur lui-même, Bakary construit un autel à sa solitude. Il y consigne pensées, souvenirs et hallucinations, hanté par ses parents. Il convoque ses héros imaginaires, ses objets quotidiens (un appareil photo, un frigidaire, un autoportrait, une licorne, la maquette d’une chambre de deux amoureux qui se donnent la mort), qui à leur tour racontent son histoire. Dans une langue lyrique et hantée, le récit explore la fascination pour la mort, les frontières entre réalité, fantasme et mémoire, affirmant une forme d’existence dans l’effacement.

    (...)
    #Radio_Marelle, #Écriture, #Livre, #Lecture, #En_lisant_en_écrivant, #Podcast, #Littérature, #Mémoire, #Mort, #Temps, (...)

    https://liminaire.fr/IMG/mp4/en_lisant_capsule_bakary_se_bastien_smirou.mp4

    https://www.pol-editeur.com/index.php?spec=livre&ISBN=978-2-8180-6283-8

  • #Formation : la post-production pour le #Podcast de création
    https://radioparleur.net/2025/06/17/formation-podcast-montage-mixage

    Deux jours pour partager méthodes et techniques accessibles sur Reaper ! Le podcast est un outil puissant de transmission, et #Radio_Parleur poursuit son cycle de transmission d’écritures et de techniques pour permettre son appropriation. Pendant ces deux jours de formation, co-organisé par le studio La Houle, et animés par le réalisateur de Radio Parleur, […] L’article Formation : la post-production pour le podcast de création est apparu en premier sur Radio Parleur.

    #Carousel_4 #Vie_de_la_rédaction #Atelier #Sonore

  • « Raconteries » de Charles Pennequin et « Disparitions, apparitions » de Joachim Séné : deux nouveaux livres publiés par les éditions Abrüpt.

    Une poésie qui déborde, refuse les normes, et fait du langage un lieu d’expérimentation et de transformation radicale.

    https://liminaire.fr/creation/livre-lecture/article/raconteries-de-charles-pennequin-et-disparitions-apparitions-de-joachim-se

    Ces deux ouvrages partagent une volonté radicale de faire éclater les cadres traditionnels de la littérature. Le texte de Charles Pennequin explore l’écriture comme geste vital, performatif, où le corps parle autant que les mots, dans une lutte contre l’aseptisation littéraire. De son côté, le recueil de Joachim Séné propose une poésie fragmentaire et sensorielle, mêlant le grotesque au numérique, où les corps se dissolvent et ressurgissent sous formes symboliques ou organiques. Tous deux défendent une écriture du vivant, traversée par le réel, la violence sociale, et une forme d’urgence — à dire, à crier, à exister autrement. Une poésie qui déborde, refuse les normes, et fait du langage un lieu d’expérimentation et de transformation radicale.

    (...) #Radio_Marelle, #Écriture, #Livre, #Lecture, #En_lisant_en_écrivant, #Podcast, #Littérature, #Corps, #Performance, #Société, #Voix, #Abrüpt (...)

    https://abrupt.cc/charles-pennequin/raconteries
    https://abrupt.cc/joachim-sene/disparitions-apparitions

  • Lecture d’un extrait du livre « Membres fantômes / Temps mêlés » de Claude Favre

    https://liminaire.fr/creation/radio-marelle/article/membres-fantomes-temps-meles-de-claude-favre

    Ce livre regroupe deux textes de Claude Favre qui se font écho. « Temps mêlés » confronte éclats du présent et réminiscences personnelles, tandis que « Membres fantômes » entremêle trois voix (publique, intime et poétique). Écriture de l’urgence et de la lucidité blessée, ses textes refusent l’apathie ambiante, les postures esthétisantes ou les silences complices. Claude Favre y affronte de plein fouet guerres, exils, ravages écologiques, et les fait entrer dans le langage. Elle écrit depuis un trop-plein du réel, une saturation d’horreurs où la poésie demeure pourtant un espace de résistance, de vérité, voire de consolation. Sa voix, radicale et dissidente, en colère, refuse de détourner le regard. Un appel vibrant à une parole vivante, risquée, essentielle, qui engage le corps, le souffle, et rend à la poésie sa puissance d’agir.

    (...) #Radio_Marelle, #Écriture, #Livre, #Lecture, #En_lisant_en_écrivant, #Podcast, #Littérature, #Mémoire, #Histoire, #Politique, #Guerre (...)

    https://liminaire.fr/IMG/mp4/en_lisant_membres_fanto_mes_temps_me_le_s_claude_favre.mp4

    https://editions-lanskine.fr/membres-fantomes-temps-meles

  • Lecture d’un extrait du livre « Le cours secret du monde », d’Hugues Jallon, paru aux Éditions Verticales en 2025

    https://liminaire.fr/creation/radio-marelle/article/le-cours-secret-du-monde-d-hugues-jallon

    Dans "Le cours secret du monde", Hugues Jallon dresse un panorama déroutant de figures marginales ou influentes, ésotéristes, gourous, ingénieurs illuminés, agents doubles, spécialistes du développement personnel, pour explorer les zones troubles où l’occultisme, l’économie et le pouvoir s’entrelacent. À travers un montage d’anecdotes, d’extraits et de réflexions, il interroge le capitalisme comme système ésotérique, construit sur des promesses opaques et des récits à décrypter. Derrière les histoires singulières de ces « chercheurs de vérité » se dessine une logique du secret devenu norme. Le livre, constitué d’une juxtaposition d’éléments différents, nourri de colère et d’humour noir, évolue comme un labyrinthe mental où la lucidité politique flirte avec la paranoïa. Hugues Jallon y esquisse une critique du monde contemporain et un appel à rompre avec ses injonctions absurdes.

    (...) #Radio_Marelle, #Écriture, #Livre, #Lecture, #En_lisant_en_écrivant, #Podcast, #Littérature, #Mémoire, #Histoire, #Politique, #Capitalisme, #Occultisme, (...)

    https://liminaire.fr/IMG/mp4/en_lisant_le_cours_secret_du_monde_hugues_jallon.mp4

    http://www.editions-verticales.com/fiche_ouvrage.php?id=500

  • #Essais_nucléaires en #Polynésie : « Vu de Paris, ce n’était qu’un désert liquide »

    Près de 30 ans après la fin des essais nucléaires en Polynésie, une commission parlementaire tente de faire reconnaître le préjudice des populations locales. Pour le chercheur Alexis Vrignon, « l’histoire n’est pas terminée ».

    Pendant trente ans, entre 1966 et 1996, la France a effectué 193 essais nucléaires en Polynésie, sur les atolls de #Mururoa et de #Fangataufa. Dans l’air, puis sous l’océan à partir de 1974. Près de 170 000 habitants auraient été exposés à des radiations. Les explosions atmosphériques ont dispersé des substances radioactives, notamment de l’iode, susceptible d’entraîner des cancers. D’après les recherches de l’Institut national de la #santé et de la recherche médicale, entre 1998 et 2002, la Polynésie arrivait en tête du funeste classement du taux d’incidence du #cancer de la thyroïde le plus élevé au monde.

    Pour tenter de faire reconnaître le #préjudice et de réparer les conséquences de ces essais, la députée de Polynésie #Mereana_Reid-Arbelot (Gauche démocrate et républicaine) a initié une #commission_d’enquête à l’Assemblée nationale. Stoppés par la dissolution en juin 2024, les travaux ont repris mardi 6 mai. En filigrane, les auditions permettent de mettre en lumière la question du colonialisme et de ses survivances. Pour Alexis Vrignon, maître de conférences à l’université d’Orléans, coauteur de Des bombes en Polynésie, les essais nucléaires français dans le Pacifique (éd. Vendémiaire, 2022), cette commission d’enquête illustre la difficile « reconnaissance du fait nucléaire ».

    Reporterre — Les essais nucléaires en Polynésie ont pris fin en 1996, mais l’histoire est-elle pour autant terminée ?

    #Alexis_Vrignon — Pas du tout. Au départ, la communication officielle du Commissariat à l’énergie atomique a été de dire qu’une fois le Centre d’expérimentations du Pacifique (CEP) démantelé, 1996 marquait la fin du nucléaire en Polynésie. Tout l’effort d’une partie de la société polynésienne au début des années 2000 a consisté à rappeler combien cette histoire ne pouvait pas se conjuguer au passé et à souligner les implications présentes.

    Ces enjeux ont été peu à peu pris en compte de manière chaotique et la question n’a jamais vraiment quitté l’espace public polynésien. La commission d’enquête qui a lieu en ce moment à l’Assemblée nationale est l’héritière de tous ces tâtonnements, ces hésitations et ces erreurs, qui illustrent les problèmes des pouvoirs publics face à la reconnaissance du fait nucléaire.

    Dans quel contexte la #France a-t-elle démarré ces essais nucléaires en Polynésie ? Pourquoi ce territoire ?

    Ils émergent dans le contexte historique de la #décolonisation, puisque les premiers essais nucléaires français ont eu lieu dans l’#Algérie encore colonie française, mais il était évident qu’à partir des #accords_d’Évian de 1962, cette solution ne pouvait durer et qu’il fallait un autre lieu. Plusieurs localisations ont dès lors été envisagées, certaines en France métropolitaine, notamment dans les Alpes et en Corse, avant d’être rapidement écartées, parfois pour des raisons géologiques, mais aussi et surtout, politiques. Dès lors, la France s’est rapidement tournée vers les outre-mer.

    Les atolls de Moruroa et Fangataufa ont été choisis. Cette décision s’est prise au début des années 1960 dans un contexte particulier de réaffirmation impériale. En 1956, la loi-cadre Defferre avait permis aux outre-mer de bénéficier d’une plus grande autonomie. Sauf qu’à partir de l’arrivée au pouvoir du général de Gaulle en 1958, les choses ont changé, il n’a plus été question d’aller vers l’autonomie totale des anciennes colonies africaines et des territoires d’outre-mer. La Polynésie fut alors choisie, sans consulter la population, ni les élites politiques locales.

    Les essais nucléaires ont-ils continué malgré une connaissance de leurs effets sanitaires et environnementaux ?

    À travers les archives militaires et locales, on constate que l’administration avait claironné à toute la Polynésie que les essais nucléaires allaient être propres et qu’il n’y aurait aucun problème. Après l’#essai_Aldébaran de 1966, qui a exposé les habitants des #îles_Gambier aux rayonnements ionisants et contaminé les citernes d’eau de pluie qu’ils buvaient, elle a été mise en porte-à-faux et c’est à partir de là qu’une culture du secret s’est développée.

    Les autorités ont ensuite tenté de limiter les risques en déplaçant parfois des populations, mais les questions de #sécurité n’étaient clairement pas leur priorité. Elles ont par exemple envoyé un avion dans un nuage radioactif afin d’effectuer des prélèvements. Il y avait aussi des bateaux militaires qui traversaient des zones sous le panache radioactif et à qui on ne disait pas grand-chose.

    Y a-t-il eu des résistances à l’époque ?

    La société polynésienne n’a jamais été totalement unanime. Mais entre 1962 et 1966, la mobilisation locale a été importante, notamment derrière le député #John_Teariki, qui a tenté de faire revenir le gouvernement sur sa décision de création du site d’expérimentations. Il s’appuyait sur la documentation scientifique des conséquences des essais nucléaires américains entre 1946 et 1958 dans les îles Marshall.

    Il insistait aussi sur la connaissance qu’avaient les Polynésiens de leur propre environnement, notamment des poissons qui se déplacent sur de longues distances et peuvent passer dans des zones contaminées avant d’être pêchés. Seulement, les autorités françaises se sont efforcées de marginaliser ces oppositions et de favoriser la montée en puissance des partis politiques liés au gaullisme, plus proches du pouvoir en place à Paris.

    À partir de 1974, les essais nucléaires sont devenus souterrains. En quoi menacent-il encore aujourd’hui l’écosystème des atolls ?

    Pour des raisons avant tout diplomatiques, vis-à-vis des Australiens et des Néo-Zélandais, la France a fait ce choix et réalisé d’importants #forages_offshore. Puisque ces essais fragilisaient notamment l’anneau corallien autour de Fangataufa, la majorité d’entre eux ont été effectués sur l’atoll de #Mururoa. Ces sites sont encore aujourd’hui étroitement monitorés, car les experts redoutent qu’une partie des atolls se décroche et entraîne un tsunami menaçant tout l’archipel, ou bien qu’ils s’ouvrent et libèrent des radio-éléments susceptibles de se disperser partout.

    Plus globalement, que sait-on des effets à long terme des radiations en Polynésie ?

    À l’heure actuelle, il s’agit encore de la question la plus délicate, car on manque de données permettant de mesurer pleinement les effets sanitaires sur les populations. Certaines archives cruciales, comme celles de l’hôpital Jean-Prince de Papeete [à Tahiti] n’ont pas encore été consultées car elles viennent tout juste d’être localisées. La Polynésie est un territoire grand comme l’Europe, mais éclaté sur énormément d’îles, ce qui rend plus complexes les études historiques et épidémiologiques. Ce que l’on sait, c’est qu’en 2023, près de la moitié des #indemnisations acceptées par le Comité d’indemnisation des victimes des essais nucléaires provenaient de Polynésie.

    Dans quelle mesure ces essais relèvent-ils des mêmes logiques coloniales que pour le scandale du chlordécone aux Antilles ?

    Il y a bien sûr des parallèles : quand ces scandales se développent, ce sont sur deux territoires en situation coloniale, c’est-à-dire dont les institutions et les rapports sociaux sont déterminés par ce rapport qui perpétue une inégalité de statuts et de droits entre les populations locales colonisées et les populations colonisatrices.

    En Polynésie, personne n’a été consulté en amont et les essais nucléaires ont été beaucoup plus facilement envisagés par les autorités françaises en outre-mer que dans les Alpes ou en Corse. S’ajoute toute une série de présupposés sur ces espaces qui, vus depuis Paris, n’étaient rien d’autre qu’une sorte de désert liquide où il était plus facile d’installer une base d’essais nucléaires, peu importe les risques sanitaires et environnementaux.

    Peut-on imaginer qu’un jour une enquête parlementaire s’ouvre sur les essais nucléaires réalisés par la France en Algérie ?

    Pour la Polynésie, les procédures de déclassification et de dérogations d’archives ne datent que de 2021, elles ont permis d’établir une chronologie des faits et de documenter ce que les autorités savaient ou non. À ce moment-là, l’historien Renaud Meltz, chargé de la création de l’observatoire de l’héritage du CEP, avait soulevé la question : pourquoi ne pas faire la même chose pour les archives liées aux essais nucléaires en Algérie, qui sont encore peu connus ?

    Mais face aux relations complexes qu’entretiennent la France et l’Algérie, la ministre de la Mémoire et des Anciens combattants d’alors, Geneviève Darrieussecq lui avait opposé une fin de non-recevoir. Ce ne serait pas irréaliste et, en tant qu’historien, je ne peux qu’y être favorable. Mais l’accès aux archives ne sera qu’une première étape, car dès lors que l’on connaît mieux les faits, il faut tenter de les résoudre, et c’est là que les choses les plus difficiles commencent.

    https://reporterre.net/Essais-nucleaires-en-Polynesie-Vu-de-Paris-ce-n-etait-qu-un-desert-liqui

    #désert #désert_liquide #géographie_du_vide #radioactivité #histoire #colonialisme #colonisation

    ping @reka

  • Allocations-chômage : face à France Travail, le Conseil d’État vole au secours des demandeurs d’emploi
    https://www.mercipourlinfo.fr/actualites/emploi/allocations-chomage-face-a-france-travail-le-conseil-detat-vole-au-se

    Dans l’affaire examinée, Monsieur B., un demandeur d’emploi bénéficiant de l’allocation d’aide au retour à l’emploi (#ARE), a débuté une activité salariée le 17 décembre 2018, poursuivie jusqu’au 7 avril 2022. Pendant toute cette période, il n’a pas déclaré ce changement de situation sur le site internet de #France_Travail, dans le cadre de sa déclaration mensuelle, en raison de difficultés techniques liées au mode de rémunération. Son activité étant exercée au forfait, le nombre d’heures réalisées ne pouvait être renseigné de façon dématérialisée.

    Il a toutefois informé France Travail de son recrutement en contrat à durée déterminée (CDD) par courriels à au moins quatre reprises, dont la première fois le 20 décembre 2018, soit dans les 72 heures suivant le début de son nouveau contrat comme le lui imposait l’article R. 5411-7 du code du travail. Dans ses mails, il a communiqué son contrat de travail, ses bulletins de salaire et fait état de ses difficultés à actualiser sa situation dans le cadre de ses déclarations mensuelles.

    Mais le directeur de l’agence de France Travail, estimant qu’il n’a pas respecté les obligations déclaratives mensuelles, a exigé en juillet 2022 le remboursement des sommes indûment versées au titre de l’ARE durant la période au cours de laquelle il a exercé une activité salariée. Pour lui, l’absence de déclaration en ligne de la reprise d’activité professionnelle constitue une fausse déclaration pour obtenir le bénéfice de l’allocation d’aide au retour à l’emploi. Monsieur B. est sanctionné par une #radiation de la liste des demandeurs d’emploi pour une durée de 6 mois et par une suppression définitive du bénéfice de l’ARE.

    Monsieur B. décide alors de contester ces sanctions devant le juge administratif, arguant de sa bonne foi et des démarches entreprises pour informer l’administration. Mais le tribunal administratif rejette sa demande d’annulation, estimant qu’en l’absence de déclaration en ligne de son changement de situation, il a commis une fausse déclaration et ce, même s’il avait tenté de signaler son activité par d’autres moyens.

    Le plaignant saisit alors la cour administrative d’appel, qui transmet l’affaire au Conseil d’État. Dans une décision rendue le 7 mars 2025, la plus haute juridiction de l’ordre administratif a adopté une position plus nuancée.

    [...]

    (...) le Conseil d’État a annulé le jugement rendu par le tribunal administratif ainsi que la décision de radiation et de suppression définitive du bénéfice de l’ARE.

    #dématérialisation #reprise_d'emploi #suppression_d'ARE

    • Merci aux emmerdeurs et aux emmerdeuses qui s’accrochent pour faire valoir NOS droits. Parce qu’évidemment, se fader des heures de travail, d’angoisse et d’insomnie pour batailler avec des pourritures d’administrations kafkaïennes c’est une galère sans fin.

    • En fait tu as des catégories des activités et une explosion de celles-ci en mille définitions diversifiées. (Là, la diversité est prônée …)
      Par exemple, tu es classé salarié à 35 heures par mois, tu peux aller trouver un syndicat de travailleurs, je te dis pas que ça marchera, mais à priori cette catégorie est assez représentée et en position de force politique pour défendre des revendications, savoir le type de discours à tenir, etc

      Depuis toujours, l’explosion des statuts, dont évidemment les chômeurs, font que beaucoup peinent à se syndiquer pour défendre leurs droits. Ben wéé y’a pas de syndicats de chômeurs, pour celleurs en arrêt de travail, à la rue, ou dans la merde. Tout cela a été verrouillé et va à l’inverse de la culture travail des syndicats (défendre les personnes qui fabriquent des bombes ok, mais pas celles qui sont à la rue) celleux qui ne sont pas productives et ne font pas fonctionner le capitalisme sont inexistantes d’un point de vue syndical/juridique/social/médiatiquement parlant etc.

    • Les syndicats c’est loin d’être parfait (et certains plus imparfaits que d’autres) et y a à redire sur plein de points, mais y a une CGT chômeurs et rien n’empêche d’adhérer à peu près à n’importe quel syndicat quand on est chômeur (mais c’est + facile de taper sur la gueule des syndicats que d’essayer de les faire vivre, on se retrouve avec des structures vieillissantes et pas toujours les meilleur⋅e⋅s qui restent).

  • Spéciale Habibi Funk avec Rogér Fakhr et Charif Megarbane | FIP
    https://www.radiofrance.fr/fip/podcasts/live-a-fip/speciale-habibi-funk-avec-roger-fakhr-et-charif-megarbane-9362099

    Avant leur concert à La Bellevilloise, nous invitons en session live deux artistes libanais du label berlinois, le songwriter et guitariste Rogér Fakhr ainsi que le producteur et multi-instrumentiste Charif Megarbane.
    Avec

    Rogér Fakhr,
    Charif Megarbane, musicien et compositeur libanais

    Bien loin de nos conceptions stéréotypées sur la musique orientale, le label berlinois Habibi Funk nous permet de découvrir des artistes, parfois exilés, qui ont métissé les musiques traditionnelles de leur pays avec le funk, la soul, la pop, la folk et le rock. Son fondateur, le digger et DJ berlinois Jannis Stürtz, voyage aux quatre coins de l’Afrique et du Moyen-Orient pour exhumer ces trésors électriques méconnus ou inédits et n’hésite pas à se rendre dans des villages algériens, tunisiens, libanais ou soudanais pour rencontrer les artistes et leurs familles. Nous invitons en session live deux artistes libanais du label : le grand songwriter et guitariste Rogér Fakhr ainsi que le compositeur et multi-instrumentiste Charif Megarbane, qui vient de sortir l’album Hawalat.

    #FIP #radio #audio #musique #Liban #Habibi_Funk #Jannis_Stürtz #Rogér_Fakhr #Charif_Megarbane

  • Lecture d’un extrait du livre « Bassoléa ou de l’herbe dans le ventre » de Juliette Mézenc, paru aux Editions La Contre Allée en 2025.

    https://liminaire.fr/creation/radio-marelle/article/bassolea-ou-de-l-herbe-dans-le-ventre-de-juliette-mezenc

    Bassoléa, c’est la voix d’une jeune femme « mise au vert » contre son gré. En colère contre le monde et ses absurdités, elle trouve refuge dans une véranda sous terre. Là, elle contemple champignons, bactéries, racines, protozoaires. Elle respire enfin. Curieuse, elle cherche « à traduire dans le monde des humains l’art de vivre des microbes. » Ce monologue haletant, à la croisée du récit initiatique et d’une forme de manifeste écopoétique, critique frontalement notre société du tout-travail, destructrice du vivant, et imagine un corps recyclable, sans trace, en célébrant l’élan vital d’une jeunesse en quête d’alternatives. De sa fureur naît un enthousiasme contagieux, une curiosité pour ce qui pousse, pour ce qui échappe à l’ordre dominant. Un chant vibrant, une parole libre, incarnée, profondément vivante.

    (...) #Radio_Marelle, #Écriture, #Livre, #Lecture, #En_lisant_en_écrivant, #Podcast, #Littérature, #Mémoire, #Histoire, #Nature, #Écologie, (...)

    https://liminaire.fr/IMG/mp4/en_lisant_bassole_a_juliette_me_zenc.mp4

    https://lacontreallee.com/catalogue/bassolea

  • Boosting GPU #radix Sort performance: A memory-efficient extension to Onesweep with circular buffers
    https://gpuopen.com/learn/boosting_gpu_radix_sort

    AMD GPUOpen - Graphics and game developer resources Discover a high-performance, memory-efficient extension to Onesweep radix sort on GPUs, featuring circular buffers and advanced optimization techniques that reduce global memory access and improve #sorting throughput.

    #Article #News #Single_Blog